Constantino Tsallis and Guiomar Ruiz-Introducción A La Mecánica Estadística de Boltzmann-Gibbs-Draft (2011) PDF
Constantino Tsallis and Guiomar Ruiz-Introducción A La Mecánica Estadística de Boltzmann-Gibbs-Draft (2011) PDF
Constantino Tsallis and Guiomar Ruiz-Introducción A La Mecánica Estadística de Boltzmann-Gibbs-Draft (2011) PDF
MECÁNICA ESTADÍSTICA
DE BOLTZMANN-GIBBS
Constantino Tsallis
Guiomar Ruiz
18 de noviembre de 2011
Constantino Tsallis
Santa Fe Institute
1399 Hyde Park Road, Santa Fe, New Mexico 87501, USA.
E-mail: [email protected]
Guiomar Ruiz
Prefacio VII
1. Introducción 1
1.1. La Mecánica Estadı́stica en su contexto . . . . . . . . . . . . . . 1
1.2. Nacimiento y naturaleza . . . . . . . . . . . . . . . . . . . . . . . 1
1.3. Formalismo y caracterı́sticas . . . . . . . . . . . . . . . . . . . . . 2
1.4. Concepto de Información . . . . . . . . . . . . . . . . . . . . . . 4
1.5. El problema ergódico . . . . . . . . . . . . . . . . . . . . . . . . . 6
3. Entropı́a estadı́stica 73
3.1. Entropı́a y Teorı́a de la Información . . . . . . . . . . . . . . . . 73
3.2. Propiedades . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
3.2.1. Positividad de S . . . . . . . . . . . . . . . . . . . . . . . 74
3.2.2. S máxima ⇔ Ignorancia total . . . . . . . . . . . . . . . 74
3.2.3. S mı́nima (S = 0) ⇔ Certeza . . . . . . . . . . . . . . . 75
3.2.4. Simetrı́a . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
3.2.5. Aditividad de la información . . . . . . . . . . . . . . . . 75
iv ÍNDICE GENERAL
3.2.6. Concavidad . . . . . . . . . . . . . . . . . . . . . . . . . . 77
3.2.7. Subaditividad . . . . . . . . . . . . . . . . . . . . . . . . . 77
3.3. Entropı́a y mecánica cuántica . . . . . . . . . . . . . . . . . . . . 81
3.3.1. Entropı́a mı́nima . . . . . . . . . . . . . . . . . . . . . . . 81
3.3.2. Entropı́a máxima . . . . . . . . . . . . . . . . . . . . . . . 81
3.3.3. Concavidad . . . . . . . . . . . . . . . . . . . . . . . . . . 82
3.3.4. Subsistemas . . . . . . . . . . . . . . . . . . . . . . . . . . 82
3.3.5. Evolución temporal . . . . . . . . . . . . . . . . . . . . . . 83
3.3.6. Proceso de medida . . . . . . . . . . . . . . . . . . . . . . 84
3.3.7. N indeterminado . . . . . . . . . . . . . . . . . . . . . . . 84
3.3.8. Estados clásicos . . . . . . . . . . . . . . . . . . . . . . . . 85
Apéndice 219
vi ÍNDICE GENERAL
PREFACIO
Introducción
Carácter no determinista
Hagamos algunas consideraciones que nos permitirán comprender mejor el
carácter no determinista de la Mecánica Estadı́stica.
a) La Mecánica Clásica es determinista. Esto significa que, conocido el estado
inicial de un sistema y sus leyes mecánicas de evolución, el estado del sistema
está definido de forma unı́voca.
b) La Mecánica Estadı́stica Clásica está afectada por un no determinismo
simple. Esto significa que el imperfección en la definición del sistema está única-
mente ligada al conocimiento incompleto de la evolución temporal de los vectores
posición y momento, ~r(t) y ~p(t).
c) La mecánica cuántica está también afectada por un no determinismo
simple. Éste se encuentra únicamente ligado al propio concepto de función de
onda, ψ(~r, t).
d) La Mecánica Estadı́stica Cuántica es también no determinista, pero en
un doble sentido, ya que a la indeterminación propia de la Mecánica Estadı́stica
viene a sumarse la indeterminación ligada al conocimiento incompleto propor-
cionado por la función de onda ψ(~r, t), en lo que se refiere al conocimiento exacto
y simultáneo de la posición y el momento.
Conviene observar, en coherencia con lo anterior, que entre dichas áreas se
verifican las siguientes relaciones de inclusión:
Mecánica Clásica ⊂ Mecánica Estadı́stica Clásica
⊂ ⊂
mecánica cuántica ⊂ Mecánica Estadı́stica Cuántica
4 Introducción
Violación de la simetrı́a
El concepto de fenómeno cooperativo surge al constatar que a veces el com-
portamiento de un conjunto es muy diferente del comportamiento de la simple
suma de las partes. Veamos dos situaciones en las que aparece dicho fenómeno.
a) En los procesos irreversibles, la simetrı́a en relación a la inversión tem-
poral —esto es, la invariancia frente a los cambios que modifican la orientación
temporal como es el caso t → (−t)—, puede no subsistir a nivel macroscópico.
Es lo que por ejemplo ocurre en la fusión de un vidrio caliente.
b) En las transiciones de fase tı́picamente aparece una variable denominada
parámetro de orden, cuyo cambio (sea brusco o suave) pone de manifiesto dicha
transición. Piénsese, por ejemplo, en que una interacción tipo Ising entre dos
spines resulta ser invariante en relación al cambio de orientación z → (−z), y
sin embargo esto no ocurre en una sustancia ferromagnética macroscópica en lo
que se refiere a la polarización magnética media.
Problemas abiertos
En Mecánica Estadı́stica, a diferencia de lo que suele aceptarse, quedan
todavı́a abiertos muchos problemas, y no dejaremos de ponerlos en evidencia
cuando aparezcan. Por ejemplo, un problema abierto fundamental en el cua-
dro de la Mecánica Estadı́stica Relativista general, es el de la relación entre la
expansión del universo y la pérdida de información.
pi = 1/6, (i = 1, 2, 3, 4, 5, 6).
1.4 Concepto de Información 5
c) Si el dado está trucado pero ignoramos de qué modo, nuestra mejor pro-
puesta, aun sabiendo que es falsa, será
pi = 1/6, (i = 1, 2, 3, 4, 5, 6).
Ejemplo 2.- Tenemos dos spines distinguibles cuyos valores posibles son S1z =
{1, 0, −1} y S2z = {1, 0, −1}. Queremos determinar cuál es la probabilidad de
que sean iguales, p(S1z = S2z ). Para ello hemos de diferenciar dos situaciones
distintas:
a) Si no disponemos de información alguna, el conjunto admisible es el de
todos los posibles valores del par de spines distinguibles, es decir:
Ω = {(0, 0), (0, 1), (0, −1), (1, 0), (1, 1), (1, −1), (−1, 0), (−1, 1), (−1, −1)}.
Estos dos ejemplos nos preparan para la comprensión del postulado fundamental
de la Mecánica Estadı́stica.
ignorancia ⇔ equiprobabilidad
mantienen con los que le preceden una relación basada en el principio evidente de que una
cosa no puede comenzar a existir sin una causa que la produzca”, Laplace [5] propone que
no existe ninguna razón para suponer que un estado se puede presentar antes que los demás,
y que puede por lo tanto considerarse que todos los estados pueden acontecer por igual. De
aquı́ que, para un problema de decisión con n posibles estados de la naturaleza, se asigne una
probabilidad igual a 1/n para cada uno de los estados.
1.5 El problema ergódico 7
la variable x, según sean las perturbaciones a las que esté sometido el sistema.
Promedio temporal X̄
El promedio temporal se define, partiendo de la hipótesis de que ningún
instante de tiempo es privilegiado, como
Z T
1
X = lı́m X(t)dt. (1.1)
T →∞ T − t0 t
0
M
1 X
hXi ≡ lı́m Xi (t). (1.2)
M→∞ M
i=1
Hipótesis ergódica
La hipótesis ergódica, debida a Boltzmann [11], afirma que bajo ciertas condi-
ciones se cumple, para cualquier variable dinámica X, que el promedio temporal
es igual a la media de la colectividad, esto es:
X = hXi (1.3)
Toda la problemática ergódica gira en torno a cuáles son las condiciones que
hacen posible dicha igualdad [12].
Ejemplo
Ilustraremos cómo se verifica la hipótesis ergódica en el oscilador armónico
clásico, cuyo Hamiltoniano, H, es
p2 1
H= + mω 2 x2 (1.4)
2m 2
donde m es la masa, ω la frecuencia propia, x la posición y p el momento. La
energı́a del oscilador E, para valores máximos de la posición x0 y el momento
p0 (ver Fig. 1.2), es
p2 1
E = 0 = mω 2 x20 .
2m 2
Nuestro objetivo es hallar la densidad de probabilidad de presencia del osci-
lador, P (x). Dicha densidad de probabilidad ha de verificar que:
a) P (x) = 0, si | x |>| x0 |.
b) P (x) = P (−x), ∀x.
c) El valor mı́nimo es P (0).
d) El valor máximo es P (x0 ).
el único lineal, no sólo respecto a la clase generalizada que acabamos de definir, sino también
a cualquier otra clase de promedios.
1.5 El problema ergódico 9
Figura 1.2: Órbita en el plano de fases del oscilador armónico clásico de energı́a E.
Obsérvese el arco de la órbita asociado a un intervalo de tiempo diferencial dt.
p2 x2
√ 2 + r !2 = 1, (1.7)
2mE 2E
mω 2
y también que el área diferencial que queda encerrada entre dos órbitas elı́pticas
de energı́as E y E + δE es
2π
δSE = δE.
ω
Podemos obtener la probabilidad de presencia a energı́a constante E, como
el lı́mite δE → 0 del cociente entre el área marcada de la Fig. 1.4 asociada a un
elemento diferencial (dx, δp) comprendido entre las dos elipses, y todo el área
diferencial δSE encerrada entre las dos elipses, esto es:
Figura 1.4: Órbitas del oscilador armónico con energı́a de oscilación E y E + δE.
Descripción probabilı́stica
de un sistema
De este modo, el estado microscópico del sistema queda bien definido me-
diante un ket del espacio de Hilbert:
Entre dichos estados, vamos a distinguir entre los estados puros y los estados
mezcla:
a) Estados puros ≡ vectores |ψi del espacio de Hilbert, que no son necesa-
riamente autovectores de H.
Los vectores |ψλ i no tienen por qué ser ortogonales entre sı́.
Ejemplo
Sea un spin 1/2, lo que corresponde a un espacio de Hilbert EH bidimensional.
Los estados puros, pueden escribirse como combinación lineal de los auto-
estados del operador de spin es
a
a| ↑i + b| ↓i ≡ .
b
Considerando un conjunto de vectores |ki que forman una base ortonormal del
espacio de Hilbert y que pueden ser, o no, vectores propios del Hamiltoniano H,
se puede escribir:
1 0 ... ... ... 0
.
0 . . . . . . ..
0 1
X ..
0 0 1 0 . . . .
|kihk| ≡ =I
. . .
k .. .. 0 .
.
0 ... ... 0 1 0
0 ... ... ... 0 1
2.1 Sistemas cuánticos 17
Propiedad I
Trρ̂ = 1 (2.5)
Propiedad II
ρ̂ = ρ̂+ (2.6)
X +
X X
ρ̂+ = Pλ (|ψλ ihψλ |) = Pλ hψλ |+ |ψλ i+ = Pλ |ψλ ihψλ | = ρ̂
λ λ λ
Propiedad III
ello implica: X
0≤ Pλ |hϕ|ψλ i|2 ≤ 1.
λ
Propiedad IV
1 1
Trρ̂ = + =1
2 2
y
2 1 1 1 1 1 1 1 1
ρ̂ = = = ρ̂.
4 1 1 1 1 2 1 1
Ejemplo B - Sea un spin 1/2 en el estado mezcla de dos estados puros, de
los que conocemos la ley de probabilidad de ocurrencia:
1 1
| ↑i = , con probabilidad P↑ =
0 2
0 1
| ↓i = , con probabilidad P↓ = .
1 2
1 También se puede demostrar que, para un estado puro, ρ̂q = ρ̂, ∀q ∈ R (q 6= 0, 1):
Propiedad V
donde Σ1 y Σ2 son dos sistemas no correlacionados descritos por ρ̂1 y ρ̂2 respec-
tivamente, y ρ̂12 describe el sistema Σ = Σ1 + Σ2 . Exhibamos esta propiedad
en un ejemplo.
Ejemplo - Sean dos spines 1/2 no polarizados e independientes. La matriz
de densidad del sistema Σ es:
1 0 0 0
1 1 0 1 1 0 1 0 1 0 0
ρ̂12 = ρ̂1 ⊗ ρ̂2 = ⊗ = .
2 0 1 2 0 1 4 0 0 1 0
0 0 0 1
1
y son equiprobables, esto es, Pλ = ∀λ, y puede afirmarse que:
4
1 0 0 0
1
0 (1 0 0 0) + 1 (0 1 0 0) + 0 (0 0 1 0) + 0
ρ̂12 = (0 0 0 1) =
4
0 0 1 0
0 0 0 1
1 0 0 0 0 0 0 0
1 0 0 0
1 1
0 0 0 0 0 1 0 0
= + + ··· = 0 1 0 0
4 0 0 0 0 0 0 0 0 4 0 0 1 0
0 0 0 0 0 0 0 0 0 0 0 1
Ejemplo A - Sea el estado mezcla de dos spines 1/2, con las siguientes pro-
babilidades de ocurrencia:
P↑↑ = 6/16
P↑↓ = 5/16
P↓↑ = 3/16
P↓↓ = 2/16
Por lo tanto, tal como se muestra en la siguiente tabla, verificamos las si-
guientes leyes de probabilidad:
H
HH 2 ↑ ↓
1 HH
↑ 6/16 5/16 11/16
↓ 3/16 2/16 5/16
9/16 7/16 1
y
ρ̂11
1 ρ̂12
1 11/16 0
ρ̂1 ≡ Tr2 ρ̂ ≡ =
ρ̂21
1 ρ̂22
1 0 5/16
donde ρ̂ij
1 es el elemento en la fila i y la columna j del operador ρ̂1 , y para
calcularlos se ha tenido en cuenta que
ρ̂11
1 = h↑↑ |ρ̂| ↑↑i + h↑↓ |ρ̂| ↑↓i = ρ̂
11
+ ρ̂22 = 11/16
ρ̂12
1 = h↑↑ |ρ̂| ↓↑i + h↑↓ |ρ̂| ↓↓i = ρ̂
13
+ ρ̂24 = 0
ρ̂21
1 = h↓↑ |ρ̂| ↑↑i + h↓↓ |ρ̂| ↑↓i = ρ̂
31
+ ρ̂42 = 0
ρ̂12
1 = h↓↑ |ρ̂| ↓↑i + h↓↓ |ρ̂| ↓↓i = ρ̂
33
+ ρ̂44 = 5/16
y podemos calcular
11/162 0 0 0
0 77/162 0 0
ρ̂1 ⊗ ρ̂2 = .
0 0 45/162 0
2
0 0 0 35/16
Constatándose que ρ̂1 ⊗ ρ̂2 6= ρ̂, vemos que los spines 1 y 2 están correlacionados.
Ejemplo B - Sea el estado mezcla de dos spines 1/2 con la siguiente ley de
probabilidades:
P↑↑ = 1/12
P↓↓ = 1/12
P↓↑ = 3/12
P↓↓ = 6/12
HH 2
HH ↑ ↓
1 H
↑ 1/12 2/12 1/4
↓ 3/12 6/12 3/4
1/3 2/3 1
y también que
P1 (↑ | ↑) = P1 (↑ | ↓) = P1 (↑) = 1/4
P1 (↓ | ↑) = P1 (↓ | ↓) = P1 (↓) = 3/4
P2 (↑ | ↑) = P1 (↑ | ↓) = P1 (↑) = 1/4
P2 (↓ | ↑) = P1 (↓ | ↓) = P1 (↓) = 2/3
Por lo tanto, ahora los spines 1 y 2 son independientes, esto es, no existe
correlación. Ahora los operadores densidad son:
1/2 0 0 0
0 2/12 0 0
ρ̂ =
0
0 3/12 0
0 0 0 6/12
1/2 0 1/3 0
ρ̂1 = y ρ̂2 =
0 3/4 0 2/4
de modo que se cumple:
ρ̂1 ⊗ ρ̂2 = ρ̂
Propiedad VI
Propiedad VII
Proceso de medición:
a) Supongamos que la situación inicial es un estado puro |ψi.
a1 - Antes de medir, se tiene:
ρ̂1 = |ψihψ|
a2 - Después de medir el observable A, pero antes de conocer el resultado,
se tiene el estado mezcla:
X
ρ̂2 = Pa |ψihψ|Pa
a
y por lo tanto:
1 1 1
ρ̂1 = .
2 1 1
2.1 Sistemas cuánticos 27
Propiedad VIII
La probabilidad no se crea ni se destruye, sólo se transfiere de un estado a
otro. Como consecuencia de ello tenemos la siguiente propiedad para la ecuación
de evolución temporal de la matriz de densidad (ecuación de von Neumann):
∂ ρ̂(t)
i~ = [H(t), ρ̂(t)] (2.17)
∂t
= H(t)ρ̂(t) − ρ̂(t)H(t)
= [H(t), ρ̂(t)]
28 Descripción probabilı́stica de un sistema
∂H
= 0 ⇒ U (t) = e−iHt/~ (2.23)
∂t
y también:
∂U
i~ = H[U (t)]q , con U (0) = I y q ∈ R (2.24)
∂t
La solución de (2.24) ahora es
1
U (t) = e−iHt/~
q ≡ [1 − i(1 − q)Ht/~]1/(1−q) = .
[1 + i(q − 1)Ht/~]1/(q−1)
Corolario -
= Tr ρ̂(0)[U (t)]−1 U (t) = Trρ̂(0) = 1 ∀t
Una consecuencia capital del hecho de que U (t) sea unitario es que, al con-
servar el producto escalar, U (t) transforma una base ortonormal en otra orto-
normal. Esta es la razón matemática esencial que nos llevará, a nivel del los
postulados fundamentales de la mecánica estadı́stica, a equiprobabilizar el es-
pacio de Hilbert.
Calculemos la solución explı́cita de (2.17), en el caso de que el Hamiltoniano
H no dependa del tiempo. Para ello consideremos los vectores propios |φp i y
los valores propios Ep , de H. Obsérvese que la base formada por los vectores
propios |φp i, no diagonaliza necesariamente ρ̂.
Tenemos:
hϕp |U (t) = hϕp |e−iHt/~ = hϕp |e−iEp t/~
2.1 Sistemas cuánticos 29
por lo tanto:
y en particular:
donde |mi son sus vectores propios y pm son las probabilidades de ocupación.
Por lo tanto, un estado puro corresponde, en la forma diagonal, a tener un único
1 en la diagonal, y cero en el resto de los elementos.
Ejemplo - Considérese un spin 1/2 polarizado a lo largo del eje (+X), para
el que calculamos la matriz de densidad ρ̂.
1 1 1 1 1
ψ=√ ⇒ ρ̂ =
2 1 2 1 1
1 1
−λ 2
2 2
= 1 − λ − 1 = 0 ⇒ λ = 0,1
1 1
2 4
−λ
2 2
Propiedad IX
Para un sistema mal definido en el sentido de que el número de partı́culas
N contenidas en el sistema sea una variable aleatoria cuya ley de probabilidad
30 Descripción probabilı́stica de un sistema
o gran canónica.
2.2 Sistemas clásicos 31
donde:
{~
ri } (i = 1, . . . N ) son las coordenadas de posición de las N partı́culas;
{p~i } (i = 1, . . . N ) son los momentos de las N partı́culas;
~ ri ) es el potencial vector eletromagnético;
A(~
V (~ri ) es un potencial externo (elástico, gravitacional, eléctrico, o ciertos
tipos de interacciones);
W (~ri , ~rj ) es un potencial asociado a la interacción entre dos partı́culas,
que depende únicamente de (~ri − ~rj ), tı́picamente de la distancia |~ri − ~rj |.
[dΓN ] = (acción)N d .
∆N
dτN ≡ dΓN (2.33)
SN hdN
ky = πny (ny = 1, 2, 3 · · · )
L
Los valores propios del Hamiltoniano H (ver Fig. 2.2) son
~2 k 2 h2
Enx ,ny = = (n2 + n2y )
2m 8mL2 x
2.2 Sistemas clásicos 33
Figura 2.2: Niveles de energı́a de una partı́cula puntual de masa m, en una caja
impenetrable y en unidades de (h2 /8mL2 ).
Sea Φ(E) el número total de estados cuya energia es igual o menor que
E. Frecuentemente, Φ(E) es discontı́nuo pero tiene, para energı́as grandes
(E → ∞), un comportamento asintótico analı́tico. Por lo tanto, tal como
veremos en la sección 2.3, es posible definir la densidad de estados en el
espacio de las energı́as como
dΦ(E)
ω(E) =
dE
Para calcular el número de estados cuya energı́a es menor o igual que una
dada, observamos el número de estados
q que en el espacio (nx , ny ) están
dentro de un cı́rculo de radio R = n2x + n2y (ver Fig. 2.3).
h2
⇒Φ 9 =4
8mL2
h2
⇒Φ 36 = 29
8mL2
mL2 E
→ ∞ ⇒ Φ(E) ∼ τ (E) (2.37)
h2
Esta equivalencia justifica la presencia de h em dτ .
Acabamos de comprobar que, en tres situaciones diferentes que describen
una partı́cula en una caja bidimensional (dos de ellas cuánticas y una clásica),
obtenemos la misma expresión para el número total de estados Φ(E) de energı́a
menor o igual que E. Este tipo de situación ocurre frecuentemente en mecáni-
ca estadı́stica, lo que hace que las condiciones de contorno del sistema sean a
menudo irrelevantes3 .
El factor de degeneración ∆N , está asociado a los grados de libertad y no
tiene equivalente clásico. Un caso tı́pico es el de N partı́culas de spin S, para
las que se cumple
∆N = (2S + 1)N (2.38)
El factor de simetrı́a SN está asociado a la indiscernibilidad de las partı́culas
elementales idénticas. Tı́picamente, para su estimación4 , se hace uso de
SN ∼ N ! (2.39)
Ejemplifiquemos esta última relación (2.39) para dos casos tı́picos.
3 En los sistemas que presentan algún tipo de frustración, la situación puede ser muy dife-
rente.
4 Esta relación fue propuesta por primera vez por Gibbs, con el objeto de resolver la llamada
Figura 2.7: Representación de dos moléculas de agua, que resultan ser idénticas,
a pesar de caracterizar clásicamente los átomos de hidrógeno como si pudieran
ser marcados con diferentes colores (“verde” y “azul”).
E = E1 + E2 = C(n21 + n22 ),
Φdiscernibles = n2 = 16
n(n + 1)
Φindiscernibles = = 10
2
Φdiscernibles n2
= = 8 < 10
N! 2!
N
X Y
~i }) = hdN
ρN ({~ri , p δ d ~rσ − ~ri0 (t) δ d p ~i0 (t) ,
~σ − p (2.43)
σ∈PN i=1
Observable clásico
Podemos definirlo como el lı́mite clásico de un observable u operador autoadjun-
to de la mecánica cuántica. Se tratará, en consecuencia, de cualquier función real,
~1 , · · · , ~rN , p
A(~r1 , p ~N ), simétrica con respecto a toda permutación entre partı́culas in-
discernibles. El valor medio de un observable clásico es
Z
< A >≡ dτN ρN ({~ri , ~ pi })A({~ri , ~
pi }). (2.44)
donde
N
Y
dΓN−1 ≡ d~ri d~
pi
i=2
y por lo tanto
R
d~rd~
p µ1 (~r, p
~) = 1 (2.46)
p1 , · · · , ~rk , p
c) La densidad de probabilidad de k partı́culas, µk (~r1 , ~ ~k ), se define me-
diante una expresión análoga.
Por ejemplo, en el caso de que tengamos N partı́culas indiscernibles independientes
con degeneración δ, se tiene
N
N ! hdN Y
ρN = ~i ) ⇒ µ1 (~r, p
ρ1 (~ri , p ~) = ρ1 (~r, p
~) (2.49)
δ N i=1
K
X N!
hAi = hAn in
n=0
(N − n)!n!
! (2.55)
Z n
Y
hAn in ≡ d~ri d~
pi µn An
i=1
hni = N µ1 (~r, ~
p)
R
verificándose que d~r d~ p hni = N . Por lo tanto, podemos interpretar µ1 (~r, p ~)d~
p d~r
como la probabilidad de encontrar una partı́cula en el estado (~r, ~ p) con un error d~rd~ p,
que por otro lado es lo que sugerı́a la relación (2.51).
Obsérvese que, análogamente, puede interpretarse µk como la probabilidad de tener
una partı́cula en el estado (~r1 , p
~1 ), una segunda partı́cula en el estado (~r2 , ~
p2 ), etc. Esta
es la base del concepto de función de correlación en teorı́a de muchos cuerpos.
dρ
=0 (2.57)
dt
~ + ~δ · L
ln ρ = α − βE + ~γ · p ~
donde p ~ son los momentos lineal y angular respectivamente, de las que especificamos
~, L
sus componentes —d para el momento lineal, y d(d − 1)/2 para el momento angular—,
E es la energı́a, y α, β, ~γ , ~δ son coeficientes escalares o vectoriales; el signo de la
constribución de la energı́a se considera negativo por convenio.
Siempre podemos escoger un referencial tal que p ~=L ~ = 0 (“caja fija” de Landau)
y en consecuencia obtener una densidad de probabilidad que tenga la forma de la
distribución de Boltzmann-Gibbs, ρ = eα e−βE , siendo eα el factor de normalización
que, como veremos mas adelante, corresponde a la inversa de la función de partición.
Hay que tener presente que, si ln ρ no fuera aditivo, el factor de Boltzmann-Gibbs no
aparecerı́a5 .
Escoger ~ p = 0 no conlleva ninguna consecuencia, puesto que las propiedades es-
tadı́sticas de un sistema no relativista en movimento rectilı́neo uniforme son indepen-
dientes de la velocidad de su baricentro. Pero L ~ = 0 sı́ puede acarrear consecuencias
sobre las propriedades estadı́sticas del sistema, debido a fuerzas virtuales. Por lo tanto,
si el sistema de referencia escogido gira con el sistema, habremos de incluir todas las
contribuciones virtuales en el Hamiltoniano. Un ejemplo tı́pico es el de una centrifu-
gadora.
∂ρ({qj , pj }, t)
= {H({qj , pj }, t), ρ({qj , pj }, t)} (2.59)
∂t
Lρ ≡ {H, ρ} (2.61)
∂ρ
= Lρ (2.62)
∂t
∂ψ
i~ = Hψ,
∂t
a pesar de ser válida únicamente en la mecánica estadı́stica clásica. Esta corres-
pondencia entre las ecuaciones clásica y cuántica, permite aclarar un frecuente
equı́voco según el cual “no puede existir caos cuántico porque la ecuación de
Schrödinger es lineal”. Según este tipo de argumento, llegarı́amos a la conclu-
sión errónea de que tampoco existe caos clásico, debido a la linearidad de la
ecuación (2.62). De hecho, ası́ como el caos clásico se estudia en ecuaciones no
lineales, como por ejemplo fuerza=masa × aceleración, el caos cuántico deberı́a
estudiarse en ecuaciones cuánticas también no lineales6 .
b) La ecuación (2.62) es para a mecánica estadı́stica clásica lo que las ecuaciones
de Hamilton (o de Lagrange) son para la mecánica clásica, y también lo que la
ecuación de Schrödinger es para a mecánica cuántica.
c) La ecuación (2.62) es la representación “a la Schrödinger” de la mecánica es-
tadı́stica clásica, siendo que existe la representación “a la Heisenberg” en la que
∂ρ/∂t = 0 y el tiempo es transferido para L. Existe también la representación
“a la Dirac”.
d) De igual modo que cuantizar la función de onda ψ en i~∂ψ/∂t = Hψ transforma
la mecánica cuántica en la segunda cuantización (teorı́a clásica de campos versus
teorı́a cuántica de campos), cuantizar ρ en ∂ρ/∂t = 0 transforma la mecánica
estadı́stica clásica en la mecánica estadı́stica cuántica.
6 Una posible candidata para el estudio de la caoticidad en la mecánica cuántica podrı́a ser
que es un resultado completamente análogo al del caso cuántico (ver el apartado 2.1).
dΦ(E)
ω(E) ≡ (2.65)
dE
que sólo está definida si E puede ser considerada continua. Se verifican además las
siguientes relaciones:
dΦ
Ω(E, δE) = Φ(E) − Φ(E − δE) ≃ δE = ω(E)δE (2.66)
dE
(δE ≪ E)
X δE
Ω(E, δE) = g(E ′ ) ≃ g(E) (2.67)
ε(E)
(E−δE)<E ′ ≤E
ε(E) ≪ δE ≪ E
ε(E) varı́a lentamente
dΦ(E(M ))
≃ g(E(M )) (2.68)
dM
Como veremos más adelante, en los modelos cuyos elementos son independientes
o “casi” independientes, ΦN (E) crece rápidamente con N en el lı́mite termodinámico
(N → ∞), tı́picamente según
ΦN (E) ∼ CN E γN
(N → ∞)
donde γ ∼ 1, y CN es una constante que depende del número de elementos del sistema.
Veamos un par de corolarios de este hecho.
1) En la colectividad microcanónica, la entropı́a de BG es una función extensiva,
esto es:
ΦN (E) ≃ CN E N
N
δE δE
ΦN (E − δE) ≃ CN (E − δE)N = CN E N 1− ∼ ΦN (E) 1 − N
E E
⇓
δE
ΩN (E, δE) = ΦN (E) − ΦN (E − δE) ≃ ΦN (E)N
E
⇓
δE
ln ΩN (E, δ) ≃ ln ΦN (E) + ln N ∼ ln ΦN (E)
E
dado que ln ΦN (E) es extensiva por el primer corolario (2.69), y por lo tanto es pro-
porcional a N . En consecuencia su contribución es mucho mayor que la contribución
tipo ln N . De este modo, (2.70) queda demostrado.
La expresión ln ω(E) en rigor carece de sentido, dado que depende del sistema de
unidades que se utilice. Pero puede ser muy práctica, dado que las unidades acostum-
bradas conducen al mismo resultado numérico. Por ejemplo, 1 Julio ≃ 1019 eV , y por
lo tanto
23
23 1 1010 1 23 23
ω ≃ 1010 ≃ 19
⇒ ln ω ≃ ln 1010 ≃ ln 1010 − ln 1019 .
J 10 ev
En el lı́mite clásico (E/N → ∞), los resultados obtenidos para Φ(E), Ω(E, δE) y
ω(E), pueden ser obtenidos basándose en los hipervolúmenes definidos por las hipersu-
perficies equienergéticas del espacio de fases, tal como se observa en la Fig. 2.11, y tal
como veremos a continuación en algunos ejemplos. En todos los casos, trataremos con
sistemas compuestos por partı́culas independientes que iremos caracterizando progre-
sivamente con diferentes propiedades. Hay que resaltar que siempre habrá que tener
en cuenta las correcciones sin equivalente clásico. Identificaremos la distribución de
probabilidad a la que obedece cada sistema únicamente al final y sólo cuando resulte
oportuno; pero no haremos en ningún caso uso de ellas, para resaltar ası́ el hecho de
que la distribución de los estados es un problema mecánico y no un problema inducido
por la mecánica estadı́stica. Dichas distribuciones de probabilidad se estudiarán de
forma general en capı́tulos posteriores.
2.3 Densidad de estados 49
N = N1 + N2 (2.73)
(antiparalelo a H)
ւ
niveles de spin → ± µH
տ
(paralelo a H)
N!
g(N, E) = (2.75)
N − E/µH N + E/µH
! !
2 2
que tal y como veremos más adelante tiene el siguiente comportamiento asintótico:
a) T → +0 ⇒ N1 → N ⇒ E → −N µH ⇒ g → 1
b) T → −0 ⇒ N1 → 0 ⇒ E → N µH ⇒ g → 1
50 Descripción probabilı́stica de un sistema
N N!
c) T → ±∞ ⇒ N1 → ⇒ E → 0 ⇒ g → 2 = máximo,
2 N
!
2
donde hemos definido T → ±∞ como la temperatura en la que existe el máximo
desorden (y por tanto N1 = N2 ), lo que fuera del lı́mite termodinámico (N → ∞)
requiere un número par de subsistemas N .
Demostremos que el logaritmo de (2.75) es extensivo. En el lı́mite termodinámico
(N1 , N2 → ∞), el logaritmo puede aproximarse, mediante la aproximación de Stirling8 ,
por
ln g = ln N ! − ln N1 ! − ln N2 ! ∼ N ln N − N1 ln N1 − N2 ln N2
(Stirling)
de modo que multiplicar el número de subsistemas en cada estado por una constante
α, produce el mismo efecto sobre el logaritmo, tal como puede verse a continuación:
N1 → αN1
⇒ ln g → αN ln αN − αN1 ln αN1 − αN2 ln αN2
N2 → αN2
= αN ln α + αN ln N − αN1 ln α − αN1 ln N1
−αN2 ln α − αN2 ln N2
= α(N ln N − N1 ln N1 − N2 ln N2 )
= α ln g
M
!
Y giNi
g({Ni }) = N ! (2.77)
i=1
Ni !
8 Según
la aproximación de Stirling (válida cuando n → ∞):
√ 1 1
ln n! ∼ n ln n − n + ln 2πn +
12n
− 360n3
∼ n ln n
√
1
n! ∼ 2πn nn e−n 1 + + ··· ⇒
12n d ln n!
∼ ln n
dn
2.3 Densidad de estados 51
N!
g({Ni }) = M
.
Y
Ni !
i=1
Dentro del nivel εi , cada uno de los Ni subsistemas tiene gi posibilidades, de modo
que en total hay giNi , lo que conduce un número de configuraciones posibles dado
por (2.77). Obsérvese que la ecuación (2.77) contiene a la ecuación (2.74) como caso
particular, cuando M = 2 y g1 = g2 = 1.
En el caso de que Ni = 1 ∀i, se tiene, como era de esperar, que
M
Y
g = N! gi .
i=1
En el lı́mite termodinámico (Ni → ∞, ∀i), se verifica una vez más que la función
ln g es extensiva, esto es
ln g({αNi }) ∼ α ln g({Ni }).
gi = 1 (∀i) gi ≥ 1
M
Y
Ni = 1 (∀i) N! N! gi
i=1
M
N! Y giNi
Ni ≥ 1 M
N!
Y i=1
Ni !
Ni !
i=1
Cuadro 2.1: Número de configuraciones posibles g({Ni }, {gi }), para N sistemas dis-
cernibles e independientes, que ocupan cada nivel energético gi veces degenerado con
Ni subsistemas. En este cuadro se incluyen los ejemplos de las secciones 2.3.2 y 2.3.3.
Estadı́stica de Maxwell-Boltzmann
Veremos que en la ecuación (2.77), que rige en estos últimos dos ejemplos, está “es-
condida” la llamada estadı́stica de Maxwell-Boltzmann (microcanónico a canónico).
Para desvelar este hecho, identifiquemos el equilibrio estadı́stico del sistema como el
estado con máximo número de configuraciones posibles g({Ni }), y calculemos la dis-
tribución que optimiza la expresión (2.77) o, lo que es equivalente, su logaritmo
M
X M
X
ln g({Ni }) = ln N ! + (Ni ln gi − ln Ni !) ⇒ d ln g ∼ (ln gi − ln Ni ) dNi = 0,
i=1 i=1
(2.78)
con las restricciones que imponen el hecho de que la energı́a E y el número total
de subsistemas N sean constantes y conocidos (aunque no lo seann el número de
52 Descripción probabilı́stica de un sistema
Ni = N, en el “anti-fundamental” (el de mayor {εi } )
c) T → −0 ⇒ β − ∞
Ni = 0, para el resto
M
Y (Ni + gi − 1)!
g({Ni }) = (2.85)
i=1
Ni !(gi − 1)!
Para demostrarlo, consideremos que este problema es equivalente, para cada valor
de i a distribuir Ni bolas idénticas en gi compartimentos diferentes, separadas por
(gi − 1) “divisiones”:
OOOOOOOOO OOO
de manera que el número de posibilidades diferentes es
(Ni + gi − 1)!
Ni !(gi − 1)!
Ni factores
M
z }| { M
Y (Ni + gi − 1)(Ni + gi − 2) · · · (gi ) Y giNi
g({Ni }) = ∼
i=1
Ni ! i=1
Ni !
1
= gM B ({Ni }) ≡ gM BC ({Ni }) (2.86)
N!
54 Descripción probabilı́stica de un sistema
M
X
ln g ∼ (Ni + gi − 1) ln (Ni + gi − 1) − Ni ln Ni − (gi − 1) ln (gi − 1)
i=1
M
X
∼ (Ni + gi ) ln (Ni + gi ) − Ni ln Ni − gi ln gi
i=1
gi = 1 (∀i) gi ≥ 1
YM
Ni = 1 (∀i) 1 gi
i=1
M
Y (Ni + gi − 1)!
Ni ≥ 1 1
i=1
Ni !(gi − 1)!
Cuadro 2.2: Número de configuraciones posibles g({Ni }, {gi }), para N sistemas in-
discernibles e independientes, que ocupan cada nivel energético gi veces degenerado
con Ni subsistemas. En este cuadro se incluye el ejemplo de la sección 2.3.4.
Estadı́stica de Bose-Einstein
Veamos cómo en la ecuación (2.85), que rige en este último ejemplo, se “esconde”
la estadı́stica de Bose-Einstein. Para ello, buscaremos de nuevo el equilibrio estadı́stico,
identificándolo como aquél que, teniendo en cuenta las restricciones (2.79) y (2.80),
maximiza el número de configuraciones posibles g y por lo tanto su logaritmo. Haciendo
uso de la aproximación de Stirling, estimamos el logaritmo y su diferencial, y tenemos
que
M
X
ln g({Ni }) ∼ (Ni + gi ) ln (Ni + gi ) − Ni ln Ni − gi ln gi
i=1
M
X
d ln g ∼ [(ln(Ni + gi ) − ln Ni ] dNi .
i=1
2.3 Densidad de estados 55
gi
Ni = ∀i (2.87)
eβ(εi −µ) − 1
M
Y gi
g({Ni }) = (2.90)
Ni ! (gi − Ni )!
i=1
Para demostrarlo, tengamos presente que en cada nivel εi tenemos Ni estados ocu-
pados y (gi − Ni ) estados vacı́os. Por lo tanto, el número de posibilidades vendrá dado
por
gi !
Ni !(gi − Ni )!
lo que conduce a (2.90). Veamos algunos casos particulares.
a) En el caso gi = 1 ∀i, se tiene g({Ni }) = 1 tal como era de esperar.
b) En el caso Ni = 1 ∀i se tiene, tal como era previsible, que
M
Y
g({Ni }) = gi .
i=1
56 Descripción probabilı́stica de un sistema
gi = 1 (∀i) gi ≥ 1
YM
Ni = 1 (∀i) 1 gi
i=1
M
Y gi !
Ni ≥ 1 1
i=1
N i !(g i − Ni )!
Cuadro 2.3: Número de configuraciones posibles g({Ni }, {gi }) para N sistemas indis-
cernibles e independientes, que ocupan cada nivel energético gi veces degenerado con
Ni subsistemas, y que además cumplen el principio de exclusión de Pauli (Ni ≤ gi ).
En este cuadro se incluye el ejemplo de la sección 2.3.5.
Estadı́stica de Fermi-Dirac
La ecuación (2.90) “esconde” la llamada estadı́stica de Fermi-Dirac (F D). Por
un procedimiento análogo al que nos permitió obtener la estadı́stica de Bose-Einstein
(BE) en la sección 2.3.5, se puede obtener la función de distribución de Fermi-Dirac:
gi
Ni = ∀i (2.91)
eβ(εi −µ) + 1
Estadı́stica de Lynden-Bell
La estadı́stica de Lynden-Bell (LB) rige en sistemas indepedientes y discernibles,
que cumplen el principio de exclusión de Pauli9 . Guarda, por lo tanto, la siguiente
relación con la estadı́stica de Fermi-Dirac:
gLB = N ! gF D (2.92)
ejemplo, el de una galaxia concebida como un gas de partı́culas masivas que representan
estrellas.
2.3 Densidad de estados 57
Puede comprobarse además que, entre las estadı́sticas incluidas en el cuadro 2.4,
se verifican las siguientes relaciones:
a) lı́m FD = lı́m BE = M BC
(gi /Ni )→∞ (gi /Ni )→∞
b) lı́m LB = M B
(gi /Ni )→∞
Paraestadı́sticas
La paraestadı́sticas generalizan a su vez las estadı́sticas de Fermi-Dirac y de Bose-
Eisntein. Para introducirlas, consideremos un sistema de N subsistemas idénticos in-
discernibles e independientes, tales que cada subsistema esté caracterizado por un
espectro de energı́a y degeneración {εi , gi } (i = 1, 2, . . . , M ).
{Ni } (i = 1, 2, . . . , M ) son las ocupaciones o número de subsistemas que están en
los niveles εi correspondientes, y son tales que las condiciones (2.79) y (2.80) sean
satisfechas, esto es
XM XM
N= Ni , E= εi Ni .
i=1 i=1
Introducimos ahora una nueva condición, i.e., que p sea la ocupación máxima per-
mitida para cada estado, entre los gi del nivel εi . De este modo se cumple que
Ni ≤ gi p, (p = 1, 2, 3, . . . )
Maximizando (2.93) con las restriciones (2.79) y (2.80) para obtener el equilibrio
58 Descripción probabilı́stica de un sistema
pij = 1, ∀(i, j) −→ FD
pij = ∞, ∀(i, j) −→ BE
pij 6= 1, ∞ −→ Paraestadı́sticas
s = 1/2 → FD
s = ∞ (spin clásico) → BE
1/2 < s < ∞ → Paraestadı́sticas
Obsérvese que para que en un gas aparezcan las estadı́sticas cuánticas de Fermi-
Dirac o de Bose-Einstein, ha de acontecer en ambos casos un fenómeno análogo. De
hecho, aunque sus expresiones matemáticas difieren de las de Maxwell-Boltzmann,
10 Téngase en cuenta que
p
ne−xn
X
n=0 1 p+1
p = − (p+1)x
ex − 1 e −1
e−xn
X
n=0
2.3 Densidad de estados 59
ambas tienen en común el que provienen de una drástica reducción del número de
estados admisibles [9].
Sea W1 el número de estados no degenerados de una partı́cula, y WN el número de
estados no degenerados de un gas ideal de N partı́culas. En la Fig. 2.13 se representa
la razón de los logaritmos de dichas poblaciones en un sistema ideal de N partı́culas
que siguen la estadı́stica de Maxwell-Botzmann, de Fermi-Dirac y de Bose-Einstein.
(F D) (BE)
Obsérvese que, en el lı́mite N → ∞ y W1 → ∞ (con N/W1 → 0), WN y WN
(M B) N
colapsan sobre WN . Ambas satisfacen además que WN ∝ (W1 /N ) .
40
30
ln WN
ln W1
20
10
10 20 30 40 50 60 70 80 90 100
N
x1−q − 1
lnq x ≡ (x ∈ R+ , q ∈ R) (2.95)
1−q
( 1 1
[1 + (1 − q)x)] 1−q , si [1 + (1 − q)x)] 1−q > 0
eq (x) ≡ 1 , x, q ∈ R (2.96)
0, si [1 + (1 − q)x)] 1−q ≤ 0
60 Descripción probabilı́stica de un sistema
1
(ρ > 0), en el que el parámetro q ha de cumplir q = 1 − ρ
[9]. Se observa que:
1/ρ
ln1−1/ρ WN W1
lı́m = 1/ρ
N,
N→∞ ln1−1/ρ W1 W1 − 1
resultado que se aproxima asintóticamente a N en el lı́mite W1 → ∞. Bajo las mismas
condiciones lı́mN→∞ ln WN
ln W1
se aproxima a la unidad, ∀N .
10
1 2 3 4 5 6 7 8 9 10
lnq WN
Figura 2.14: Dependencia en N de , donde WN = W1 N ρ (ρ > 0) con q = 1 − ρ1
lnq W1
(ρ = 2 y por tanto q = 1/2; W1 > 1, N ≥ 1). Las curvas azules (rojas) corresponden
a q = 1/2 (q = 1), con W1 = 20, 50, 100, 1000, 100000 (de arriba a abajo). Las curvas
ln W ln W
negras corresponden a lnqq WN1 = N para q = 1 − 1/ρ, y lnqq WN1 = 1 para q = 1 [9].
Distribución macrocanónica
Hasta ahora hemos identificado el equilibrio estadı́stico de un sistema de N partı́cu-
las como aquél que maximiza el número de configuraciones posibles, mientras que el
número de partı́culas y la energı́a se mantenı́an constantes. Pero esta situación se pue-
de generalizar a una colectividad más general, en la que el número de partı́culas N
sı́ varı́a.
Consideremos para ello una colección de M sistemas análogos, de los cuales akN
k
tienen N partı́culas en el estado energético EN . El conjunto {akN } representa una
distribución de los sistemas en número y energı́a. Para un conjunto {akN } dado, la
colectividad toma configuraciones diferentes, siendo el número total de configuraciones
M!
W = Y k (2.97)
aN !
N,k
cantidad que representa el peso de la colectividad para una distribución dada, que
se caracteriza por los números akN . Cuanto mayor sea este peso, más frecuentemente
aparece dicha distribución.
2.3 Densidad de estados 61
Considerando las variaciones de log W con respecto a akN , junto con los multiplicadores
de Lagrande ν, ζ y β, se obtiene
X
[(log akN ) + ν + N ζ + βEN
k
]δakN = 0 (2.101)
N,k
y dado que los δakN son arbitrarios, los términos entre corchetes son nulos, y se tiene
que
M N
akN = exp(−ν − ζN ) exp(−βEN k
)= λ exp(−βEN k
) (2.102)
Ξ
ecuación que proporciona la distribución más probable, donde β es común a todos los
sistemas y de nuevo identificamos β ≡ 1/kB T y λ ≡ e−ζ , de modo que
X N k
X N
Ξ= λ exp(−βEN ) λ ZN (2.103)
N,k N
es la macrofunción de partición.
La probabilidad de que el sistema tenga N partı́culas y esté en el nivel de energı́a
k
EN se representa por akN /M , de modo que12
λN exp(−βEN
k
)
PNk = (2.104)
Ξ
probabilidad que resulta muy útil para el tratamiento de sistemas de muchos cuerpos
cuando el número de partı́culas fluctúa.
La energı́a total del sistema formado por los N osciladores es, por lo tanto, la suma
N N
hX
X Ni N
E= ǫi = ~ω ni + ≡ ~ω M + (2.106)
i=1 i=1
2 2
| {z }
M
Método aproximado
a) N = 1 osciladores (n1 ≤ M )
Φ1 (M ) = M + 1 ∼ M
M →∞
b) N = 2 osciladores (n1 + n2 ≤ M )
(M + 1)(M + 2) M2
Φ2 (M ) = ∼
2 2
M →∞
c) N = 3 osciladores (n1 + n2 + n3 ≤ M )
M3
Φ3 (M ) ∼
6
M →∞
∼ MN
ΦN (M ) (2.108)
M N!
→∞
N
2.3 Densidad de estados 63
Z Z M Z
ΦN (M ) ∼ dx1 dx2 . . . dxN = dx1 dx2 . . . dxN
x1 +x2 +···+xN ≤M 0 x2 +···+xN ≤M −x1
Z M Z M
(M − x1 )N−1
∼ dx1 ΦN−1 (M − x1 ) ∼ dx1
0 0 (N − 1)!
M
(M − x1 )N MN
= − =
N!
0 N!
∼ M N−1
gN (M ) (2.109)
M (N − 1)!
→∞
N
La ecuación (2.109):
a) Permite constatar la veracidad de las igualdades (2.71) y (2.72) del apartado
(2.3.1), es decir
ln gN (M ) ∼ ln ΦN (M ) (2.110)
derivar a través de una equivalencia, esto decir, f (X) ∼ g(X) no implica que df (X)/dX ∼
dg(X)/dX. Sin embargo sı́ es justificable en este caso, debido a “bondad” de las funciones, co-
mo sucede frecuentemente en fı́sica. En cualquier caso, cuando desarrollemos el método exacto
para el cálculo de gN (M ), identificaremos la verdadera justificación de dicha equivalencia.
64 Descripción probabilı́stica de un sistema
p2 mω 2 2
H= + x
2m 2
se obtienen órbitas isoenergéticas elı́pticas (Fig.2.15), a partir de cuyas áreas se calcula
el incremento diferencial de área para un incremento diferencial de energı́a dE:
2πE 2π
S= ⇒ dS = dE
ω ω
1
ω(E) =
~ω
Método exacto
Consideremos el sistema de N osciladores discernibles e independientes, cada uno
de los cuales se encuentra en un cierto nivel ni (i = 1, . . . , N ) de su pozo de potencial.
Tal como se muestra en la Fig. 2.16, podemos representar el sistema como el conjuntoPn
de N cajas —una para cada oscilador— que contienen un total de M = i=1 ni
bolas, dado que hay hay ni bolas en cada caja, y N − 1 cruces, que representan las
separaciones entre las N cajas.
(M + N − 1)!
gN (M ) = (2.114)
M !(N − 1)!
ln gN (0) = 0
ln gN (M ) ∼ (M + N ) ln(M + N ) − M ln M − N ln N
1 ∝ 1
ω(E) ≈ √ √
EE0 E E
→∞
E0
E E E
√
1 π 2π E
(d = 1) : ω(E) → √ (d = 2) : ω(E) → (d = 3) : ω(E) → 3/2
EE0 E0 E0
Figura 2.17: Comportamiento de la función ω(E) con la energı́a, para distintas di-
mensiones d = 1, 2, 3, con N = 1.
de donde
Nd
X E
n2i = = R2
i=1
E0
que representa la ecuación de una hiperesfera en (N d) dimensiones de radio R, cuyo
hipervolumen, para R → ∞ y N → ∞, es
Nd/2
π Nd/2 π Nd/2 E
Φ(E) ∼ RNd = (2.118)
Nd Nd E0
N! Γ +1 N! Γ +1
2 2
2.3 Densidad de estados 67
dπ Nd/2 E Nd/2−1
ω(E) ∼ Nd/2
∝ E Nd/2−1 (2.119)
Nd E
2(N − 1)! Γ +1 0
2
Teorema de equipartición
Extensividad
d E V
ln Φ ∼ N ln + ln + cte
2 N N
relación en la que el N de los denominadores proviene de N ! y resuelve la paradoja de
Gibbs.
La equivalencia es válida en el lı́mite N → ∞ y E/E0 → ∞ —esto es, a alta
temperatura— y V /V0 → ∞ —es decir, muy diluı́do, siendo V0 un volumen carac-
terı́stico de origen cuántico— manteniendo E/N y V /N fijos. Se trata, precisamente,
del caso del gas ideal clásico. En particular, para h → 0, E0 → 0 y V0 → 0, el lı́mite
se satisface para valores cualesquiera de (E, V ).
Valores estimados
a) Hidrógeno
~ ≈ 10−34 J s h2 40 × 10−68
E0 = ≈ ≈ 4 × 10−36 J
kB ≈ 1,4 × 10−23 J/o K
mL2 10−27 × 10−4
⇒ ≈ 2 × 10−17 eV
m ≈ 10−27 Kg −36
E 0 4 × 10
L ≈ 10−2 m ≈ ×10−13 o K
T0 ≡ ≈
kB 1,4 × 10−23
Obsérvese el orden de magnitud de T0 . Esta es la razón por la cual la mayorı́a de
los gases reales son quasi-ideales —clásicos— a temperatura y presión ambiente.
68 Descripción probabilı́stica de un sistema
b) Electrón en un metal
m ≈ 10−30 Kg
⇒ T0 ≈ 105 o K
L ≈ 5A = 5 × 10−10 m
Obsérvese el orden de magnitud de T0 . Esta es la razón por la cual, a temperatura
ambiente, un metal es un sistema fuertemente cuántico.
p2x + p2y
H=
2m
√
donde px , py son las componentes del vector momento de módulo p = 2mE,
siendo E y m la energı́a y la masa de la partı́cula. Supongamos que la partı́cula
está confinada en una caja de superficie S y denotemos θp = arctan(py /px ) (ver
Fig.2.18).
Figura 2.18: Dominio de definición, de los vectores posición ~r y momento p~, para una
partı́cula libre en un espacio (d = 2)–dimensional.
dp dπ Nd/2 E Nd/2−1
ω(E)dE = ρ3 (p)dp ⇒ ω(E) = ρ3 (p) =
dE 2(N − 1)! Nd Nd/2
Γ + 1 E0
2
donde f es una función unı́voca definida positiva bien comportada (con un cierto
número de derivadas continuas), kj = (2π/L)nj , (nj = 0, ±1, ±2, . . . ), a0 puede tener
cualquier signo o incluso ser nula, y aj > 0, ∀j 14 .
Si consideramos que f −1 es la función inversa de f , se tiene que
Nd
X
aj n2j = f −1 (E) − a0
j=1
grado en las variables {nj } puede reescribirse de la forma propuesta, una vez centrado y
diagonalizado.
70 Descripción probabilı́stica de un sistema
y por lo tanto: 2
Nd
X nj
h f −1 (E) − a i1/2 = 1
j=1 0
aj
que es la ecuación de una hiperelipse, de donde se tiene que
Nd −1 1/2
π Nd/2 Y f (E) − a0
Φ∼
Nd aj
N! Γ + 2 j=1
2
y de aquı́, que la densidad de estados sea
Nd
−1
dπ Nd/2 f −1 (E) − a0 2 ∂f −1
ω(E) ∼ " # 1/2
(E) (2.120)
Y Nd ∂E
Nd
2(N − 1)! Γ +1 aj
2 j=1
dπ Nd/2 Nd/2−1
ω(E) ∼ " #1/2
E 1/p − a0 E 1/p−1 (2.121)
YNd
Nd
2p (N − 1)! Γ +1 aj
2 j=1
Ley de Stefan–Boltzmann
Para un fotón o un fonón acústico, esto es, cuando N = 1, la energia es
v
u d
hc u X
E = ~ck = t n2 (2.122)
L j=1 j
a =0
0
⇒ h2 c2 h2 c2
aj = 2
= 2/d ∀j
L V
p = 1/2
y la densidad de estados es
dπ d/2 V
ω(E) ∼ E d−1 (2.123)
d
(hc)d Γ +1
2
E E E
2L 2πL2 4πL3 2
(d = 1) : ω(E) → (d = 2) : ω(E) → E (d = 3) : ω(E) → E
hc h2 c2 h3 c3
Partı́cula relativista
En el caso de tener N = 1 partı́cula relativista, la energı́a es
a = m20 c4
q 0
E = m20 c4 + ~2 c2 k2 ⇒ h2 c2 (2.124)
aj = ∀j
L2
p = 1/2
d
dπ d/2 V −1
ω(E) ∼ E 2 − m20 c4 2 E (2.125)
d
(hc)d Γ +1
2
1 E2
E
2
2L 2 L m
0
E
hc 2
h
E E E
2 2 2
m c m c m c
0 0 0
(d = 1) : (d = 2) : (d = 3) :
2LE 2
ω(E) → 2πL 4πL3 q 2
ω(E) → E ω(E) → E E − m20 c4
q
hc E 2 − m20 c4 h2 c 2 h3 c 3
Figura 2.20: Comportamiento de la función ω(E) con la energı́a, para distintas di-
mensiones d = 1, 2, 3, en el caso de N = 1 partı́cula relativista. ǫ ≡ E − m0 c2 .
72 Descripción probabilı́stica de un sistema
Capı́tulo 3
Entropı́a estadı́stica
Definición de entropı́a
Sea el conjunto de eventos posibles en un sistema, Ω, junto con la ley de probabi-
lidad P que asigna a cada evento su probabilidad de ocurrencia
Ω ≡ {1, 2, . . . , M }
P ≡ {p1 , p2 , · · · , pM }
donde
M
X
pm = 1.
m=1
donde k es una constante positiva arbitraria, que más adelante identificaremos con la
constante de Boltzmann, kB .
Obsérvese que, dependiendo del carácter de la variable aleatoria del sistema, la ex-
presión de la entropı́a (3.1) deberá ser reescrita tal y como enunciamos a continuación.
a) En el caso de que la variable aleatoria sea infinita numerable:
∞
X
S = −k pm ln pm (3.2)
m=1
74 Entropı́a estadı́stica
S = −kTrρ ln ρ (3.4)
3.2. Propiedades
Tal y como hemos adelantado, el análisis de las propiedades de la entropı́a es
esencial para adquirir un concepto más “intuitivo” de la entropı́a que acabamos de
postular.
3.2.1. Positividad de S
La demostración es inmediata:
M
X
0 ≤ pm ≤ 1 ∀m ⇒ pm ln pm ≤ 0 ∀m ⇒ S = −k pm ln pm ≥ 0
m=1
Primera demostración
Reescribiendo la ecuación de la entropı́a:
M
(M −1 M −1
! M −1
!)
X X X X
S = −k pm ln pm = −k pm ln pm + 1− pm ln 1 − pm
m=1 m=1 m=1 m=1
Segunda demostración
Introduciendo un parámetro de Lagrange λ en la función de Lagrange
M
! M M
!
X X X
Φ≡S+λ pm − 1 = −k pm ln pm + λ pm − 1
m=1 m=1 m=1
para los que se obtiene la siguiente función independiente de m, lo que implica equi-
probabilidad:
1
pm = ∀m
M
Además, dicho punto crı́tico define un máximo de la función de Lagrange
∂2Φ k
=− < 0 ∀m
∂ 2 pm pm
M
1 X 1 1
pm = ⇒ S = −k ln = k ln M (3.5)
M m=1
M M
3.2.4. Simetrı́a
La entropı́a es invariante bajo cualquier permutación P de {pm }. Esta propiedad
es trivial, a partir de (3.1).
S(P ) = S(P(P ))
n A o n o
p m pB
m
SMA +MB {pA B
m }, {pm } = S2 (pA , pB ) + pA SMA + p B SMB
pA pB
(3.6)
Verifiquemos esta igualdad para MA = MB = 2.
S4 = − k{p1 ln p1 + p2 ln p2 + p3 ln p3 + p4 ln p4 }
= − k{(p1 + p2 ) ln (p1 + p2 ) + (p3 + p4 ) ln (p3 + p4 )}
n p p1 p2 p2 o
1
− k(p1 + p2 ) ln + ln
p1 + p2 p1 + p2 p1 + p2 p1 + p2
n p p3 p4 p4 o
3
− k(p3 + p4 ) ln + ln
p3 + p4 p3 + p4 p3 + p4 p3 + p4
p p p p
1 2 3 4
= S2 (pA , pB ) + pA S2 , + p B S2 ,
pA pA pB pB
Shannon dedujo la expresión de la entropı́a (3.1) postulando (3.6). Por tanto, esta
propiedad “esconde” la expresión operacional de la entropı́a.
Demostración
En el caso de equiprobabilidad y de que M ≡ MA = MB , la expresión (3.6) es
trivial:
1 1
k Ω k= 2M ⇒ SΩ = k ln 2M = k ln 2 + k ln M + k ln M = S2 + pA SA + pB SB
2 2
SΩ = k ln M N = k ln M + k ln N
3.2.6. Concavidad
Sean tres leyes de probabilidad P ≡ {pi }, P ′ ≡ {p′i } y P ′′ ≡ {p′′i } tales que las
probabilidades de P ′′ están comprendidas entre P y P ′ , es decir
Demostración
Es inmediata, una vez que se observa que (ver Fig. 3.1)
donde f (p) ≡ −p ln p. Podrı́a también demostrarse esta propiedad de forma algo más
general, suprimiendo la restricción de que tenga que existir un mismo valor de λ ∀i.
Implicaciones termodinámicas
Esta propiedad está intimamente ligada a la “positividad” del calor especı́fico
(CV > 0), de la compresibilidad isotérmica ( αT ≡ −p∂V /∂p|T > 0), de las cons-
tantes elásticas (c11 > 0, c44 > 0), de la susceptibilidad isoterma paramagnética
(χT ≡ ∂M/∂H|T > 0) y de ∂µ/∂N |T , donde µ es el potencial quı́mico, ası́ como
a desigualdades tales como Cp > CV , c11 + 2c12 > 0, etc. En lı́neas generales, entra
en juego en la discusión de la estabilidad o pérdida de estabilidad producida en las
transiciones de fase de cualquier estado macroscópico o fase de los sistemas fı́sicos.
3.2.7. Subaditividad
Sean los conjuntos de posibles resultados
Ω1 ≡ {1, 2, . . . , m, . . . , M }
Ω2 ≡ {1, 2, . . . , n, . . . , N }
M X
X N
pnm = 1
m=1 n=1
Sean las probabilidades marginales p1m para el sistema 1 y p2m para el sistema 2
N
X
1
p m ≡ pmn
n=1
M
X
2
pn ≡ pmn
m=1
S1 + S2 ≥ S
Demostración
Definimos:
θmn ≡ pmn − p1m p2n
Por lo tanto X X X
p1m = p1m p2n + θmn = p1m + θmn
n n n
lo que implica
P
n θmn = 0 (3.7)
y también que
P
m θmn = 0 (3.8)
3.2 Propiedades 79
S X 1 X X 2X
F = − λm θmn − λn θmn
k m n n m
X 1 2 X 1
= (pm pn + θmn ) ln (p1m p2n + θmn ) − (λm + λ2n )θmn
mn mn
∂F
= −1 − ln (p1m′ p2n′ + θm′ n′ ) − λ1m′ − λ2n′ = 0, ∀m′ , n′
∂θm′ n′
1 2
∗
⇒ θmn = e−1−λm −λn − p1m p2n
donde (∗ ) representa el valor que hace máxima S. Haciendo uso de (3.7) se obtiene
que
!
X ∗ −1−λ1
X −λ2 1 ep1
0= θmn = e m e n − p1m ⇒ e−λm = X m 2 , ∀m (3.9)
n n e−λn
n
2 ep2
e−λn = X n 1 ∀n (3.10)
e−λm
m
y por lo tanto
∗ ep1m p2n
θmn = ! ! − p1m p2n (3.11)
X −λ1 X −λ2
e n e m
n m
n m
por lo tanto
e
! ! =1
X 1 X 2
e−λn e−λm
n m
∗
θmn =0
por lo tanto
Extensividad
Si los sistemas S1 y S2 son independientes ⇒ S = S1 + S2 lo que es la base de la
extensividad de la entropı́a1 .
H = −H(S1 + S2 ) − JS1 S2
donde
S1 , S2 = ±1
H > 0 es el campo magnético externo
J ≥ 0 es la interacción ferromagnética
Las probabilidades de los distintos estados son:
donde
Z ≡ eβ(H+J ) + eβ(−H+J ) + 2e−βJ
β ≡ 1/(kB T )
Las probabilidades marginales son:
eβ(H+J ) + e−βJ
P (↑) ≡ P (↑↑) + P (↑↓) =
Z
eβ(−H+J ) + e−βJ
P (↓) ≡ P (↓↑) + P (↓↓) =
Z
1 Existen otras entropı́as que en las que la aditividad y la extensividad no son propiedades
equivalentes [9].
3.3 Entropı́a y mecánica cuántica 81
Por lo tanto
[P (↑)]2 e2β(H+J ) + 2eβH + e−2βJ
= ≤ 1, si J ≥ 0
P (↑↑) e2β(H+J ) + 2eβH + e2βJ
P (↑)P (↓) eβH + e−βH + e2βJ + e−2βJ
= ≥ 1, si J ≥ 0
P (↑↓) eβH + e−βH + 2e−2βJ
[P (↓)]2 e2β(−H+J ) + 2e−βH + e−2βJ
= ≤ 1, si J ≥ 0
P (↓↓) e2β(−H+J ) + 2e−βH + e2βJ
con lo que se observa que lo que introduce las correlaciones entre los spines —es decir,
lo que introduce la tendencia a quedar paralelos entre sı́—, es la no nulidad de J.
S(ρ̂) = −k(1 ln 1 + 0 ln 0 + . . . ) = 0
3.3.3. Concavidad
Sea un juego de operadores densidad de un mismo sistema {ρ̂j } (j = 1, 2, . . . , k),
k
X
con probabilidades de ocurrencia {µj }, de modo que µj = 1.
j=1
Entonces:
k
!
X X
S µj ρ̂j ≥ µj S(ρ̂j ) (3.14)
j=1 j
esto es, se verifica que la entropı́a de la media no es nunca menor que la media de
las entropı́as. La igualdad es válida únicamente cuando ρ̂j es independiente de j, o si
el juego de probabilidades {µj } es tal que implica certeza. Considerar, en una única
mezcla estadı́stica, k mezclas estadı́sticas diferentes, aumenta en media el desorden.
3.3.4. Subsistemas
Sea un sistema Σ formado por dos subsistemas disjuntos, esto es
Σ = Σ1 ∪ Σ2 (Σ1 ∩ Σ2 = ∅)
ξ = ξ1 ⊗ ξ2
donde
ρ̂ está definido en ξ (cuya dimensión es D1 D2 )
ρ̂1 = Tr2 ρ̂ está definido en ξ1 (cuya dimensión es D1 )
ρ̂2 = Tr1 ρ̂ está definido en ξ2 (cuya dimensión es D2 )
Frecuentemente, aunque no siempre, el sistema total tiene más desorden que un único
subsistema (S(Σ) > S(Σ1 )S(Σ2 )).
Primer contraejemplo
singlete ⇒
Dos spines acoplados en el estado estado puro ⇒ S = 0.
1 1 0
Uno de esos dos espines ⇒ ρ̂ = ⇒ S = k ln 2 > 0.
2 0 1
Segundo contraejemplo
Σ ≡ 100 cartas (98 copas, 1 bastos, 1 espada).
Σ1 ≡ dos cartas (1 bastos, 1 espada).
El valor de entropı́a S(Σ) indica que existe casi la certeza de sacar copas,
98 98 1 1
S(Σ) = −k ln +2 ln ≈0
100 100 100 100
donde
S(Σ) ≡ S(ρ̂)
S(Σ1 ) ≡ S(ρ̂1 )
S(Σ2 ) ≡ S(ρ̂2 )
siendo válida la igualdad si ∄ correlaciones entre Σ1 y Σ2 (ρ̂ = ρ̂1 ⊗ ρ̂2 ). La propiedad
(3.15) se refleja en el número de probabilidades independientes:
a) Conocer ρ̂ significa conocer (D1 D2 − 1) números reales distintos.
b) Conocer ρ̂1 y ρ̂2 significa conocer (D1 + D2 − 2) números reales distintos.
Y vemos que D1 D2 − 1 > D1 + D2 − 2, si D1 , D2 > 1; por lo tanto “conocer ρ̂” es más
que “conocer ρ̂1 y ρ̂2 ”, y por tanto la entropı́a es menor.
(∗)
dS d d dρ̂
= −k Trρ̂ ln ρ̂ = −kTr ρ̂ ln ρ̂ = − kTr(1 + ln ρ̂) =0
dt dt dt dt
por lo tanto ρ̂ puede depender explı́citamente del tiempo –lo que es la situación
tı́pica de un sistema conservativo en equilibrio estadı́stico– o no; pero la entropı́a
es una constante del movimiento siempre que el Hamiltoniano sea conocido.
La igualdad (∗) merece un comentario. Si f (x) es una función analı́tica de x, en
general δf (ρ̂) 6= df (x)/dρ̂|x=ρ̂ δ ρ̂, porque ρ̂ y δ ρ̂ en general no conmutan. Pero
en cambio sı́ se verifica que
n df (x) o
Trδf (ρ̂) = Tr δ ρ̂
dx x=ρ̂
esto es:
k
!
X
S µj ρ̂jt ≥ S(ρ̂0 )
j=1
X X Pa ρ̂Pa X
0 0
ρ̂ → ρ̂2 ≡ Pa ρ̂Pa → ρ̂3 ≡ ≡ ρ̂4 (3.16)
|{z}
a a0
Trρ̂Pa0 a0
antes | {z } | {z }
de medir despues de medir despues de mirar
antes de mirar
X
S(ρ̂) ≤ S(ρ̂2 ) ≥ Tr(ρ̂Pa0 ) S(ρ̂4 ) (3.17)
| {z }
(1) (2) a0
(3)
La desigualdad (1) puede ser una igualdad en el caso de que el observable medido
conmute con ρ̂, y menor en el caso contrario, debido a la irreversibilidad asociada a
las perturbaciones del proceso de medida. La desigualdad (2) corresponde al hecho
de que, en media, mirar el resultado aumenta la información de que disponemos. La
contribución (3), representa la probabilidad del sistema de permanecer en el subespacio
asociado a a0 , después de repetir el proceso de medida muchas veces.
3.3.7. N indeterminado
Cuando N no es conocido, podemos considerar un juego de operadores densidad,
{ρ̂N }, tal que la probabilidad de tener N partı́culas es PN ≡ Trρ̂N . En ese caso, la
entropı́a es
3.3 Entropı́a y mecánica cuántica 85
X X ρ̂N
S = −k Trρ̂N ln ρ̂N = −k PN Tr ln ρ̂N
N N
PN
Definiendo
ρ̂N
ρ̂′N ≡ (donde Trρ̂′N = 1)
PN
puede reescribirse la entropı́a como
X
S = −k PN Trρ̂′N ln (ρ̂′N PN )
N
X X
= −k PN Trρ̂′N ln ρ̂′N − k PN ln PN
N N
X X
= PN SN − k PN ln PN
N N
Colectividades y
distribución de
Boltzmann-Gibbs
Magnitud mensurable
plo, la longitud y el tiempo están relacionadas según la ecuación x = ct, donde c es la constante
universal de la velocidad de la luz
2 Las magnitudes no mensurables están relacionadas siempre con alguna magnitud men-
surable, como por ejemplo el potencial quı́mico con el número de moléculas. Pero en estas
relaciones, son las leyes fı́sicas las que entran en discusión, dado que estas en general depen-
den del régimen en el que se estudie el sistema (podemos, por ejemplo, estudiar un sistema
en un régimen en el que sea válida la mecánica newtoniana, o bien la relativista, o bien la
cuántica, etc).
88 Colectividades y distribución de Boltzmann-Gibbs
N
!
[
M asintóticamente mensurable ⇔ M Si ∼ N M (Si ), ∀i
i=1 N →∞
Magnitud extensiva
Una magnitud fı́sica X es extensiva, en relación a una realización concreta de la
unión de sistemas, si y sólo si es, en este contexto, asintóticamente mensurable.
Ejemplos de magnitudes extensivas son la longitud, el volumen, la energı́a, la en-
tropı́a, el número de partı́culas, la carga, la masa, el momento dipolar eléctrico (o
magnético), la resistencia de resistores en serie, la capacitancia de condensadores en
paralelo, la entalpı́a, la energı́a libre de Helmholtz, el tiempo, los ángulos, etc.
El que una magnitud sea extensiva, no implica que sea mensurable, aunque sı́ es
cierta la afirmación inversa.
Magnitud intensiva
Una magnitud fı́sica Y es intensiva, en relación a una realización concreta de la
unión de sistemas, si y sólo si para todo par de sistemas pertenecientes a un conjunto
dado de sistemas inconexos, se cumple que
Y (Si ) = Y (Sj ) ⇒ Y (Si ∪ Sj ) = Y (Si ) = Y (Sj )
Ejemplos de magnitudes intensivas son la temperatura, presión, el potencial quı́mi-
co, el campo eléctrico (o magnético), la densidad de masa, la edad media de un grupo
humano, y todas las magnitudes densidad en general.
3 La única ley matemática que permanece invariante bajo el escalado de abcisas y de orde-
nadas, según un cierto factor, es la ley de potencias f (λx) = λα f (x), α 6= 0. Esta es la razón
por la que las unidades en las que se miden todas las magnitudes fı́sicas están expresadas en
leyes de potencias.
4.1 Extensividad e intensividad 89
4.1.2. Caracterización
Realización de la unión de sistemas
Hagamos uso de la operación juxtaposición de rectángulos de tamaño a × b, con el
objeto de ilustrar la necesidad de que exista una definición precisa para la realización
del proceso de unión de sistemas. Dependiendo de cómo los yuxtapongamos, podremos
asociar las variables a (anchura) y b (altura) a magnitudes intensivas o extensivas.
Esto ocurre en toda ecuación de estado. Piénsese, por ejemplo, en la ecuación del gas
ideal clásico
V
p= = kB T,
N
en la que la presión p, el volumen especı́fico V /N y la temperatura KB T , son intensivas.
El concepto de unidad patrón convencional, como lo son por ejemplo el metro,
el kilo, el segundo, etc, interviene de manera esencial en cualquier proceso fı́sico de
medida. Toda magnitud susceptible de tener una unidad patrón es necesariamente
90 Colectividades y distribución de Boltzmann-Gibbs
extensiva mientras que, por ejemplo, por el contrario no es concebible una unidad
patrón de temperatura asociada al proceso empı́rico de medición. Pero toda magnitud
extensiva ¿será susceptible de tener una unidad patrón de medida? Pensemos por
ejemplo en la energı́a.
Un ejemplo significativo son los pares de variables termodinámicamente conjuga-
das, que se presentan siempre sólo bajo la forma de un par formado por una magnitud
intensiva y otra extensiva. Ejemplos de dichos pares son presión-volumen (p, V ), campo
magnético-magnetización (H, M ), campo eléctrico-polarización (E, P ), temperatura-
entropı́a (T, S), etc. Los definiremos oportunamente más adelante.
Colectividades
Las colectividades se utilizan en distintas circunstancias termodinámicas que co-
rresponden a diferentes tipos de conocimiento del sistema y, de aquı́, a diferentes
4.2 Conocimiento de un sistema fı́sico 91
Algunos ejemplos
a) Equilibrio mecánico de un fluido homogéneo isótropo. En este caso, los prome-
dios henergı́ai y hvolumeni son conocidos. Aparece el concepto de “termostato-
baristato” o reservorio simultáneo de calor y volumen, que fija el par temperatura
y presión (T, P )).
b) Equilibrio quı́mico de un fluı́do homogéneo isótropo. En este caso se conocen los
promedios henergı́ai y hnúmero de partı́culasi. Aparece el “termostato-reservorio
de partı́culas”, que fija el par temperatura y potencial quı́mico (T, µ).
c) Equilibrio quı́mico generalizado, en las reacciones quı́micas atómicas o nucleares:
A + B ⇋ AB
Por el contrario, para definir bien el tamaño del sistema, es necesario que al menos una de las
variables extensivas sea conocida de forma exacta.
92 Colectividades y distribución de Boltzmann-Gibbs
que es imposible transferir cualquier magnitud extensiva sin transferir también energı́a:
se admite la posibilidad de transferir sólo calor, pero parece inconcevible transferir
partı́culas sin transferir su energı́a (cinética, etc), o transferir volumen sin transferir
trabajo, o trasferir carga sin transferir la energı́a cinética de los iones, etc.
Las energı́as termodinámicas pertinentes para el estudio de un fluido homogéneo
isótropo, dependen de la colectividad en la que se estudie5 :
a) En la colectividad microcanónica, la energı́a interna U :
U (V, N )
F (V, N, T ) = U − T S
G(p, N, T ) = U − T S + pV
Y (V, µ, T ) = U − T S − µN
Φ = U − T S + pV − µN,
porque se demuestra que Φ ≡ 0. Esto está ligado al hecho de haber sustituı́do todas
las variables extensivas del problema (U, V, N ) por las variables intensivas correspon-
dientes (T, p, µ), lo que hace que el tamaño del sistema quede indefinido.
Colectividad Microcanónica
En un sistema aislado, el conocimiento exacto de {Xi } (i = 0, 1, 2, . . . ) determina
un subespacio de Hilbert de dimensión W , y por lo tanto el postulado fundamental
implica que todos los estados compatibles con magnitudes conocidas son equiprobables:
1 ˆ
ρ̂ = I
W
S = k ln W
donde Iˆ es el operador identidad.
Colectividad Canónica
En un sistema en equilibrio térmico, el conocimiento de hHi y de {Xi } (i = 1, 2, . . . )
nos lleva a maximizar la entropı́a S = −kTrρ̂ ln ρ̂ con las ligaduras:
Trρ̂ = 1
Trρ̂H = hHi = constante
Colectividad Macrocanónica
En un sistema en equilibrio más amplio que el térmico, el conocimiento de hHi,
{hXi i} (i = 0, 1, 2, . . . , k) y {Xj } (j = k + 1, k + 2, . . . ), lleva a maximizar la entropı́a
S = −kTrρ̂ ln ρ̂ con las ligaduras:
Trρ̂ = 1
Trρ̂H = hHi = constante
Trρ̂Xi = hXi i = constante, (i = 1, 2, . . . , k)
Algunos comentarios
Se demuestra que todas las colectividades convergen en el lı́mite termodinámi-
co (esto es, hN i → ∞), a un lı́mite común, el de la termodinámica6 . Esto es natural,
ya que las colectividades difieren sólo en la medida en que las fluctuaciones de {Xi }
son importantes, pero
hXi i ∝ hN i ∀i
h(Xi − hXi i)2 i ∝ hN i ∀i
por lo tanto
p p
∆Xi h(xi − hxi i)2 i hN i 1
= ∝ = p → 0
hXi i hXi i hN i hN i N → ∞
1̂
ρ̂({Xi }) = → S({Xi }) = kB ln W ({Xi })
W ({Xi })
El valor la energı́a total del sistema aislado U deberá ser necesariamente un autovalor
del Hamiltoniano H.
Tenemos la siguiente definición de la temperatura T :
1 ∂S
= (U, X1 , X2 , . . . ) (4.2)
T ∂U X1 ,X2 ,...
Calor especı́fico
Calculamos el calor especı́fico a volumen constante:
1 ∂S
(4.4) → = (U, V, N ) ≡ f (U, V, N ) → U = U (T, V, N ) (4.7)
T ∂U V,N | {z }
(4.7)
∂U
→ CV = (T, V, N )
∂T V,N
Y de forma general:
1 ∂S
(4.2) → = (U, X1 , X2 , . . . ) ≡ f (U, X1 , X2 , . . . )
T ∂U X1 ,X2 ,...
∂U
→ U = U (T, X1 , X2 , . . . ) → CX1 ,X2 ,... = (4.8)
| {z } ∂T X1 ,X2 ,...
(4.8)
4.4 Colectividad Microcanónica 95
Ecuación de estado
Para calcular la ecuación de estado:
∂S
(4.5) → p=T (U, V, N ) ≡ p(T, U, V, N )
∂V U,N
V
= g(T, p) (4.9)
N
Potencial quı́mico
Calculamos el potencial quı́mico, a partir de la expresión general:
∂S
(4.6) → µ = −T (U, V, N ) = µ(T, U, V, N ) = µ(T, U (T, V, N ), V, N )
∂N U,V usando (4.7)
N
= µ(T, V, N ) = µ T,
V
y de este modo aparece de forma natural la dependencia del potencial quı́mico respecto
con la concentración y la temperatura.
De forma general, llamando XM ≡ N , tenemos
∂S
(4.3) → µ = −T (U, X1 , X2 , . . . , N ) = µ(T, U, X1 , X2 , . . . , N )
∂N U,X1 ,...,XM −1
= µ(T, U (T, X1 , . . . , N ), X1 , X2 , . . . , N )
usando (4.8)
X1 X2 XM −1
= µ(T, X1 , X2 , . . . , N ) = µ T, , ,..., (4.11)
N N N
∼ kB {N ln N − N↑ ln N↑ − N↓ ln N↓ }
Stirling
de donde, la entropı́a:
1 U/N 1 U/N 1 U/N 1 U/N
S = −kB N − ln − + + ln +
2 2µH 2 2µH 2 2µH 2 2µH
(4.14)
b) Cálculo de la entropı́a mediante el cálculo de probabilidades de los posibles
estados:
N↑ 1 U/N
p ≡ = −
↑
N 2 2µH
p↓ = N↓ ≡ 1 + U/N
N 2 2µH
Por lo tanto, el cálculo de la entropı́a, haciendo uso de su extensividad, nos
conduce al mismo resultado (4.14):
S = N S1 = −kB N {p↑ ln p↑ + p↓ ln p↓ }
1 U/N 1 U/N 1 U/N 1 U/N
= −kB N − ln − + + ln +
2 2µH 2 2µH 2 2µH 2 2µH
Figura 4.2: Paso de estados a temperatura positiva hacia estados con temperatura
negativa.
U
U
N H (H fijo >0) (T fija >0)
k T/
B
H/k
B
punto de inflexión
- N H punto de inflexión
kB T ≪ µH
régimen cuántico (C/N kB ≪ 1)
kB T ≫ µH
kB T ≈ µH} régimen clásico (C/N kB ≈ 1)
U = −M H
µH
M = N µ tanh (4.15)
kB T
M M
punto inflexión
H T
k T/ H/k
B B
N N
∂M N µ2
χT (T, H) = (T, H) =
∂H µH
kB T cosh2
kB T
N µ2 1
χT (T, 0) = ∝
kB T T
4.5 Distribuciones de equilibrio 101
Cte
Tc es la temperatura de Curie, y la ley la Ley de Curie-Weiss. Vemos
T − Tc
ası́ que el orden que normalmente se establececı́a a 0o K (tercer principio de
la Termodinámica), aparece “prematuramente” (a T = Tc ) en el caso de una
transición de fase.
M M
S(ρ̂) X X
f (ρ̂) ≡ − λi Ai Tr(ρ̂A1 ) = −Trρ̂ ln ρ̂ − λi Tr(ρ̂A1 )
kB i=0 i=0
cuya diferencial:
" M
! #
X
δf (ρ̂) = −Tr 1 + ln ρ̂ + λi A i δ ρ̂ = 0, ∀δ ρ̂
i=0
y por lo tanto:
PM
ρ̂ = e−1− i=1 λi Ai
Pero PM
Trρ̂ = e−1−λ0 e−1− i=1 λi Ai =1
y por tanto se obtiene la distribución de Boltzmann-Gibbs, donde Z es la función de
partición:
1 h − PM
i=1 λi Ai
i
ρ̂ = e
Z PM (4.16)
Z ≡ Tre− i=1 λi Ai
Función de partición
El cálculo de Z = Z({λi }) es el problema básico de la Mecánica Estadı́stica. Para
ello es preciso:
1) Hallar los valores propios de Ai , ∀i.
2) Efectuar la suma de la traza.
PM
ln Z ≥ ln Z0 − i=1 λi hAi − A0i i0 (4.17)
Parámetros de Lagrange
{λi } y {hAi i} están directamente ligadas a las variables intensivas y extensivas
(respectivamente) de la Termodinámica. En particular, tenemos que:
1 h PM i
hAi i = Trρ̂Ai = Tr e− i=1 λi Ai Ai
Z
1 ∂ PM
1 ∂Z
= − Tre− j=1 λj Aj = −
Z ∂λi Z ∂λi
por lo tanto, las ecuaciones de estado:
∂
hAi i = − ln Z({λj }) ∀j (4.18)
∂λi
y por inversión podemos obtener
Correlaciones
Las correlaciones entre constantes de movimiento:
1 h PM i 1 ∂2Z
hAi Aj i = Trρ̂Ai Aj = Tr e− k=1 λk Ak Ai Aj = ∀(i, j)
Z Z ∂λi ∂λj
Y las correlaciones de las fluctuaciones:
hMij i ≡ h(Ai − hAi i)(Aj − hAj i)i = hAi Aj i − hAi ihAj i
1 ∂2Z ∂ ∂
= − ln Z ln Z
Z ∂λi ∂λj ∂λi ∂λj
∂ 2 ln Z
= ∀(i, j) (4.20)
∂λi ∂λj
y dado que ln Z es extensiva, Mij también.
La matriz {Mij } es además definida positiva (todos sus valores propios son posi-
tivos):
M ! M
! 2
X X X
∗
Mij xi xj = h Ai xi − h Ai xi i i ≥ 0, ∀{xi }
i,j i=1 i=1
Como veremos más adelante, esta positividad indica la estabilidad del sistema en
relación a las fluctuaciones de {Ai } (energı́a, volumen, número de partı́culas, etc).
Diremos que:
∂hAi i
es una matriz definida negativa (4.22)
∂λj
∂hAi i
esto es, que si Mij = Mii δij entonces < 0 ∀i.
∂λi
Ejemplos de consecuencias:
104 Colectividades y distribución de Boltzmann-Gibbs
∂S ∂U
CV ≡ T − = >0
∂T V ∂T V
∂S ∂H
Cp ≡ T = > CV , donde H es la entalpı́a
∂T p ∂T p
1 ∂V
Compresibilidad: αT ≡ >0
V ∂p T
∂
µ(T, N/V ) > 0
∂(N/V ) T
Entropı́a de equilibrio
M
! M
S X X
({hAi i}) = −Trρ̂ ln ρ̂ = Trρ̂ ln Z + λi A i = ln Z({λi }) + λi hAi i (4.23)
kB i=1 i=1
M M
dS X X
= d(ln Z) + hAi idλi + λi dhAi i
kB i=1 i=1
M M
X ∂ ln Z X
= + hAi i dλi + λi dhAi i
i=1
∂λi i=1
M
X
= λi dhAi i
(4.18) i=1
Esta propiedad es simétrica de (4.18) y corresponde a las definiciones (4.2) y (4.3) con:
λ1 = 1/kB T
Yj
λj = (j = 2, 3, . . . , M )
kB T
H → S/kB
L → − ln Z
p → hAi i
ẋ =→ λi
H = −L + ẋp → (4.23)
∂H
ẋ = → (4.24)
∂p
∂L
p= → (4.18)
∂x
Otro ejemplo:
F = U − TS
dU = T dS
dF = −Sdt
por lo tanto T y S son termodinámicamente conjugadas en relación a U y F . Vemos
también que la ecuación (4.23) implica:
S P ∂
= ln Z − M i=1 λi ln Z
kB ∂λi (4.25)
S P ∂S/k B
ln Z =
− i hAi i
kB ∂hAi i
y también que
∂ 2 S/kB ∂λi ∂λj
= = < 0 ∀(i, j)
∂hAi i∂hAj i ∂hAi i ∂hAj i
(4.22)
por lo tanto
S es función cóncava de los {hAi i} (4.26)
∂2S
Ejemplo: < 0, y para ello ver ejemplo de los spines en la sección (4.4).
∂U 2
Equilibrio termodinámico
Coloquemos en contacto termodinámico dos sistemas Σ1 y Σ2 , esto es, permitamos
transferencias entre ellos de todas las magnitudes extensivas respectivas {A1i } y {A2i }.
Entonces:
hA1i i + hA2i i = hAti i = fijo ∀i
| {z } |{z}
fluctúan total
por lo tanto
dhA1i i + dhA2i i = 0 ∀i
Por otro lado
por lo tanto
∂S t
equilibrio ⇔ S t máximo ⇔ = 0 ∀i
∂hA1i i
∂S1 ∂S2 dhA2i i ∂S1 ∂S2
⇔ 1
+ = −
∂hAi i ∂hA2i i dhA1i i ∂hA1i i ∂hA2i i
1
= (λ1 − λ2i ) = 0
kB i
esto es:
Σ1 y Σ2 en equilibrio ⇔ λ1i = λ2i ∀i (4.27)
Ejemplos:
Equilibrio térmico ⇔ T1 = T2
Equilibrio térmico-mecánico ⇔ T1 = T2 y p1 = p2
Equilibrio térmico-quı́mico ⇔ T1 = T2 y µ1 = µ2
También:
∂ ln Z
U ≡ hHi = − (4.28)
∂β
(4.18)
S = kB ln Z + kB βU (4.29)
(4.23)
De donde la energı́a libre de Helmholtz y el calor especı́fico:
1
F ≡ U − TS = − ln Z (4.30)
β
∂U 1 ∂U ∂ 2 ln Z
CV ≡ =− = kB β 2 (4.31)
∂T kB T 2 ∂β ∂β 2
(4.28)
= kB β 2 h(H − U )2 i
Fluctuaciones
Para todo Ai 6= H, tenemos que
∂ 2 ln Z(β, {λi })
6= h(Ai − hAi i)2 i = 0
∂λ2i
4.6 Colectividad Canónica 107
Termodinámica
S
Maximizar S con el vı́nculo Trρ̂H = U equivale a maximizar sin vı́nculo − βU ,
kB
lo que equivale a maximizar T S − U , y por lo tanto a minimizar F ≡ U − T S. De este
modo, se obtiene el resultado tradicional de la Termodinámica.
T → 0 ⇒ F ≈ U ⇒ debemos minimizar U (solamente el nivel fundamental
está muy poblado).
T → ∞ ⇒ F ≈ −T S ⇒ debemos maximizar S (todos los estados son casi
equiprobables).
Podemos escribir simbólicamente:
lı́m Canónico = Microcanónico
T →∞
ρ̂ ∝ e−βH ⇒ pm ∝ e−βEm
Por lo tanto
Si T > 0(< 0), cuanto menor (mayor) sea Em , más poblado está.
Si T = +0(−0), solamente el nivel fundamental (“antifundamental”) está po-
blado.
Todos los sistemas conocidos tienen espectro energético limitado inferiormente;
pero en lo que se refiere al lı́mite superior, éste puede existir (por ejemplo, spines, E ∝
Sz ) o p
no (por ejemplo, partı́cula libre no relativista, E ∝ n2 ; partı́cula libre relativista,
E ∝ (Cte) + (Cte)n2 ; oscilador ármónico, E ∝ n, rotor rı́gido con E ∝ l(l + 1);
etc). Todos los espectros tienen por lo menos una (frecuentemente única) energı́a
caracterı́stica ǫ, como por ejemplo, la diferencia de energı́a entre el nivel fundamental
y el primer nivel excitado:
Para un espectro sin lı́mite superior, se obtiene la forma tı́pica de la Fig. 4.8 .
Un espectro con lı́mite superior (situado a una energı́a ǭ sobre el fundamental)
implica, como forma tı́pica, la que puede observarse en la Fig. 4.9. Frecuentemente
ǫ ≈ ǭ.
El régimen clásico o cuántico, corresponde a la rangos de la energı́a:
kB T ≪ ǫ
régimen cuántico
kB T ≫ ǭ
donde
ǫin ≡ expectro de 1 partı́cula
N
X
Em ≡ expectro de N partı́culas = ǫin
i=1
La función de partición:
N
Y N
Y N
Y
ZN = TrN e−βHN = TrN e−βHi = Tr1 e−βHi = Z1 = ZiN (4.32)
i=1 i=1 i=1
4.6 Colectividad Canónica 109
por lo tanto:
SN = N S1
UN = N U1
FN = N F1
CN = N C1
reobteniendo ası́, de forma mucho más rápida, el resultado del apartado (4.4). Esta es
la razón por la cual la colectividad canónica es, desde el punto de vista operacional,
mucho más amable que la microcanónica.
a
Em + Enb = U = fijo, conEnb ≪ Em
a
X 1
ρ̂a+b = |mn > < mn|
a +E a =U
Em
W a+b
n
X
⇒ ρ̂a ≡ Trb ρ̂a+b = |m > pm < m|
m
donde
Wb
pm =
W
110 Colectividades y distribución de Boltzmann-Gibbs
con
Wb ≡ a
número de estados del sistema b cuya energı́a vale (U − Em )
a
= exp {Sb (U − Em )/kB }
∂Sb (U ) a
= exp [Sb (U ) − Em + . . . ]/kB ]
∂U
a
∂Sb (U ) Em a
∝ exp − = e−Em /kB T
∂U kB
donde
1 ∂S(U )
≡
T ∂U
por lo tanto a
pm ∝ W b ∝ e−Em /kB T
que es la destribución de la colectividad canónica.
Análogamente, la colectividad macrocanónica puede entenderse como un pequeño
subsistema del canónico (o del microcanónico). Ejemplifiquémoslo en una serie de
ejemplos.
1
Ejemplo A) Considérese A + B, sistema aislado de spines- discernibles e inde-
2
pendientes:
A = 1 spin → ǫA = ±µH
B = 3 spines → ǫB = ±3µH, ±µH
Si A está aislado de B entonces P (A)(↑) = PA (↓) = 1/2
Si A está en contacto térmico con B, y sabemos que ǫA+B = −2µH, las probabilidades
(ver Tabla 4.1):
pA (↑) = 3 pA (↓) 1
4 ⇒ =
pA (↓) = 1 pA (↑) 3
4
A B
↑ ↑↑↓
↑ ↑↓↑
↑ ↓↑↑
↓ ↑↑↑
1
Cuadro 4.1: Tabla de poblaciones posibles para los spines- .
2
A B
N!
↑ ↑ ... ↑ ↓ ... ↓ → posibilidades
| {z } | {z } (n − 1)!(N − n + 1)!
n−1 N −n+1
N!
↓ ↑ ... ↑↓ ... ↓ → posibilidades
| {z } | {z } n!(N − n)!
n N −n
1
Cuadro 4.2: Tabla de poblaciones posibles para los N spines- .
2
A B
N!
0 ↑ ... ↑↓ ... ↓ → posibilidades
| {z } | {z } n!(N − n)!
n N −n
N!
ǫr ↑ ... ↑ ↓ ... ↓ → posibilidades
| {z } | {z } (n + ∆n)!(N − n − ∆n)!
n+∆n N −n−∆n
1
Cuadro 4.3: Tabla de poblaciones posibles para los spines- .
2
∆n
pA (ǫr ) n!(N − n)! N −n
= ∼ ( si 1 ≪ ∆n ≪ n)
pA (0) (n + ∆n)!(N − n − ∆n)! n
y por lo tanto se obtiene la distribución canónica (!):
∆n N −n ǫr n
ln
N −n ∆n ln
2µH N − n = e−βǫr
pA (ǫr ) ∝ =e n =e
n
112 Colectividades y distribución de Boltzmann-Gibbs
1 n
β≡ ln
2µH N −n
A conoce B únicamente a través de β (concepto de termostato);
La población de los niveles de A está controlado por B;
A pesar de la independencia de las partı́culas, nuestro razonamiento ha adquirido
una forma sutil de interacción, “suficientemente pequeña para no alterar los es-
pectros energéticos, pero suficientemente fuerte como para permitir el equilibrio
térmico”.
Obsérvese la Fig. 4.10, en la que µH es fijo:
ρ̂ = − 1 e−β(Ĥ−µN̂ )
(4.16) ⇒ Ξ P P (N ) P
Ξ(βµ) ≡ Tre−β(Ĥ−µN̂ ) = N eβµN m e−βEm = N eβµN ZN
4.7 Colectividad Macrocanónica 113
∂S 1 ∂S µ
= y =−
∂U T ∂N T
en concordancia con las definiciones introducidas en la colectividad macrocanónica.
Diferenciando (4.34) obtenemos dU = T dS + µdN , por lo tanto µ es la energı́a que
aporta al sistema el ingreso de una partı́cula, y:
Ejemplos:
Fotones y en general cuasipartı́culas (distribución de Plank del cuerpo negro).
Transiciones de fase: condensado de Einstein.
De manera simbólica podemos escribir:
X X N X
Ξ= eβµN Z1N = eβµ Z1 = ΞN
1
N N N
donde X
Ξ1 ≡ e−β(Em −µ)
estados de
1 partı́cula
tenemos por lo tanto, en este caso, que µ es el desplazamiento en energı́a (debido al
reservorio de partı́culas) del espectro de cada partı́cula.
Cálculo de Ξ
En el cálculo de Ξ es natural introducir los operadores de creación y destrucción
a+ , a− , lo que permite vincular la Mecánica Estadı́stica a la Teorı́a de Campos.
114 Colectividades y distribución de Boltzmann-Gibbs
AB ⇋ A + B
total = fijo
NA (A atómico ) + NA (A en AB) = NA
total = fijo
NB (B atómico ) + NB (B en AB) = NB
| {z }
fluctúan
En el caso de que las reacciones sean nucleares, lo que se conserva es el número de
partı́culas elementales y no el número de átomos. Por ejemplo:
p + e− ⇋ n + ν
Z Z βp2 r Z r
dx dp − L 2m ∞ 2 L 2πm
Z1 (d = 1) = e 2m = dye−y =
h h β ∞ h β
donde xiα y piα son, respectivamente, la α-ésima componente del vector posición (~xi )
y la α-ésima componente del momento (~ pi ) para el i-ésimo oscilador; miα son los
116 Colectividades y distribución de Boltzmann-Gibbs
Termodinámica Clásica: un
caso particular
necesaria utilizando la Mecánica Estadı́stica. Por ello recibió el Premio Nobel de Quı́mica en
1968.
118 Termodinámica Clásica: un caso particular
mos también más adelante, poder calcularlas a partir del mundo microscópico.
Equilibrio térmico
Sin embargo, veamos que existen un par de argumentos por los que en rigor esta
demostración no es matemáticamente válida. Analicémoslos, para comprender adecua-
damente lo que verdaderamente significa el que exista equilibrio térmico entre dos
sistemas.
4 Queda abierta la pregunta sobre si los estados metaestables pueden también satisfacer
I) Para que dos sistemas puedan intercambiar energı́a, ha de existir entre ellos una
interacción. De este modo, dos sistemas aislados de Hamiltonianos respectivos
HA y HB tienen por Hamiltoniano
H = HA + HB , ([HA , HB ] = 0) ,
H′ = HA + HB + VAB .
Una vez resuelto {U (ǫ), S(ǫ)}, dejamos transcurrir el tiempo hasta que el sistema se
estabiliza, y sólo una vez alcanzado el equilibrio hacermos tender ǫ → 0, esto es
Lo que ocurre en Tc es que existe una cierta barrera de potencial entre ambos estados,
que puede ser atravesada en un tiempo finito regido por la ley de Arhenius. De este
modo, el sistema es ergódico en la mitad del espacio de fases cuando T < Tc (los spines
están dotados de una orientación determinada) y es ergódico en todo el espacio cuando
T > Tc . En ambos casos puede por tanto aplicarse la Mecánica Estadı́stica BG por
tratarse de sistemas ergódicos en un cierto conjunto.
120 Termodinámica Clásica: un caso particular
Pero en el caso de que la barrera de potencial entre los estados implicados en una
transición ocupe una región muy grande de medida de Lebesgue no nula, el sistema
no tiene por qué ser ergódico y por tanto no tiene por qué cumplirse la Mecánica
Estadı́stica BG. Esto ocurre por ejemplo en los sistemas de largo alcance, en los que
se encuentran sistemas metaestables para los que el tiempo necesario para que se
produzca una transición aumenta conforme se alcanza el lı́mite termodinámico.
Termómetro-termostato
Cuando ponemos en contacto térmico dos sistemas A y B, cuya situación previa
es (TB < TA )
{TA , UA } para el sistema A
{TB , UB } para el sistema B
mucho después del contacto, la situación pasa a ser
′
{T, UA } para el sistema A
′
{T, UB } para el sistema B
′ ′
{T, Utotal ≡ UA + UB = UA + UB } para el sistema completo.
∆U ≡ Uf − Ui = W + Q
5.2 Primer principio 121
dU = δW + δQ
Demostración
∂H dU ∂W ∂ ∂ ρ̂
Sistema aislado ⇔ =0⇒ = = Trρ̂H = Tr H
∂t dt ∂t ∂t ∂t
−i −i
= Tr ([H, ρ̂]H) = Tr (ρ̂[H, H]) = 0
~ ~
⇒ U = Cte del movimiento
Interpretación
El sistema, esté o no aislado, cumple que
∂H
Si el sistema no fuera un sistema aislado ( 6= 0) tenemos dos situaciones tı́picas
∂t
posibles:
∂H0
1) H depende aleatoriamente de t alrededor de H0 , de modo que = 0.
∂t
En este caso los estados de referencia son los estados propios de H0 (se preserva
el Hamiltoniano con los niveles energéticos y sus degeneraciones, y se modifican
sólo las poblaciones) y la dependencia aleatoria de H genera únicamente calor.
Son procesos irreversibles, dado que la evolución es incontrolada o estocástica.
2) H depende de t de forma controlada, a través de variaciones “suficientemente”
lentas6 de los parámetros externos ξα (generalmente intensivos, pero podrı́an
ser extensivos, por comodidad).
Esto significa que cambio el espacio de Hilbert y mantengo las poblaciones.
En este caso la dependencia del tiempo de H genera trabajo. Son procesos
reversibles, dado que el factor externo que modificó los niveles energéticos
(por ejemplo, un campo magnético) puede desaparecer.
Veamos cómo se define el trabajo producido por fuerzas generalizadas asociadas
a los cambios de ξα . Dado que el Hamiltoniano depende de dichos parámetros
según
H = H({ξα }),
variaciones suficientemente lentas en ξα conducen a cambios diferenciales del
Hamiltoniano, según
X ∂H
X ∂H
dH = d ξα = Fα dξα . Fα ≡
α
∂ξα α
∂ξα
6 Cuando nos referimos a “variaciones suficientemente lentas” queremos decir que podemos
Este primer enunciado es cierto, pero Dodé lo considera inadecuado, dado que en
realidad lo que no existe es ningún tipo de motor mono-paramétrico intensivo. Esto
5.3 Segundo principio 123
se debe a que todo motor, para funcionar, precisa de un desnivel en algún parámetro
intensivo que al desaparecer genere un desnivel en algún otro parámetro intensivo. Por
ejemplo:
1) Al tirar una piedra, desaparece la diferencia de alturas ∆h, y aparece la dife-
rencia de velocidades ∆v.
2) Al colocar una carga negativa entre dos placas cargadas de diferente signo (ver
Fig. 5.2), desaparece la diferencia de potencial eléctrico ∆V , y aparece la dife-
rencia de fuerza eléctrica ∆Fe .
Figura 5.2: Carga negativa situada entre dos placas cargadas con diferente signo.
En la Fig. 5.3 se muestran los procesos de intercambio de calor y trabajo que están
prohibidos o permitidos por el primer y segundo principios de la Termodinámica.
δQ
dS = (5.3)
T
Figura 5.3: En la primera (segunda) columna se muestran los procesos prohibidos por
el primer (segundo) principio de la Termodinámica. En la tercera y última columna,
los permitidos por ambos.
δQ 1
= Tr{(dρ̂)H} = kB Tr{(dρ̂)βH} = kB dTr{ρ̂βH} − kB Tr{ρ̂d(βH)}
T T
−βH
e d(βH) kB
= kB d(βTrρ̂H) − kB Tr = kB d(βU ) + d(Tr e−βH )
Tr e−βH Z
U F
= kB d(βU ) + kB d(ln Z) = d − = dS
T T
donde (x, y, . . . ) son d variables independientes. En realidad, la fuerza del cuarto enun-
ciado aparece para d ≥ 3, dado que para d = 2 ya existe un teorema matemático que
garantiza la existencia del factor integrante.
pero
δQrecibido por la fuente δQrecibido por el sistema
dS(fuente) = =−
T T
donde T es la temperarura de la fuente y donde hemos recurrido al primer principio,
dado que en la fuente los procesos son reversibles por encontrarse en equilibrio.
Por lo tanto:
δQ
dS > (5.4)
T
resultado que generaliza el resultado usual en termodinámica clásica, dado que ni
siquiera los estados inicial y final han de ser necesariamente estados de equilibrio.
Obsérvese que S está definida incluso fuera del equilibrio.
La desigualdad de Clausius engloba tanto los casos reversibles como los irre-
versibles:
δQ
dS ≥ (5.5)
T
Nadie pone hoy en dı́a en duda este principio. Sin embargo, podrı́a pensarse en
un universo más viejo, en el que la entropı́a disminuyera. Existen de hecho sistemas
con pocos grados de libertad en los que la entropı́a oscila por debajo de un umbral,
como ocurre en el modelo de Fermi-Pasta-Ulam, o también en los que la entropı́a se
dispara súbitamente para después disminuir hacia un valor asintótico, como es el caso
del mapa logı́stico en el punto de Feigenbaum [?, ?].8
Potencial Termodinámico
Hemos visto que el calor (Q) y el trabajo (W ), según el sistema esté o no esté en
equilibrio, verifican que
P
δW = α < Fα > dξα
sistema en equilibrio ⇒
δQ = T dS
P
δW > α < Fα > dξα
sistema fuera del equilibrio ⇒
δQ < T dS
donde Fα y dξα son las fuerzas y “desplazamientos” generalizados. Pero en virtud del
primer principio, siempre ha de cumplirse que
X
dU = δW + δQ = < Fα > dξα + T dS.
α
∂F
= −S (5.6)
∂T
8 escoger referencias
126 Termodinámica Clásica: un caso particular
∂F
=< Fα >, ∀α (5.7)
∂ξα
ecuación (5.7) de la que podemos escribir algunos ejemplos:
∂F
− = −p (5.8)
∂V
∂F
− =µ (5.9)
∂N
donde F representa una fuerza, V un volumen, p la presión, N el número de partı́culas
y µ el potencial quı́mico.
T = 0 es inaccesible.
o también, que
S(T )
lı́m lı́m = es una constante universal, que se considera cero.
T →0 N→∞ N
Demostración
1
si m corresponde al nivel fundamental
e−βEm
WN0
T → 0 ⇒ pm = X −βE =
m
e
0, en el caso contrario
m
son las probabilidades de cada estado en el lı́mite de bajas temperaturas, donde WN0
es la degeneración del estado fundamental del sistema de N partı́culas. Se obtiene
entonces que
ln WN0
lı́m lı́m = kB lı́m = 0.
T →0 N→∞ N→∞ N
Con respecto a la última igualdad, hay que decir que en principio serı́a matemática-
mente posible formular modelos en los que WN0 crece como ∼ constanteN , violándose
ası́ el tercer principio. Pero el hecho es que una degeneración de tal tipo no ha sido
nunca observada en la naturaleza.
Con este principio estamos por tanto afirmando que la entropı́a por partı́cula a
temperatura cero se considera nula porque el sistema se encuentra trementamente or-
denado. Pero además, en el caso de tratarse de un sistema degenerado, la degeneración
no puede ser tipo g0 ∼ µN , porque en ese caso tendrı́amos
S ln g0
= = ln µ 6= 0,
N N
lo que contradice el tercer principio. Una consecuencia de este hecho es que a tempe-
raturas muy bajas los spines no pueden ser independientes dado que la degeneración
de N spines independientes es 2N .
5.5 Potenciales termodinámicos y relación de Gibbs-Duhem 127
Corolario
lı́m CV (T ) = 0 (5.10)
T →0
Para demostrarlo ello partimos de la definición del calor especı́fico propia de la Ter-
modinámica, y de la caracterización de la entropı́a propia de la Mecánica Estadı́stica.
Z T
∂S CV (T )
CV = T ⇒ S(T ) − S(0) = dT
Z T
∂T T CV (T )
0 ⇒ S(T ) = dT (5.11)
0 T
S(0) = 0
Fue Einstein el que demostró la relevancia de este principio al proponer una teorı́a
de carácter cuántico en la que predecı́a razonablemente la evolución de la capacidad
calorı́fica de los sólidos en un amplio rango de temperaturas y concretamente para
temperaturas próximas a T = 0, donde la regla de Dulong y Petit (CV = 3kB NA ) deja
de ser válida.
Es obvio que el tercer principio es de origen cuántico. El tercer principio exige
S(0) = 0 para sistemas en equilibrio estable, pero no dice nada acerca del equilibrio
metaestable, en el que serı́a posible obtener S(0) 6= 0 durante tiempos más largos que
la edad del universo. Es lo que ocurre por ejemplo en el vidrio.
F = −kB T ln Z (Z = e−βF )
X
Y = −kB T ln Ξ (Ξ = e−βY ) = eβµN ZN
N
β(µ−F /N)
XN → ∞, se tiene que e
En el lı́mite termodinámico, ≈ (constante)N , y
por lo tanto podemos calcular por el método del punto silla, esto es:
N
X X
eβ[µN0 −F (N0 )]−Cte(N−N0 )
2
eβ(µN−F ) ≈
N N
∂
[µN − F (T, V, N )] = 0
∂N
y por lo tanto
∂F (T, V, N )
µ= (5.13)
∂N
N0
⇒ Y = −pV
∂Y (T, V, µ)
relación simétrica de (5.9): p = −
∂V
T, µ
U − T S + pV − µN = 0 (5.15)
SdT − V dp + N dµ = 0 (5.16)
Las ecuaciones (5.15) y (5.16) se pueden generalizar de modo trivial para un núme-
ro arbitrario de variables.
Capı́tulo 6
Estadı́stica de
Maxwell-Boltzmann:
Aplicaciones
H = ax2 (6.1)
que una vez diagonalizado conduce a (6.4). Con este ejemplo queremos llamar la aten-
ción sobre el hecho de que el Hamiltoniano es invariante por translaciones y la matriz
que lo diagonaliza es la transformada de Fourier.
e−β~ω/2 1
= = (6.6)
1 − e−β~ω/2 β~ω
2 sinh
2
A partir de la función de partición, pueden calcularse todas las magnitudes termo-
dinámicas. Concretamente, la energı́a interna (ver Fig. 6.1) y el calor especı́fico (ver
Fig. 6.2) son
∂ ∂ β~ω ~ω β~ω
U = − ln Z = ln 2 sinh = coth (6.7)
∂β ∂β 2 2 2
2
~ω
∂U 2kB T
C = = kB (6.8)
∂T ~ω
sinh2
2kB T
En el caso cuántico, a diferencia del caso clásico, se observa que el calor especı́fico
depende de ciertos factores (concretamente de kB T ) salvo a altas temperaturas, a las
que se recupera el limite clásico y el calor especı́fico no depende más que del número
132 Estadı́stica de Maxwell-Boltzmann: Aplicaciones
Figura 6.2: Dependencia del calor especı́fico C con la temperatura. Obsérvese el com-
portamiento a muy bajas temperaturas (kB T /~ω → 0). A altas temperaturas el calor
especı́fico es aproximadamente kB , dado que el Hamiltoniano de un oscilador armónico
tiene dos términos cuadráticos.
~ω
T∗ ≈
kB
2 A diferencia de la luz, que viaja en el vacı́o y para la que ω = ck ∀k, los fonones se propagan
según ondas estacionarias para las que la velocidad de grupo vg (k = π/a) = ∂ω/∂k = 0, siendo
a la unidad cristalina que determina el grupo de simetrı́as invariante en el cristal, en tanto que
la velocidad de fase no es nula (vf = ω/k). Podemos diferenciar los fonones acústicos, cuyos
modos de oscilación no se acoplan con la luz por ser longitudinales, de los fonones ópticos, cuyos
modos de oscilación transversales sı́ se acoplan con la luz. El modelo de oscilador cuántico de
Einstein fue el primero que describió el forma adecuada estos últimos
6.2 Rotor rı́gido cuántico 133
Lı́mite clásico
En el lı́mite clásico, tal como se observa en Fig. 6.2, el teorema de equipartición
clásico permite predecir su valor asintótico:
1
C ∼2× kB
2
donde el factor 2 es debido al número de términos cuadráticos del Hamiltoniano. Dicho
lı́mite puede alcanzarse de cuatro formas “fı́sicamente diferentes”. Concretamente:
a) {ω, ~, kB } fijos, {T → ∞}
b) {T, ~, kB } fijos, {ω → ∞}
c) {ω, T, kB } fijos, {~ → ∞}
d) {ω, T, ~} fijos, {kB → ∞}
espacio de frecuencias angulares, en el que se evitan las divergencias creadas por la dependencia
angular en el denominador.
134 Estadı́stica de Maxwell-Boltzmann: Aplicaciones
∞ ∞ 1 ∞
X X − l(l+1) X
Z= (2l + 1)e−Elm /kB T = (2l + 1)e 2t (2l + 1)e−xl(l+1)
l=0 n=0 l=0
1
donde x ≡ > 0.
2t
Z ∼ 1 + 3e−2x (6.13)
a partir de la que obtenemos la siguiente expresión para el calor especı́fico (ver Fig. 6.3):
2
Tr
C ∼ 3kB e−Tr /T (6.15)
T
(t → 0)
Figura 6.3: Calor especı́fico con la temperatura. Obsérvese que para el lı́mite t → 0,
el resultado obtenido satisface el tercer principio de la Termodinámica. Por otro lado,
en el lı́mite t → ∞, el teorema de equipartición clásica permite hallar el valor de la
ası́ntota, C/kB = 2 × /2 = 1.
Rotor anisótropo
Ilustremos a continuación un ejemplo histórico controvertido, que ha podido fi-
nalmente ser exhaustivamente explicado [23] mediante los métodos que acabamos de
presentar. Se trata del modelo de un motor anisótropo, respecto al que Gibbs guardaba
gran perplejidad, dado que los resultados experimentales no parecı́an concordar con la
teorı́a aplicada al modelo. En el prólogo de su obra [8] él mismo escribe: “...It is well
known that while theory would assign to the gas six degrees of freedom per molecule, in
our experiments on specific heat we cannot account for more than five. Certainly, one
is building on an insecure information, who rests his work on hypothesis concerning the
constitution of matter”4 . Esta perplejidad era debida a que una molécula diatómica en
un gas deberı́a presentar un calor especı́fico C/kB = 6 × 1/2 = 3 (6 son los grados de
libertad), y sin embargo los resultados experimentales parecı́an arrojar un resultado
distinto, C/kB = 5/2.
El Hamiltoniano para un rotor anisótropo que presenta un eje de simetrı́a es
L2x + L2y L2
H= + z
2Ixy 2Iz
donde Lx , Lx y Lx son las componentes del momento angular, y Iz , Ixy son los
momentos de inercia respecto al eje de simetrı́a z y al plano perpendicular xy. El
4 Traducir?
136 Estadı́stica de Maxwell-Boltzmann: Aplicaciones
con degeneración (2l + 1) debido a las proyecciones del momento angular sobre el eje
de rotación. A partir la función de partición
∞
X l
X 2
Z(t) = (2l + 1)e−l(l+1)/t e(Ixy /Iz −1)m /t
l=0 m=−l
se obtiene [23] una expresión para el calor especı́fico en la que se detecta la exis-
tencia, para todos los valores de Ixy /Iz , de un pico que se agudiza cuando Ixy /Iz
decrece (para Ixy /Iz = 0 alcanza casi el valor 5/2). Pero además, y esto es una no-
vedad con respecto al rotor isótropo, para Ixy /Iz suficientemente grande aparece un
segundo pico. Finalmente, para todo valor de Ixy /Iz < ∞, lı́mT →∞ (C/kB ) = 3/2,
resultado asociado a la equipartición clásica para tres grados de libertad, mientras que
lı́mT →∞ lı́m(Ixy /Iz →∞) (C/kB ) = 1, apareciendo sólo dos grados de libertad y perma-
neciendo el otro congelado. Dada la asimetrı́a de la molécula, el sistema anisótropo
tiene dos escalas de temperatura:
T ∗ = ~2 /2Ixy kB ; T ∗∗ = ~2 /2Iz kB .
Iz = 2000Ixy ⇒ T ∗∗ = 2000T ∗ ,
razón por la que los experimentos a los que alude Gibbs no detectaban el segundo
régimen asintótico del calor especı́fico. El problema no habı́a podido ser estudiado
todavı́a mediante la mecánica cuántica, y todo lo que la mecánica clásica podı́a afirmar
es que la energı́a era
1 L2
Eclasica = Iω 2 = ,
2 2I
energı́a de espectro continuo. Por el contrario, cuando I → 0, los niveles cuánticos
fundamental y primero excitado se separan, y la energı́a del rotor ha de aumentar
mucho para llegar a detectar el nivel superior.
Figura 6.4: Dependencia del calor especı́fico con la temperatura para un rotor
anisótropo.
e−β~x·Λ~x
p(~x) = R
e−β~x·Λ~x d~x
que nos permite obtener la energı́a interna
R Z
~x · Λ~xe−β~x·Λ~x d~x ∂
U ≡ hHi = R =− ln e−β~x·Λ~x d~x
e−β~x·Λ~x d~x ∂β
Z √
√ √ d β~x
∂
= − ln e−( β~x)·Λ( β~x)
∂β β N/2
∂ N N
= − ln β −N/2 × Cte = = kB T
∂β 2β 2
de lo que se obtiene el principio de equipartición clásica:
dU 1
C/kB = =N (6.16)
dT 2
en el que cada término cuadrático de un Hamiltoniano clásico con sólo términos
cuadráticos (que representan cada “grado de libertad”), contribuye al calor P especı́fico
con un factor kB /2. El teorema es fácil de generalizar para el caso H = ij λij xi x∗j ,
donde {xi } son variables aleatorias complejas y Λ es una matriz hermı́tica.
Un dato muy importante es que este teorema permite predecir, sin hacer ningún
cálculo, el lı́mite lı́mT →∞ C(T ) de cualquier sistema cuántico cuyo espectro energético
no esté acotado superiormente y no sea exageradamente espaciado a medida que la
energı́a crece (en cuyo caso, a pesar de no estar acotado, se tratararı́a de una situación
en la que el sistema llegarı́a a no “percibir” la existencia de una cota superior).
138 Estadı́stica de Maxwell-Boltzmann: Aplicaciones
La Fig. 6.5 muestra la dependencia con la temperatura del calor especı́fico obtenido
en (6.19). Obsérvese que, como en todos los sistemas con espectro de energı́a acotados
superiormente (en este caso E = ±µH), el calor especı́fico a altas temperaturas tiende
a cero, debido a que al ser la energı́a térmica kB T mayor que la energı́a máxima del
espectro no existen niveles energéticos que puedan ser excitados. Según este razona-
miento, la localización de los regı́menes clásico o cuántico pueden estimarse situadas
en la región de energı́a menor o mayor que el rango de energı́a máxima del espectro
(kB T ∼ µH), de modo que podemos localizar la posición del punto de inflexión en
T ∼ µH/kB . Además, dado que a altas temperaturas el calor especı́fico en (6.19) tien-
de a cero según ∼ 1/T 2 , la susceptibilidad magnética χ se comportará según ∼ 1/T ,
verificándose ası́ la Ley de Curie5 .
El valor C(0)/kB = 2 × (1/2) = 1 estarı́a en acuerdo con el principio de equiparti-
ción, dado que existen dos grados de libertad (ϕ, θ). Sin embargo, dado que las variables
(ϕ, θ) son variables continuas, el modelo viola el tercer principio de la Termodinámica
y la ecuación (6.19) resulta ser incorrecta para el lı́mite T → 0. Por el contrario, en un
modelo mejorado, se espera que C(0) = 0, dominando el comportamiento tipo función
de Cauchy en lı́mT →0 C(T ), y alcanzándose el máximo que se alcanza el modelo para
una temperatura T ∗ 6= 0 intermedia, para la que C(T ∗ )/kB = 1.
5 Para la relación entre el calor especı́fico a campo magnético constante y la susceptibilidad
Aplicación al gas de O2
Tenemos un mol de O2 a una temperatura T = 293o K y una presión p = 1 atmósfe-
ras. Se trata por tanto de un gas enrarecido, en el que los dipolos no interaccionan
entre sı́, y de aquı́ que pueda hacerse uno de (6.20). Aplicamos un campo H = 20
KGauss (= 2 Tesla), y medimos una magnetización de M = 9,7 × 10−2 J/Tesla6 .
a) ¿Es lı́cito calcular χT con M/H en lugar de lı́m∆H→0 ∆M/∆H?
Lo es sólo si µH/kB T ≪ 1, lo que en nuestro caso se cumple, puesto que
ǫm = −mgL µB H
m = J, J − 1, . . . , −J
3 s(s + 1) − L(L + 1)
gL = + (gL ∈ [1, 2]).
2 2J(J + 1)
Los valores extremos de gL se alcanzan:
1 si S = 0 (J = L)
gL =
2 si L = 0 (J = S)
con y ≡ βgL µB H. Hemos obtenido, por tanto, la función de partición como la extensión
analı́tica de la suma parcial de una serie geométrica.
Obtenida la función de partición podemos calcular la energı́a interna
∂
UN = − ln ZN = −N gL µB HBJ (y), (6.22)
∂β
donde BJ (y) es la función de Brillouin
1 1 1 y
BJ (y) ≡ J + coth J + y − coth ,
2 2 2 2
que, tal como se observa en Fig. 6.7, corrige con éxito el modelo de Langevin.
142 Estadı́stica de Maxwell-Boltzmann: Aplicaciones
M µB H
= µB tanh
N kB T
Determinaciones experimentales
Veamos cómo mediante un único experimento podemos deducir dos parámetros
microscópicos, i.e., el momento angular total del átomo (J), y su factor de Landé (gL ).
a) La medida del valor de saturación de la magnetización Ms (H → ∞, para una
muestra de N partı́culas, permite determinar gL J, mediante la ecuación
MS ≡ lı́m M (T, H) = N µB gL J
µB H
→0
kB T
2
b) La medida de χT (T, 0) permite determinar gL J(J + 1).
M
valor de satuación g J
MS L
H
2
pendiente g J(J+1)
L
dN
donde n = es la concentración del gas ideal. Queremos hallar n(r), siendo mω 2 r
dV
la fuerza virtual sobre una molécula.
El Hamiltoniano es
n (0)
N0 βmω 2
n(0) = (6.28)
2πH eβmω2 R2 /2 − 1
Determinación experimental de m
La medida experimental de las presiones en el eje y en la frontera, p(0) y p(R),
permiten calcular la m de los constituyentes del gas, parámetro microscópico, según
p(R) n(R) 2 2
= = eβmω R /2 .
p(0) n(0)
La situación tı́pica para una centrifugadora presenta unos valores para los paráme-
ω
tros implicados del orden de R = 10 cm, = 6000 ciclos por minuto, T = 300o K.
2π
Supongamos además que se trata de un gas N2 . De aquı́ que
∆p p(R) − p(0)
≡ ≈ 2 × 10−2 = 2 %
p p(0)
y de ello se infiere que no son necesarios instrumentos con extrema precisión, aba-
ratándose su fabricación.
146 Estadı́stica de Maxwell-Boltzmann: Aplicaciones
p2 ~2 k2
H1 = → Ek = .
2m 2m
Utilizaremos la colectividad canónica clásica. En el lı́mite del cuasicontı́nuo, intro-
duciendo la densidad de estados ω(E) (ver Sec. 2.3.7) se tiene
X −βE Z ∞
Z1 = e k
∼ dEe−βE ω(E)
k 0
3/2 Z
2m ∞ √ V
= 2π V e−βE EdE = 3 (6.29)
h2 0 λ̄
Hipótesis de quasicontinuidad
La hipótesis de quasicontinuidad es válida en el lı́mite βE ∗ ≪ 1, donde E ∗ es la
energı́a caracterı́stica del problema
h2
E∗ ≡
2mV 2/3
y por lo tanto, dicha hipótesis implica que
βh2 λ̄
≪ 1 ó bien 1/3 ≪ 1 (6.31)
2mV 2/3 V
Para el sistema formado por las N partı́culas del gas, por ser indistinguibles e
independientes, se tiene que la función de partición es
1
ZN ∼ (Z1 )N
N!
de donde la entropı́a es
3 V
S N = N kB + ln ,
2 N λ̄3
y la energı́a libre
N λ̄3
FN = −kB T ln ZN ∼ N kB T ln . (6.32)
V
Esta expresión es válida en el lı́mite clásico siempre que se satisfaga la siguiente con-
dición:
λ̄
1/3 ≪ 1 (6.33)
V
N
A partir de la energı́a libre se puede calcular la ecuación de estado
∂FN N kB T
p=− = (6.34)
∂V N,T V
y el potencial quı́mico
∂F N λ̄3
µ= = kB T ln + 1 ∼ kB T ln nλ̄3 (6.35)
∂N V,T V
N
donde n ≡ es la densidad del gas.
V
régimen clásico
T ln T
Figura 6.11: Comportamiento asintótico del potencial quı́mico para un gas ideal clási-
co monoatómico.
Ek = Ekl + mV (r), (r ≥ R)
y el potencial quı́mico
m
− (V (r)−V0 )
n(r) = n0 e kB T (6.39)
V (r) − V0 = g0 (r − R) = g0 z
donde vemos que T → 0 implica que hzi → 0, que es un efecto clásico. Una estimación
de dicho valor esperado es
GmM 1 1
−
p(r) n(r)
= = e kB T r R (6.42)
p0 n0
y
GmM 1 1
Z A −
r e kB T r R r 2 dr
R A4 /4
hri ≡ lı́m = lı́m =∞
GmM 1 1
A→∞ A→∞ A3 /3
Z A −
e kB T r R r 2 dr
R
¡de lo que se deduce que la atmósfera escapa de la tierra! Este error proviene del
dT (r)
supuesto que = 0, lo cual resulta demasiado ficticio.
dr
µ = µl = kB T ln n(r)λ̄3
donde Φ(r) es el potencial electrostático creado por q y por la carga electrónica exce-
dente, y r es la distancia a la impureza. Dado que µ es independiente de r, se tiene
que
µ(r) = µ(∞) = µl (n0 )
y por tanto
∂µl (n)
[n(r) − n0 ] = eΦ(r) (6.43)
∂n n0
Por otro lado, de la electrostática, se tiene que:
ρ e
∇2 Φ(r) = − = − (n − n0 ) (6.44)
ǫ0 ǫ0
6.9 Plasma neutro clásico 151
n(r)
n0
µl = kB T ln (nλ̄3 )
ǫ0 mhv 2 i
Λ2 = .
3e2 n0
Si definimos una frecuencia de oscilación caracterı́stica ωp mediante la relación
2 hv 2 i
Λ = 2 , esta puede estimarse según
ωp
s
3e2 n0
ωp ≈
mǫ0
6.9 Plasma neutro clásico 153
n(r)
n0
x
L
Figura 6.16: Concentración electrónica en una placa de anchura L.
donde la primera desigualdad es necesaria para que la imagen de tipo “fluido” sea
válida, y la segunda para que el tratamiento semiclásico sea aceptable.
154 Estadı́stica de Maxwell-Boltzmann: Aplicaciones
V ≡ V 1 + V 2
N ≡ N1 + N2
Traslación global
En el caso de la traslación molecular global, los valores tı́picos para las magnitudes
fı́sicas implicadas son:
M ≈ 30 × 10−27 Kg h2
−3 3 ⇒ Ttr = ≈ 10−17 o K
V ≈ 1 l = 10 m 2M V 2/3 kB
Contribución electrónica
Los valores tı́picos son:
ǫ
1 eV / ǫ / 10 eV ⇒ 104 o K / Tel = / 105 o K
kB
En este caso nos encontramos claramente en régimen cuántico. En la mayorı́a de las
situaciones experimentales podemos “olvidar” esta contribución (en cuyo caso diremos
que se trata de un “modo congelado”). Entretanto, si ǫ / 1 eV, las contribuciones en
ocasiones podrı́an detectarse.
156 Estadı́stica de Maxwell-Boltzmann: Aplicaciones
se tiene que
P2 X Π2α X P2
H1 = + + ρα }) =
V ({~ +h
2M α
2µα 2M
α,β
2
P
donde Ztr está asociado a 2M , ζ está asociado a h, y donde
h
Ztr = V /λ̄3 ,
λ̄ = √
2πM kB T
ζ ≡ Tr e−βh
∂ 3 d
UN = − ln ZN = N kB T − N ln ζ
∂β 2 dβ
3 d
= N kB T + T2 ln ζ
2 dT
h = h({P~i }, {R
~i }, {p~j }, {r~j })
X Pi2 X p2j X X X
= + + ~ i }) +
Vnn ({R Vll ({r~j }) + ~ i }, {r~j })
Vnl ({R
i
2Mi j
2m ′ ′ i,j
i,i j,j
donde {R ~i } y {P~i } son las posiciones y los momentos de los núcleos –puntuales–, {~
ri }
y {p~i } son las posiciones y los momentos de los electrones, {Mi } son las masas de los
núcleos –puntuales–, y m es la masa del electrón. Dado que Mi ≫ m podemos, según
la aproximación de Born-Oppenheimer, despreciar las correlaciones entre los núcleos
y los electrones.
Resolvamos el problema en dos etapas:
~ i como parámetros, y resolvemos
1) Consideramos R
X p2j X X
hel = + Vll ({r~j }) + ~i }, {r~j })
Vnl ({R
j
2m ′ i,j
j,j
X Pi2 X X
hnucl = + ~ i }) + h
Vnn ({R ~i }, {r~j })i
Vnl ({R
i
2Mi ′ i,j
i,i
donde −βh
ζ ≡ Tr e el
ζel ≡ Tr e−βhrot
rot
−βh
ζvib ≡ Tr e
vib
−βh
ζnucl ≡ Tr e nucl
CV
= C tr + C rot + C vib + C el (6.50)
N kB
donde
C tr = 3/2
rot = d T 2 d ln ζ (T ) (ver Sec. 6.2)
C rot
dT dT
vib d 2 d
C = T ln ζ vib (T ) (ver Sec. 6.1)
dT dT
d d
C el =
T2 ln ζel (T )
dT dT
Discutiremos a continuación, como casos particulares, los gases monoatómicos, diatómi-
cos (homonucleares o heteronucleares) y poliatómicos (lineales o no lineales).
ζnucl = gnucl = 2I + 1
C rot = C vib = 0
Consideremos casos diferentes, dependiendo del gap existente entre el nivel funda-
mental y el primer estado excitado.
ζel = 1 + e−βǫgap
CV 3
=
kB N 2
6.11 Calor especı́fico isocórico de gases ideales 159
3/2
T T
/ k / k
B B
C / Nk
V B
7/2
5/2
3/2
T
T T T
rot ambiente vib
Figura 6.19: Dependencia con la temperatura para el calor especı́fico a volumen cons-
tante en los gases diatómicos heteronucleares.
(0 → C ← 0) (0 → ← C 0 →) 2 × (0 ↓ C ↑ 0 ↓)
CV /N kB = 5/2
CV /N kB = 3
C p = C V + N kB (6.51)
P V γ = Cte
6.11 Calor especı́fico isocórico de gases ideales 161
Cp N kB
γ= =1+
CV CV
relación con la que se obtiene, a temperatura ambiente:
a) γ = 1 + 2/3 = 5/3 ≈ 1,67 para gases monoatómicos.
b) γ = 1 + 2/5 = 7/5 = 1,4 para gases diatómicos heteronucleares, homonucleares
y poliatómicos colineares.
c) γ = 1 + 1/3 = 4/3 ≈ 1,33 para gases poliatómicos no colineares.
β~2
X − l(l+1)
ζrot = 4 (2l + 1)e 2I
l=0,1,2
Ahora bien, en el H2 , por tratarse de un gas homonuclear, los dos átomos H son
indiscernibles y aparecen dos tipos de gas H2 :
Para-hidrógeno, cuando los espines de los dos protones se encuentran antipara-
lelos y conforman un estado singlete (I tot = 0; mI = 0; l = 0, 2, 4, . . . ).
Orto-hidrógeno, cuando los espines de los dos protones se encuentran paralelos
y conforman un estado triplete (I tot = 1; mI = ±1, 0; l = 1, 3, 4, . . . ).
La relación entre orto-hidrógeno y para-hidrógeno en el equilibrio, depende de la tem-
peratura.
En el estado para, que no está nuclearmente degenerado, la función de onda nuclear
es antisimétrica y la rotacional simétrica. En el estado orto, cuya degeneración nuclear
es igual a tres, sucede el caso inverso. En ambos casos, la función total es antisimétrica
tal y como corresponde a los fermiones (H + ).
Por lo tanto, en este caso:
β~2 β~2
X − l(l+1) X − l(l+1)
ζ= (2l + 1)e 2I +3 (2l + 1)e 2I
l par l impar
| {z } | {z }
ζ para
ζ orto
162 Estadı́stica de Maxwell-Boltzmann: Aplicaciones
N = N0 + Np
|{z} |{z}
orto para
Np 1 N0 R
= , = ,
N 1+R N 1+R
para
siendo que la reacción H2 ⇋ H2orto cumple la siguiente ley de acción de masas:
β~2
X − l(l+1)
3 (2l + 1)e 2I
N0 l impar
R= = .
Np β~2
X − l(l+1)
(2l + 1)e 2I
l par
~2
Si la temperatura rotacional es Trot ≡ , R tiene el siguiente comportamiento
IkB
asintótico (ver Fig. 6.20):
3e−Trot /T
a) T /Trot → 0 ⇒ R ∼ 3 ∼ 9 e−Trot /T
1 + ...
X X
b) T /Trot → ∞ ⇒ ∼ ∼ T /Trot ⇒ R → 3
l par l impar
Figura 6.21: Calor especı́fico rotacional a volumen constante en el estado orto (izquier-
da) y para (derecha) del H2 . Obsérvese que, en el lı́mite clásico de altas temperaturas,
Corto = Cpara = 2 × 1/2 = 1 dado que el tercer grado de libertad queda congelado.
CVrot
N0 Np R 1
= C + Cpara = C + Cpara
N kB N orto N 1 + R orto 1 + R
Esta figura corresponde al equilibrio térmico y quı́mico, pero este último es difı́cil
de realizar y tarda algunos dı́as a menos de que se utilicen catalizadores. Por lo tanto
aparecen fácilmente estados metaestables, lo que da lugar a diferentes experimentos
posibles.
1. Experimento I
Calentamos rápidamente a partir de una temperatura T ≪ Trot .
Medimos el calor especı́fico mientras sube la temperatura obteniendo, a cual-
quier temperatura T , N0 ≈ 0 y Np ≈ N ). Las medidas obtenidas para el calor
especı́fico están representadas en la Fig. 6.23, y son semejantes pero no iguales
a las obtenidas en el caso de equilibrio.
2. Experimento II
Enfriamos rápidamente a partir de una temperatura T ≈ Tamb ≫ Trot .
164 Estadı́stica de Maxwell-Boltzmann: Aplicaciones
Figura 6.23: Calor especı́fico rotacional a volumen constante obtenidos en los experi-
mentos I (izquierda) y II (derecha).
3. Experimento III
Si modificamos lentamente T , o bien utilizamos catalizador, tendremos
donde {Ai }, {A′i }representan las diversas moléculas implicadas en la reacción, y {νi },
{νj } los correspondientes coeficientes estequiométricos.
Ejemplo
2ClH + F e ⇋ F eCl2 + H2
reacción para la que se tiene que
Cl Cl ′ Cl
N0 = N1 + N 1
H H ′H
N0 = N1 + N 2
N F e = N F e + N ′F e
0 2 1
donde µi y µ′j son los potenciales quı́micos, proporciona la siguiente igualdad para T
y p fijos: X X ′
Ni dµi + N j dµ′ j = 0. (6.54)
i j
Ni Nj′
µi = kB T ln , µ′j = kB T ln ,
Zi Zj′
donde {Zi } y {Zi′ } son funciones de partición monomoleculares. Por lo tanto la expre-
sión (6.57) queda
Y Ni νi
i
Zi
Y νj′ = 1
Nj′
j
Zj′
o bien: Y Y
Niνi Ziνi
i i
Y ν′
= Y ν′
≡ f (T, V ) (6.58)
N ′j j Z′jj
j j
Ahora bien, hemos de introducir una corrección en nuestros resultados, dado que
hemos considerado en todas las funciones de partición, {Zi } y {Z ′ i }, que la energı́a
es nula para el nivel fundamental. Sin embargo no es lı́cito atribuir arbitrariamente
la energı́a nula al estado fundamental más que a un cierto tipo de moléculas, y no en
todos simultaneamente.
Denotaremos
0
ǫi ≡ energı́a fundamental de la molécula Ai
ǫ0j ≡ energı́a
P ′ fundamental
P de la moléculaA′j
0 0
∆ǫ0 ≡ j νj ǫj − i νi ǫi energı́a de activación
para hacer las siguientes sustituciones en (6.58)
( 0
Zi → Zi e−ǫi /kB T
0′ /k
Zj′ → Zj′ e−ǫj BT
Y ν′ Y ν′
N ′jj Z′ji ∆ǫ0
j j −
Y = Y e B T ≡ KN (T, V )
k (6.59)
Niνi Ziνi
i i
Zi = V fi (T )
6.12 Reacción quı́mica isoterma e isobara 167
y considerando que
pi V
Ni =
kB T
donde pi es la presión parcial, la expresión (6.59) se escribe
Y ν′ Y ′ ν ′
p′ j j ∆ǫ0 f j (T ) j
j − j
Y = Kp (T ) ≡ (kB T )∆ν e kB T Y (6.60)
pνi i [fi (T )]νi
i i
es decir, que
∆H(0) = η∆ǫ0
y por lo tanto la extrapolación de medidas ∆H(T ) vs T permite hallar experimental-
mente ∆ǫ0 .
Capı́tulo 7
7.1. Introducción
Dos partı́culas se consideran idénticas cuando coinciden todos sus parámetros
intrı́nsecos, esto es, masa en reposo, carga, spin, etc. Siempre que sea posible “percibir”
–fı́sicamente– la permutación de los estados de dos partı́culas idénticas, hablaremos de
discernibilidad entre partı́culas.
Sin embargo, si somos rigurosos, las partı́culas idénticas han de ser siempre in-
discernibles debido a la naturaleza probabilı́stica de la mecánica cuántica, puesto que
una partı́cula puede ser hallada simultáneamente en posiciones diferentes. Esto es, si
ψ(~r) y ϕ(~r) son dos estados a una partı́cula, entonces los estados a dos partı́culas
(partı́culas 1 y 2) ψ(~r1 )ϕ(~r2 ) y ψ(~r2 )ϕ(~r1 ), son iguales.
A pesar de estas consideraciones, existen al menos tres situaciones tı́picas en las
que las partı́culas pueden considerarse como discernibles:
(~r1 , p ~, ~r′ , p
p2 ) ≡ (~r, p
~1 , ~r2 , ~ ~′ ) 6= (~r1 , p ~2 ) ≡ (~r′ , p
~1 , ~r2 , p ~′ , ~r, p
~).
Figura 7.1: Potencial para el modelo de Einstein para sólidos, en el que se consideran
N osciladores independientes discernibles.
(2)
Los estados a dos partı́culas, contenidos en el espacio ξH , se definen para
partı́culas que son boltzmaniones, fermiones, o bosones según
(2)
|m1 , m2 i = ϕm1 (~r1 )ϕm2 (~r2 ) ∈ ξH (boltzmaniones)
1 (2)
= √ {ϕm1 (~r1 )ϕm2 (~r2 ) − ϕm1 (~r2 )ϕm2 (~r1 )} ∈ ξH (A) (fermiones)
2
1 (2)
= √ {ϕm1 (~r1 )ϕm2 (~r2 ) + ϕm1 (~r2 )ϕm2 (~r1 )} ∈ ξH (S) (bosones)
2
(2) (2)
ξH (S) ∩ ξH (A) = ∅ ≡ conjunto vacı́o
7.3 Segunda cuantización 171
Estados a N -partı́culas
Los estados a N partı́culas en general, también se definen separadamente para
boltzmaniones, fermiones, o bosones.
Cuando las partı́culas son boltzmaniones, los estados se definen como
N
Y
|m1 , m2 , . . . , mN i = ϕmi (~ri )
i=1
PN
donde además k=1 νk = N (νk = 0, 1, 2, . . . ) siendo νk es el número de ocupación
del estado a una particula mk .
En el caso de fermiones, según el principio de Pauli, se tiene que si existe algún
νk > 1
|m1 , m2 , . . . , mN i = 0
En general:
(N) (N) (N)
ξH (S) ⊕ ξH (A) ⊆ ξH
(N) (N)
ξH (S) ∩ ξH (A) = ∅
donde, para en la primera inecuación, la igualdad corresponde al caso de que N = 2,
y la inclusión estricta al caso contrario.
La reducción del espacio accesible para bosones y para fermiones (que es violenta
para N ≫ 1), es responsable de la alteración del juego de probabilidades que distingue
las tres estadı́sticas (MB, BE, FD).
carece de sentido atribuir estados cuánticos a partı́culas concretas pudiendo sólo hablar
de cuántas partı́culas se encuentran en uno o en otro estado.
Definimos el operador de creación de un fermión (bosón) en el estado cuántico
m como a+ m , y el operador de aniquilación como am . Verificándose que
[am , an ]η = [a+ +
m , an ]η = 0
[am , a+
n ]η = δmn
donde
+1 para bosones
[A, B]η ≡ AB − ηBA, η=
−1 para fermiones
[a+ + +
m , am ]−1 = 2(am )2 = 0
y de estas igualdades se infiere el que imposible crear o destruir dos (o más) fermiones
en el mismo estado. Ello implica que:
νk = 0, 1 ∀k (fermiones)
Caso general
√
νm + 1|ν1 , . . . , νm + 1, . . . i (bosones)
a+
m |ν1 , . . . , νm , . . . i =
(1 − νm )(−1)Nm |ν1 , . . . , νm + 1, . . . i (fermiones)
√
νm |ν1 , . . . , νm − 1, . . . i (bosones)
am |ν1 , . . . , νm , . . . i =
νm (−1)Nm |ν1 , . . . , νm − 1, . . . i (fermiones)
7.3 Segunda cuantización 173
donde Nm es la ocupación total de los estados que preceden al estado m (en el orden
convencional escogido de una vez para siempre).
m−1
X
Nm = νj
j=1
N1 = N2 = 0
N3 = 1
Por ejemplo, para |0, 1, 1, 0, 1, . . . i ⇒ N4 = N5 = 2
N6 = 3
etc
5. Interacción fonón-electrón
X ~2 k2 + X
X 1
H= ak ak + ~ωq b+
q bq + + Vk,k′ ak a+ +
k′ bk−k′ + . . .
k
2m q
2 ′ k,k
Gas ideal
El Hamiltoniano en el gas ideal se escribe
N
X X
HN ({p~i }, {~
ri }) = H1 (p~i , r~i ) + λ V (~
ri , r~j )
i=1 i,j
QN
No describiremos HN mediante i=1 ϕmi (~ri ) (o formas simetrizadas) sino con
|ν1 , . . . , νm i, donde
X 0, 1 ( fermiones)
νm = N, νm =
0, 1, 2, . . . ( bosones)
m
Primer ejemplo
Dos partı́culas en tres estados a 1-partı́cula (a,b,c).
Estados:
(2)
|νa , νb , νc i (ξF = ξH )
Base para fermiones:
{|1, 1, 0i, |1, 0, 1i, |0, 1, 1i}
Base para bosones:
{|1, 1, 0i, |1, 0, 1i, |0, 1, 1i, |2, 0, 0i, |0, 2, 0i, |0, 0, 2i}
Segundo ejemplo
Número indeterminado de partı́culas en tres estados a 1-partı́cula (a,b,c).
Estados:
max (i) 3 (fermiones)
|νa , νb , νc i, ξF = ⊕N
i=0 ξ H , Nmax =
∞ (bosones)
{|0, 0, 0i, |1, 0, 0i, |0, 1, 0i, |0, 0, 1i, |1, 1, 0i, |1, 0, 1i, |0, 1, 1i, |1, 1, 1i}
{|0, 0, 0i, |1, 0, 0i, |0, 1, 0i, |0, 0, 1i, |1, 1, 0i, |1, 0, 1i, |0, 1, 1i,
|2, 0, 0i, |0, 2, 0i, |0, 0, 2i, |1, 1, 1i, |2, 1, 0i, |1, 2, 0i,
|2, 0, 1i, |1, 0, 2i, |0, 2, 1i, |0, 1, 2i, |3, 0, 0i, |0, 3, 0i, |0, 0, 3i, etc}
7.4 Colectividad macrocanónica 175
Tercer ejemplo
Número indeterminado de partı́culas en infinitos estados a 1-partı́cula (por ejemplo,
un cuerpo negro).
Estados:
(i)
|νa , νb , νc i ξF = ⊕∞ i=0 ξH
|1, 1, 0, . . . i, |1, 0, 1, . . . i . . .
..
.
|0, 0, . . . i
|1, 0, 0, . . . i, |0, 1, 0, . . . i, |0, 0, 1, . . . i, . . .
|1, 1, 0, . . . i, |1, 0, 1, . . . i, . . .
Base para bosones: |2, 0, 0, . . . i, |0, 2, 0, . . . i, |0, 0, 2, . . . i, . . .
|3, 0, 0, . . . i, |0, 3, 0, . . . i, . . .
..
.
Un estado puro (cuántico) de un gas (ideal o real), es una combinación lineal de
los vectores de la base del espacio de Fock.
Llamando {ǫm } a los valores propios de H1 (~ p, ~r) tenemos que la energı́a total E:
X
=
νm ǫm (gas ideal)
m
|ν1 , ν2 , . . . , νm . . . i → E X
6=
νm ǫm (gas real)
m
donde X
N̂ = n̂q [ĤN , N̂ ] = 0; n̂q ≡ a+
q aq . (7.2)
q
{nq }
XY −β(ǫq −µ)n̂q
YX Y
= e = e−β(ǫq −µ)n̂q = Ξq (7.3)
{nq } q q nq q
1 En este contexto, un gas ideal no está necesariamente formado por partı́culas independien-
tes ya que entre ellas puede existir el principio de exclusión, simetrización, etc. Entenderemos
por gas ideal, ya sea clásico o cuántico, aquél cuyo Hamiltoniano no tiene términos de inter-
acción, según (7.1).
176 Estudio comparativo de las tres estadı́sticas en un gas ideal
donde {nq } representa todos los conjuntos permitidos, y nq todos los valores permitidos
para el estado q. Dicha función de partición, consistente con el hecho de que el gas
sea ideal (clásico o cuántico), para los casos particulares de Fermi–Dirac (nq = 0, 1) y
Bose–Einstein (nq = 0, 1, . . . ) es tal que
FD
ΞF
q
D
= 1 + e−β(ǫq −µ )
(7.4)
BE BE 1
ΞBE
q = 1 + e−β(ǫq −µ )
+ e−2β(ǫq −µ )
+··· = −β(ǫq −µBE )
(7.5)
1−e
Por lo tanto, el valor medio del número de partı́culas en el mismo estado de igual
vector de onda q (no de igual energı́a, en cuyo caso el valor medio podrı́a contener un
factor de degeneración), fq , en segunda cuantificación (estamos en un espacio de Fock)
es
∂ 1 ∂ ln Ξq
fq ≡ hn̂q i = ha+q aq i = − (−kB T ln Ξq )β = (7.6)
∂µ β ∂µ
ecuación que proporciona la distribución de Fermi-Dirac (FD)
1
fqF D = (7.7)
eβ(ǫq −µ) + 1
y de Bose-Einstein (BE)
1
fqBE = (7.8)
eβ(ǫq −µ) − 1
de modo que ambas, en el lı́mite clásico de altas temperaturas T ≫ se transforma en
Potencial quı́mico
Obtenido el número de partı́culas N como función de (T, µ), mediante
X
N ≡< N̂ >= fq (7.11)
q
donde
D = constante
V ≡ Ld = volumen
d = dimensión del espacio
α = 1 para fotón, fonón acústico, etc
α = 2 para partı́cula libre no relativista, magnón, etc
y se tiene entonces que
Z ∞ Z ∞
DV ǫd/α−1 <N > ǫd/α−1 d
hN i = dǫ βǫ ⇒ =D dǫ βǫ = Dh( , T, η)
0 e − η V 0 e − η α
y que el número de partı́culas es por tanto una función h que depende de d y α sólo a
través del cociente d/α.
La colectividad macrocanónica se introdujo por causa de P la indeterminación de los
{nq }, pero lo que resulta novedoso es la indeterminación de q nq .
Potencial termodinámico
X X
A(T, µ) = −kB T ln Ξ = −kB T ln Ξq = ηkB T ln 1 − ηe−β(ǫq −µ)
q q
X Z ∞
A(T, µ) = −ηkB T ln (1 + ηfq ) = −ηkB T dǫω(ǫ) ln [1 + ηf (ǫ)] (7.13)
q 0
178 Estudio comparativo de las tres estadı́sticas en un gas ideal
Tenemos que:
A = U − T S − µN = −pV pV X
⇒ = ln Ξ = ln Ξq
A = −kB T ln Ξ kB T q
Z ∞
= −η dǫω(ǫ) ln [1 − ηe−β(ǫ−µ) ]
0
y por lo tanto
Z ∞
− dǫω(ǫ) ln [1 − ηe−β(ǫ−µ) ]
pV 0
= Z ∞ (7.16)
kB T ω(ǫ)
η dǫ β(ǫ−µ)
0 e −η
d
U= pV (∀η) (7.17)
α
Dado que Z ∞
N= dǫω(ǫ)f (ǫ)
0
o bien
Z
h ∞i−1
d
dx x α ex−βµ − η
pV αkB T 0
= = Z ∞ h i−1 (7.19)
N d d
dx x α −1 ex−βµ − η
0
donde η = 0, ±1.
Entropı́a
1
S = (U − A − µN ) =
T
1 X
= {ǫq fq + ηkB T ln (1 + ηfq ) − µfq }
T q
X
= kB {−fq ln fq + η(1 + ηfq ) ln (1 + µfq )}
q
Z ∞
= kB dǫω(ǫ) {−f (ǫ) ln f (ǫ) + η[1 + ηf (ǫ)] ln [1 + µf (ǫ)]} (7.20)
0
180 Estudio comparativo de las tres estadı́sticas en un gas ideal
µBE ≤ 0 ∀T ≥ 0 (7.21)
de lo que se infiere que, si µ/kB T ≪ 0 (lo que normalmente acontece a alta tempera-
tura), se cumple
fqBE ∼ fqF D ∼ e−β(ǫq −µ) ≡ fqM B (7.22)
Podemos unificar las tres estadı́sticas mediante la siguiente expresión
+1, BE
1
fq = β(ǫ −µ) , con η = −1, FD
e q −η
0, MB
Tenemos que X X
N= fqM B = eβµ e−βǫq
q q
y por lo tanto
N e−βǫq
fqM B = eβµ e−βǫq = X −βǫ
q
e
q
fqM B e−βǫq
pq ≡ = X −βǫ (7.23)
N e q
fq 1 e−βǫq
pq ≡ X = 6= X
fq β(ǫ −µ)
e q −η
X 1
−η e−βǫq
q
q
eβ(ǫq −µ) q
Obsérvese, en la Fig. 7.2, la correlación entre las partı́culas según el tipo de es-
tadı́stica que las represente:
7.4 Colectividad macrocanónica 181
MB
f( ) f
1
BE
T decreciente
MB
1/2
FD
T=0
0 - (T)
- (T)
1 FD 1
1 tanh
BE
f f
2 2
T decreciente
1/2 T decreciente
T=0
T=0
2k T - (T)
- (T) B
X Z ∞
N= fq = dǫω(ǫ)f (ǫ)
q 0← nivel fundamental
donde ω(ǫ) es la densidad de estados que depende del sistema de dimensión d, pero no
de la naturaleza fermiónica–bosónica de las partı́culas.
182 Estudio comparativo de las tres estadı́sticas en un gas ideal
Z ∞ Z ∞ Z ∞
dǫω(ǫ) dǫω(ǫ) dǫω(ǫ)
= =
0 eβ(ǫ−µF D ) +1 0 eβ(ǫ−µM B )
eβ(ǫ−µBE ) − 1 0
Z ∞ Z ∞ Z ∞
FD dǫω(ǫ) βµM B dǫω(ǫ) βµBE dǫω(ǫ)
⇒ eβµ F D
= e βǫ
= e βǫ − eβµBE
0 eβǫ + eβµ 0 e 0 e
Z ∞ Z ∞ Z ∞
FD dǫω(ǫ) MB dǫω(ǫ) BE dǫω(ǫ)
⇒ eβµ ≥ eβµ ≥ eβµ
0 eβǫ 0 eβǫ 0 eβǫ
lo que implica, dado que la exponencial es una función monótona creciente, que pa-
ra cualquier sistema, independientemente de la densidad de estados que tenga, se
cumple que
µF D (T ) ≥ µM B (T ) ≥ µBE (T ) ∀T ≥ 0, ∀ω(ǫ) (7.24)
Por esto es por lo que los fermiones se comportan como si fueran partı́culas discernibles
en la presencia de un potencial repulsivo, y los bosones como si estuvieran en la
presencia de un potencial atractivo (en el que podrı́a llegar a producirse la condensación
de Bose–Einstein).
Potencial quı́mico a T = 0
El comportamiento observado para f (ǫ) en las distintas estadı́sticas, junto con
T = 0, implica ∀η:
µ(T = 0) ≥ 0 ∀η (7.25)
µF D (T = 0) > 0 (7.27)
7.5. Maxwell–Boltzmann
Calculemos el potencial quı́mico µM B .
Z ∞
e−βǫ ω(ǫ)dǫ
MB N
eβµ = X ⇒ µM B = −kB T ln 0
e−βǫq
N
q
El sistema es una masa libre puntual no relativista sin spin, en una caja hipercúbica
de volumen Ld . Sus energı́as son
d
X h2 h2
ǫ{ni } = E0 n2i , con E0 ≡ =
i=1
2mL2 2mV 2/d
d
d π d/2 ǫ 2 −1
ω(ǫ) = (7.28)
2 Γ d2 + 1 E0d/2
µM B d T T
=− ln ∗ (7.30)
µ∗ 2 T∗ T
donde:
n2/d h2
T∗ ≡ , µ∗ ≡ kB T ∗ .
2πmkB γ(d)
MB
d/2e
1/e 1
T
Introduciendo
" #2/d 2/d
d
∗ h2 n2/d 2Γ 2
+1 h2 n2/d d
T ≡ = Γ
2πmkB d 2πmkB 2
µ∗ ≡ kB T ∗
t ≡ T /T ∗
µF
r
D
≡ µF D /µ∗
podemos reescribir la ecuación (7.31) como
Z ∞
1 dx xd/2−1
= FD
(7.32)
td/2 0 ex−µr /t + 1
que, para d = 2:
Z ∞ Z ∞
1 dx dxe−x 0
= ln e−µ/t + e−x = ln 1 + eµ/t
= x−µ/t
= −µ/t −x
t 0 e +1 0 e +e ∞
(n fijo)
0 3 6 9 d
FD
1/ t
1 te
1
1/ln2
0
t ln t
FD
(0)
FD
r (0)
0 10 20 d 0 5 10 15 d
π 2 2 d ln ω(ǫ)
µF D (T ) ∼ µF D (0) − kB T2 (7.36)
6 dǫ ǫ=µ(0)
dω(ǫ) d2 µ(T )
R 0 ⇒ ⋚0 (7.37)
dǫ ǫ=µ(0) dT 2 T =0
Bose–Einstein
Obtenemos, análogamente a la ecuación (7.32) que
Z ∞
1 dx xd/2−1
= BE
td/2 0 ex−µr /t − 1
que en el caso d = 2 es
Z ∞
1 dx
= BE
t 0 ex−µr /t − 1
Por lo tanto, en la estadı́stica BE, el potencial quı́mico es
µBE
r = t ln 1 − e−1/t (7.38)
BE
T
1/ t
te
t ln t
Régimen clásico
Podemos unificar las tres estadı́sticas en una única expresión dada por
Z ∞
1 dxxd/2−1
=
td/2 0 ex−µ/t + ν
De modo que las tres coinciden si (µ/t) → −∞, y por lo tanto cuando t → ∞, esto es,
a una temperatura T ≫ T ∗ . Usando la definición de T ∗ y suponiendo d ≈ 1 obtenemos
el siguiente criterio para que coincidan:
kB T m
≫1 (7.39)
h2 n2/d
h
que introduciendo además λ̄ ≡ √ , es análogo a
mkB T
nλ̄d ≪ 1 (7.40)
Ejemplos
1. Gas molecular (He, O2 ) en condiciones normales (0 o C, 1 atm).
p 105
n= ≈ ≈ 2 × 1025 /m3
kB T 1,4 × 10−23 × 300
6 × 10−23
λ̄ ≈ p ≈ 10−9 m
10 × 10−27 × 1,4 × 10−23 × 300
por lo tanto nλ̄3 ≈ 10−2 y estamos en régimen clásico.
7.6 Fermi–Dirac y Bose–Einstein 189
n ≈ 2 × 1027 /m3
λ̄ ≈ 10−8 m
por lo tanto nλ̄3 ≈ 103 y estamos en régimen fuertemente cuántico
3. Metal a T = 300o K (masa electrónica)
1 1
n≈ 3 ≈ 1028
(5Å ) m3
λ̄ ≈ 10−7 m
por lo tanto nλ̄3 ≈ 106 y estamos en régimen fuertemente cuántico.
4. Semiconductor a T = 300o K (masa electrónica)
1
n ≈ 1022
m3
λ̄ ≈ 10−7 m
por lo tanto nλ̄3 ≈ 10 y estamos en régimen levemente cuántico.
5. Estrellas de neutrones (masa electrónica)
1
n ≈ 1045 ; T = 1010o K (≈ 1 M eV )
m3
λ̄ ≈ 5 × 10−14 m
por lo tanto nλ̄3 ≈ 105 y estamos en régimen fuertemente cuántico relativista.
6. Enanas blancas (masa protónica)
1
n ≈ 1039 ; T = 107 o K
m3
λ̄ ≈ 10−12 m
por lo tanto nλ̄3 ≈ 103 y estamos en régimen fuertemente cuántico relativista.
190 Estudio comparativo de las tres estadı́sticas en un gas ideal
Capı́tulo 8
Estadı́stica de Fermi–Dirac:
Aplicaciones
µ∗ = kB T ∗
Calor especı́fico
Calculemos la energı́a interna por partı́cula, a partir de la cual obtendremos el
comportamiento asintótico del calor especı́fico para diferentes rangos de temperatura.
Z ∞
dǫ ǫd/2
U e β(ǫ−µ) +1
= Z0 ∞
N dǫ ǫd/2−1
0 eβ(ǫ−µ) + 1
a) Si T ≫ T ∗ , la energia por partı́cula se comporta asintóticamente como
Z ∞ Z ∞
dǫ ǫd/2 e−βǫ dx xd/2 e−x
U 0 1 0 d
∼ Z ∞ = Z ∞ = kB T
N d/2−1 −βǫ β d/2−1 −x 2
dǫ ǫ e dx x e
0 0
Es decir,
U (0) d
= µ(0) (8.2)
N d+2
donde µ(0) es el nivel de Fermi. En (8.2) se observa que la relevancia del principio
de Pauli se hace sentir para valores de la dimensión d mayores (ver Fig. 8.1).
U(0) / N (0)
3/5
d
1 2 3
Figura 8.1: Influencia de la dimensión d sobre la energı́a reducida por partı́cula, para
un gas de electrones libres no relativistas.
π 2 kB
2
ω(µ(0))
CV ∼ T ∝T (T ≪ T ∗ ) (8.3)
3
Por lo tanto, existe una relación lineal entre CV y T independientemente de
ω(ǫ), para cualquier gas ideal de fermiones (∀d) siempre que ω(µ(0)) 6= 0. Esto
se satisface siempre, salvo en los semiconductores, en los que CV sigue una
dependencia tipo función de Cauchy (∼ e−Cte/T ).
En la Fig. 8.2 puede observarse la dependencia de CV con T , y en la Tabla 8.1 un
resumen de los resultados obtenidos para cada estadı́stica´.
8.2 Susceptibilidad magnética de un conductor metálico 193
Figura 8.2: Dependencia del calor especı́fico a volumen constante con la temperatura,
para una caja metálica que encierra un gas de electrones libres no relativistas. Para
los metales habituales, T ∗ ≈ 104 o K y µ∗ ≈ 1 ev.
Energı́a
No partic. No partic. ef. U CV
por partı́c
MB d d d
N N k T
2 B
N kB T N kB
(T ≫ T ∗ ) 2 2
FD 2
N ≈ N TT∗ ≈ d2 kB T ≈ d2 N kB T TT ∗ ≈ dN kB TT∗
(T ≪ T ∗ )
Cuadro 8.1: Estadı́sticas asociadas a cada rango de temperatura, junto con la energı́a
y calor especı́fico asociados.
~2 k2 1
B = 0 ⇒ ǫKS = (s = ± )
2m 2
6 0, o más concretamente B > 0 (por convenio), se tiene
Si B =
~2 k2
B > 0 ⇒ ǫKS = + 2sµB B
2m
donde el signo ha cambiado por tratarse de electrones, y µB es el magnetón de Bohr.
Podemos por lo tanto volver a la situación en la que B = 0, es decir
~2 k2
ǫKS − 2sµB B =
2m
Según el momento magnético sea paralelo o antiparalelo al campo, denotaremos
↑ si el momento es paralelo a B (s = −1/2)
↓ si el momento es anti–paralelo a B (s = 1/2)
Figura 8.4: ω(ǫ), ω↑ (ǫ), ω↓ (ǫ) para un conductor metálico, en la presencia de un campo
magnético B (d = 2).
y por lo tanto:
a) Si µB B < ǫF , ello implica que
Z µb B Z ǫF (0)
N
N= dǫ D + dǫ 2D = 2DǫF (0) ⇒ ǫF (0) =
−µb B µb B 2D
8.2 Susceptibilidad magnética de un conductor metálico 195
donde hemos introducido el factor 2 debido al spin. De la Sec. 2.3.7 se tiene que
2πL3 (2m)3/2
G≡
h3
y se obtienen ahora las dependencias que observamos en las Fig. 8.8 y 8.9.
y por lo tanto
Z µB B p Z ǫF (0) hp p i
N = dǫ G ǫ + µB B + dǫ G ǫ + µB B + ǫ − µB B
−µB B µB B
2G n o
= (ǫF (0) + µB B)3/2 + (ǫF (0) − µB B)3/2
3
8.2 Susceptibilidad magnética de un conductor metálico 197
lo que implica
ǫF (T = 0; B = 0) = (3N/4G)2/3
√ √
dǫF ǫF (0)−µB B− ǫF (0)+µB B
dB
(T = 0) = µ B √ √ ≤0
ǫF (0)−µB B+ ǫF (0)+µB B
B → 0 3N 2/3
− CteB 2
ǫF (T = 0)
∼ 4G
En este caso, tenemos la dependencia observada en Fig. 8.11 para temperatura nula
T = 0. Si despreciamos la dependencia de ǫF con B tendrı́amos, para µB B < ǫF (0),
la dependencia representada en Fig. 8.12. Pero se tiene que que el área ganada menos
k k
por lo tanto, la probabilidad del estado s es
P −β(ǫk −µ)
ns ns e2βsµB B e e2βsµB B
ps = = P = P 2βsµ B kP −β(ǫ −µ) =
N n
ks ks se
B
ke
k 2 cosh βµB B
por lo tanto
µB N < S >
M= = µB n tanh βµB B
V
donde n ≡ N/V . Por lo tanto:
∂M µ2 n
χT ≡ lı́m = B (8.4)
B→0 ∂B T kB T
por lo tanto X
N= ns = eβµ 2 cosh βµB B
s
por lo tanto
µB B
µ = −kB T ln 2 cosh (8.5)
kB T
µB 2µ2B
∼ ω(µ(0, B))2µB B ∼ ω(µ(0, 0))B
V V
B→0
2µ2B
χT (T = 0, B = 0) = ω(µ(0, 0)) (8.6)
V
200 Estadı́stica de Fermi–Dirac: Aplicaciones
χPauli
T (T ) = χBrillouin
T (T ) × fracción de electrones efectivos
Cte T Cte
≈ × ∗ = ∗ = Cte
T T T
se tiene que
π 2 ω(µ(0, B))
µ(T, B) − µ(0, B) ≈ −
6β 2 ω ′ (µ(0, B))
y sustituyendo esta relación en (8.7) obtenemos
Z ( )
µ(0,B)−ǫs 2
ω′
π2
ns ∼ dǫ ω(ǫ) + − ω ′′ ǫs
0 6β 2
ω
ǫ=µ(0,B)
Z µ(0,B)−ǫs 2
π2 d ln ω
= dǫ ω(ǫ) − 2 ω ǫs
0 6β dǫ2 ǫ=µ(0,B)
8.2 Susceptibilidad magnética de un conductor metálico 201
χT ∼ Cte + CteT 2
siempre que
d2 ln ω
6= 0
dǫ2 µ(0,0)
µ2B n χ0
χT (T ) ∼ = , ∀ω(ǫ) (T ≫ T ∗ ) (8.10)
kB T (T /T ∗ )
µ2 n
donde χ0 ≡ kBBT ∗ . Si representamos los resultados obtenidos para χT (T ), en
la Fig. 8.15 observamos que se considera el lı́mite del paramagnetismo de Pauli
en el que d → ∞, se obtiene el paramagnetismo de Brillouin. Esto es en cierto
modo paradógico, ya que para d → ∞ el principio de exclusión es muy relevante.
La explicación está en el hecho de que para d → ∞, también ω(ǫ) crece muy
rápidamente (fijando ǫ), y de este modo aparecen muchos estados disponibles.
el potencial quı́mico
h2 n
µF = ≈ 14 × 10−19 ≈ 8,8 eV
4πm
y la temperatura de Curie
µF
T∗ ≡ ≈ 100000 o K,
kB
√
4πV
h3
(2mv )3/2 −ǫ si ǫ ≤ 0
ωv (ǫ) =
0 si ǫ ≥ 0
donde mc ≈ mv ≡ m, es la masa electrónica. Esta aproximación es buena para bajas
temperaturas.
ǫG 3 mv
µ(T ) ∼ + kB T ln (8.14)
2 4 mc
puede relacionarse con la propiedad (7.37) de la Sec. 7.6. Es decir, que en la medida en
la que podamos asemejar las dos representaciones de la Fig. 8.19, también podremos
aplicar la ecuación (7.37) de la Sec. 7.6.
8.3 Calor especı́fico de semiconductores intrı́nsecos 205
Población vs. T
Z ∞ 3/2 Z ∞
ωc (ǫ) 2mc √
Nc = dǫβ(ǫ−µ)
≈ e βµ
4πV 2
dǫ ǫ − ǫG e−βǫ
ǫG e −1 h ǫG
3/2 Z ∞
2mc √ ′
= eβ(µ−ǫG ) 4πV dǫ′ ǫ′ e−βǫ
h2 0
por lo tanto
3/2
Nc 2πmc
nc ≡ = 2eβ(µ−ǫG ) (8.15)
V βh2
y haciendo uso de la ecuación (8.14), eliminamos µ, y obtenemos la densidad de elec-
trones de conducción (ver Fig. 8.20):
√
2π mc mv kB T 3/2 −ǫG /2kB T
nc ∼ 2 e (kB T ≪ ǫG ) (8.16)
h2
∆U ≡ U − U0 = Uc + Uv − U0 = Uc + ∆Uv
Z ∞ Z ∞
ǫω(ǫ) 4πV √
Uc = dǫβ(ǫ−µ) + 1
∼ 3
(2m c ) 3/2
dǫ ǫ ǫ − ǫG e−β(ǫ−µ)
ǫG e h ǫG
Z ∞ √ −βǫ′
4πV 3/2 β(µ−ǫG ) ′ ′
= (2m) e dǫ (ǫ + µ) ǫ′ e
h3 0
3/2
2πmc kB T (µ−ǫG )/kB T 3
= 2 V e ǫ G + k B T
h2 2
Este resultado puede interpretarse, según se muestra en la Fig. 8.21, de manera que
la energı́a necesaria para saltar a la banda de conducción es la suma de una doble
contribución: el gap entre ambas bandas, y la contribución clásica.
8.3 Calor especı́fico de semiconductores intrı́nsecos 207
Z 0 Z 0
ǫ ωv (ǫ)
∆Uv = Uv − U0 = dǫ − dǫ ǫ ωv (ǫ)
−∞ eβ(ǫ−µ) + 1 −∞
Z 0
ǫ ωv (ǫ)
= dǫ
−β(ǫ−µ) + 1
−∞ e
3/2 Z 0
2mv √
≈ −4πV dǫ ǫ −ǫeβ(ǫ−µ)
h2 −∞
3/2 Z ∞
2mv −βµ
√ ′
= 4πV e dǫ′ ǫ′ ǫ′ e−βǫ
h2 0
∆Uv 3
= e−βǫG nc (T ) kB T (8.20)
V 2
Calor especı́fico
∂U ∂∆U dNc (T ) 3 3
CV = = ≈ ǫG + k B T + Nc (T ) kB
∂T V ∂T V dT 2 2
que haciendo uso de (8.16) y despreciando todos los términos salvo el dominante
conduce a
√
N (2π)3/2 (mc mv )3/4 kB ǫ2G e−ǫG /kB T
CV ≈ (8.22)
h3 T 1/2
cuya dependencia con la temperatura viene representada en la Fig. 8.23.
208 Estadı́stica de Fermi–Dirac: Aplicaciones
C /N
V
3k /2
B
G
k BT
e
T
punto de inflexión
T
T*
Estadı́stica de
Bose–Einstein: Aplicaciones
(−µ/kB T ) crece con T , y (−µ) crece con T . Sabiendo que µ(T ) ≤ 0 (ver 7.4), con-
cluı́mos que µ(T ) ≤ 0 es monótono decreciente. Si existe Tc tal que µ(Tc ) = 0, entonces
T ≤ Tc ⇒ µ(T ) = 0
T & Tc ⇒ µ(T ) ≈ 0
Temperatura crı́tica Tc
Haciendo uso del desarrollo asintótico, en el lı́mite βµ → 0 se tiene la aproximación
Z ∞ √ √
x π p
dx x−βµ
∼ (2,61 − 3,54 −βµ)
0 e −1 2
y en (9.1) obtenemos:
3/2
2πmkB Tc
N =V 2,61
h2
210 Estadı́stica de Bose–Einstein: Aplicaciones
por lo tanto,
h2 n2/3
Tc = (9.2)
(2,61)2/3 2πmkB
es la temperatura crı́tica es que define la transición entre dos fases.
a) Si T > Tc el sistema está en una fase desordenada o normal.
b) Si T < Tc está en una fase ordenada tipo superfluido, superconductor, etc.
Analicemos la fase ordenada (T < Tc ), para la que µ = 0. Por lo tanto, si N0 es el
número de bosones en el estado fundamental, tenemos que
Z ∞
X 1 ω(ǫ)dǫ
N = N0 + = N0 +
eβǫi − 1 0 e βǫ − 1
k6=0
3/2 3/2
2πmkB T T
= N0 + V × 2,61 = N 0 + N
h2 Tc
De este modo obtenemos que el número de bosones relativos en el estado fundamental
define un parámetro de orden (ver Fig. 9.1) y es
3/2
N0 T
=1− (9.3)
N Tc
N /N
0
1
T/T
c
Z ω 3/2 Z ∞
ǫω(ǫ) 2m ǫ3/2
U = dǫ = 2πV dǫ
0 eβǫ − 1 h2 0 eβǫ − 1
3/2 Z ∞ 3/2
2m x
= 2πV (kB T )5/2 dx x
h2 e −1
|0 {z }
√
3 π×1,34
4
T 5/2
U = 0,762 3/2
N kB (9.4)
Tc
y para el calor especı́fico:
3/2
∂U T 3
CV = = 1,27 N k B (9.5)
∂T V Tc 2
Potencial quı́mico
La ecuación (9.1), puede reescribirse (∆T ≡ T − Tc ) según
3/2 √ r
2mkB 3/2 π µ
N = 2πV (T c + ∆T ) 2,61 − 3,54 −
h2 2 kB T
3/2 √ r
2mkB Tc 3 ∆T π × 2,61 3,54 µ
∼ 2πV 1 + 1 − −
h2 2 Tc 2 2,61 kB T c
3/2 r
2πmkB Tc 3 ∆T 3,54 µ
∼ V 2,61 1 + − −
h2 2 Tc 2,61 kB T c
212 Estadı́stica de Bose–Einstein: Aplicaciones
Figura 9.5: Calor especı́fico experimental para He4 . Obsérvese la divergencia lo-
garı́tmica que denota una transición de segundo orden.
donde
[b~q , b+
q ′ ] = δ~
~ q′
q~
La energı́a interna es
Z
X 1 V ~ω(~q)
U= ~ω~q β~ωq
= qd
d~ (V ≡ Ld )
q
~
e ~ −1 (2π)d eβ~ωq~ − 1
y por lo tanto
Z
V ∂ ~ω(~ q)
CV = qd
d~ (9.7)
(2π)d ∂T eβ~ω(~q) − 1
tenemos que
2π 1/2 [Γ (d/2 + 1)]1/d 1
qc = ≈ (si d ≈ 1) (9.9)
a a
Z
V~ ∂ Ωq d−1 Dq α dq
CV =
(2π)d ∂T eβ~Dqα − 1
π d/2
donde Ω = Γ(d/2+1)
. Por lo tanto:
d+α Z ~Dqcα
V ~dπ d/2 D ∂ kB T α kB T dxx
d/α
CV =
(2π)d Γ (d/2 + 1) α ∂T ~D 0 ex − 1
~ωD
ωD ≡ Dqcα TD ≡
kb
Podemos reescribir CV , usando (9.9) e introduciendo N , como
( d+α Z TD )
d ∂ T α T xd/α
CV = N kB T D dx x (9.10)
α ∂T TD 0 e −1
a) T ≫ TD
( d +1 Z )
TD /T
d ∂ T α xd/α
CV ∼ N kB T D dx
α ∂T TD 0 x
( d +1 d/α )
d ∂ T α α TD
= N kB T D = N kB
α ∂T TD d T
b) T ≪ TD
( d +1 Z ∞ )
d ∂ T α xd/α
CV ∼ N kB T D dx x
α ∂T TD 0 e −1
Z ∞ d
d d xd/α T α
= N kB +1 dx x ∝ T d/α
α α 0 e − 1 TD
9.3 Fonones acústicos (modelo de Debye) 215
Temperatura de Debye
Hagamos una estimación de TD (α = 1). Si D es la velocidad del sonido en el
cristal,
TD ≈ 5 × 103 m/s
1 1
qc ≈ =
a 3 × 10−10 m
~Dqc
TD ≈ ≈ 100o K
kB
En el caso de los magnones (d = 3, α = 2) proporciona
CV ∝ T 3/2 si T → 0
π d/2 V d
ω(ǫ) = (d − 1) d
ǫd−1
Γ 2
+ 1 (hc)d
y por lo tanto la densidad de estados ω ∗ (ν) en el espacio de las frecuencias está dada
por
1 ∗ π d/2 (d − 1)dhν d
µ(ν) = ω (ν)n(ν)~ν = d
(9.11)
V Γ 2
+ 1 cd (ehν/kB T − 1)
Caso d = 3
En este caso tenemos la célebre ley de la radiación de Plank
8πhν 3
µ(ν) = (9.12)
c3 (ehν/kB T − 1)
3 h k BT
e
Figura 9.9: Ley de la radiación de Plank para el cuerpo negro. Obsérvese que para
ν ≪ el comportamiento asintótico sigue la ley de Raleigh-Jeans, y para ν ≫ sigue la
ley de Wien.
hν ∗ hc
T = 2,82kB
= 2,82kB λ∗
⇒ T ≈ 8000K
λ∗ = luz visible ≈ 6000Å
que es la temperatura de la capa externa del sol.
Raleigh-jeans es el lı́mite clásico en el cual
1
µ(ν) = no clásico de grados de libertad × kB T ∝ ν 2 T
| {z } 2
∝ω ∗ (ν)∝ν 2
c = 299792458m s2 (9.13)
h = 6, 62606896(33) × 10−34 J s (9.14)
−11 3 −1 −2
G = (6, 693 ± 0, 048) × 10 m kg s (9.15)
kB = 1, 3806504 × 10−23 J o K−1 (9.16)
cα hβ Gγ kB δ
1 e2
=
137 ~c
De este modo, todas las unidades patrón del sistema MKSA, esto es, metro
(longitud), kilo (masa), segundo (tiempo) y amperio (corriente), pueden todas
ellas ser expresadas en términos de (9.13-9.16).
Bibliografı́a