0% found this document useful (0 votes)
34 views246 pages

MecEst

This document provides lecture notes for a graduate course on statistical mechanics. It begins with an introduction to ensemble theory and classical and quantum ensembles. It then covers equilibrium ensembles and their connection to thermodynamics. Subsequent sections discuss ideal systems using Maxwell-Boltzmann, Bose, and Fermi statistics. Later sections apply these concepts to specific systems and phenomena. Approximation methods like the virial expansion and perturbation theory are also introduced. The document contains extensive references and is intended to supplement textbooks on statistical mechanics rather than replace them.

Uploaded by

Lane Lopes
Copyright
© © All Rights Reserved
We take content rights seriously. If you suspect this is your content, claim it here.
Available Formats
Download as PDF, TXT or read online on Scribd
0% found this document useful (0 votes)
34 views246 pages

MecEst

This document provides lecture notes for a graduate course on statistical mechanics. It begins with an introduction to ensemble theory and classical and quantum ensembles. It then covers equilibrium ensembles and their connection to thermodynamics. Subsequent sections discuss ideal systems using Maxwell-Boltzmann, Bose, and Fermi statistics. Later sections apply these concepts to specific systems and phenomena. Approximation methods like the virial expansion and perturbation theory are also introduced. The document contains extensive references and is intended to supplement textbooks on statistical mechanics rather than replace them.

Uploaded by

Lane Lopes
Copyright
© © All Rights Reserved
We take content rights seriously. If you suspect this is your content, claim it here.
Available Formats
Download as PDF, TXT or read online on Scribd
You are on page 1/ 246

Universidade Federal do Rio de Janeiro

Instituto de Fı́sica

Statistical Mechanics
Lecture Notes – Graduate Course

[Image credit: https://inspirehep.net/record/838172/plots ]

Raimundo Rocha dos Santos

Monday 11th May, 2020 – 14:47


2
Preface

These Lecture Notes (LN) result from teaching this course several times since 1984, in
PUC/Rio, UFF, and UFRJ. Over the years I have benefitted enormously from discussions
with Sergio LA de Queiroz on choice of topics and depth of presentations.
The students are strongly advised not to use these LN as a replacement for studying
through books, since these provide deeper analyses and are far more complete.

Recommended literature:

• B = Radu Balescu, Equilibrium and Non-Equilibrium Statistical Mechanics, (Wi-


ley, 1975).

• H = Kerson Huang, Statistical Mechanics, (Wiley, 2nd Edition, 2002) – ISBN:


978-0471815181

• Kp = Mehran Kardar, Statistical Physics of Particles, (Cambridge, 2007) – ISBN:


978-0521873420

• Kf = Mehran Kardar, Statistical Physics of Fields, (Cambridge, 2007) – ISBN:


978-0521873413

• Ko = SE Koonin, Computational Physics, (Perseus, 1996) – ISBN: 978-9780201388

• K = Ryogo Kubo, H Ichimura, T Usui, and N Hashitsume, Statistical Mechanics,


(North Holland, 2nd Edition, 1990) – ISBN: 978-0444871039

• L = LD Landau and EM Lifshitz, Statistical Physics, (Elsevier, 3rd Edition, 1980)


– ISBN: 978-0750633727

• P = RK Pathria, Statistical Mechanics, (Pergamon, 1972) – ISBN: 978-1483186887

• PB3 = RK Pathria and PD Beale, Statistical Mechanics, (Academic, 3rd edition,


2011) – ISBN: 978-0123821898

• PB = Michael Plischke and Birger Bergersen, Equilibrium Statistical Physics,


(World Scientific, 2nd Edition, 2006) – ISBN: 978-9812560483

3
4

• R = Linda E Reichl, A Modern Course in Statistical Physics, (Wiley, 4th Edition,


2016) – ISBN: 978-3527690480

• Rf = F Reif, Fundamentals of Statistical and Thermal Physics, (Waveland, 2009)


– ISBN: 978-1478610052

• Sa = Silvio RA Salinas, Introdução à Fı́sica Estatı́stica, (EdUSP, 1997) – ISBN:


978-8531403866

• S = H Eugene Stanley, Introduction to phase transitions and critical phenomena,


(Oxford, 1971)
Contents

1 Elements of Ensemble Theory 7


1.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.2 Macrostates and microstates . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.3 Classical Ensembles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.4 Quantum Ensembles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.5 The Approach to Equilibrium . . . . . . . . . . . . . . . . . . . . . . . . . 15
1.6 Exercises . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17

2 Equilibrium Ensembles and Thermodynamics 19


2.1 Equilibrium Solutions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
2.2 The Microcanonical Ensemble . . . . . . . . . . . . . . . . . . . . . . . . . 20
2.3 Connection with Thermodynamics . . . . . . . . . . . . . . . . . . . . . . 22
2.4 The Canonical Ensemble . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
2.5 Thermodynamics in the Canonical Ensemble . . . . . . . . . . . . . . . . 30
2.6 Thermodynamic Potentials . . . . . . . . . . . . . . . . . . . . . . . . . . 34
2.7 Response Functions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
2.8 Stability of the Equilibrium State . . . . . . . . . . . . . . . . . . . . . . . 41
2.8.1 Conditions for Local Equilibrium in a PVT System . . . . . . . . . 41
2.8.2 Conditions for Local Stability . . . . . . . . . . . . . . . . . . . . . 42
2.8.3 Consequences of Stability . . . . . . . . . . . . . . . . . . . . . . . 44
2.9 The Grand-Canonical Ensemble . . . . . . . . . . . . . . . . . . . . . . . . 46
2.10 Equivalence between Equilibrium Ensembles . . . . . . . . . . . . . . . . . 49
2.11 Exercises . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52

3 Ideal Systems in Maxwell-Boltzmann Statistics 59


3.1 Definition of Ideal Systems . . . . . . . . . . . . . . . . . . . . . . . . . . 59
3.2 The Boltzmann Gas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60
3.3 Paramagnetism of localised spins. . . . . . . . . . . . . . . . . . . . . . . . 61
3.4 Molecular Gas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
3.4.1 Rotation of Diatomic Molecules . . . . . . . . . . . . . . . . . . . . 71
3.4.2 Molecular Vibration . . . . . . . . . . . . . . . . . . . . . . . . . . 74
3.5 Exercises . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75

5
6 CONTENTS

4 Ideal Systems in Bose and Fermi Statistics 77


4.1 Indistinguishability . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
4.2 Ideal Systems of Bosons or Fermions . . . . . . . . . . . . . . . . . . . . . 79
4.3 Bose-Einstein and Fermi-Dirac distributions . . . . . . . . . . . . . . . . . 85
4.4 Degenerate Fermi gas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85
4.5 Degenerate Bose gas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90
4.6 Exercises . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99

5 Applications of Ideal Quantum Systems 101


5.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101
5.2 Density of States for Fermionic Systems . . . . . . . . . . . . . . . . . . . 101
5.3 Magnetic Behaviour of an Ideal Fermi Gas . . . . . . . . . . . . . . . . . . 105
5.3.1 Pauli Paramagnetism . . . . . . . . . . . . . . . . . . . . . . . . . 105
5.3.2 Landau Diamagnetism . . . . . . . . . . . . . . . . . . . . . . . . . 108
5.3.3 The Quantum Hall Effect . . . . . . . . . . . . . . . . . . . . . . . 112
5.4 Thermodynamics of Blackbody Radiation . . . . . . . . . . . . . . . . . . 117
5.5 Phonons . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 120
5.6 Exercises . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 124

6 Approximation Methods 129


6.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 129
6.2 The Virial Expansion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 129
6.2.1 Deviation of gases from the ideal state . . . . . . . . . . . . . . . . 129
6.2.2 The virial expansion . . . . . . . . . . . . . . . . . . . . . . . . . . 133
6.2.3 The Van der Waals Equation . . . . . . . . . . . . . . . . . . . . . 135
6.3 Dense Fluids: Perturbation Theory . . . . . . . . . . . . . . . . . . . . . . 137
6.4 Monte Carlo Simulations . . . . . . . . . . . . . . . . . . . . . . . . . . . . 138
6.4.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 138
6.4.2 Exchange interaction . . . . . . . . . . . . . . . . . . . . . . . . . . 139
6.4.3 The Basic Strategy . . . . . . . . . . . . . . . . . . . . . . . . . . . 140
6.4.4 The Metropolis Algorithm . . . . . . . . . . . . . . . . . . . . . . . 141
6.4.5 Thermalization and Averaging . . . . . . . . . . . . . . . . . . . . 143
6.4.6 An Example: The 2D Ising Model . . . . . . . . . . . . . . . . . . 144
6.5 Exercises . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 147

7 Phase Transitions 149


7.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 149
7.2 Thermodynamics of Phase Transitions . . . . . . . . . . . . . . . . . . . . 150
7.2.1 Phase Coexistence: Gibbs Phase Rule . . . . . . . . . . . . . . . . 150
7.2.2 Classification of Phase Transitions . . . . . . . . . . . . . . . . . . 151
7.2.3 Pure Fluid Systems . . . . . . . . . . . . . . . . . . . . . . . . . . 153
7.2.4 Magnetic Systems . . . . . . . . . . . . . . . . . . . . . . . . . . . 156
7.2.5 Percolation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 157
7.3 Mean-Field Theories . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 159
CONTENTS 7

7.3.1 The van der Waals equation . . . . . . . . . . . . . . . . . . . . . . 159


7.3.2 Weiss Theory . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 164
7.3.3 Landau Theory . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 167
7.3.4 The Bethe Lattice . . . . . . . . . . . . . . . . . . . . . . . . . . . 169
7.4 Exact Solution for the One-dimensional Ising Model . . . . . . . . . . . . 172
7.5 Critique of Mean-Field Theories . . . . . . . . . . . . . . . . . . . . . . . . 176
7.6 Universality and Scaling . . . . . . . . . . . . . . . . . . . . . . . . . . . . 179
7.7 The Position-Space Renormalization Group . . . . . . . . . . . . . . . . . 184
7.8 Examples of PSRG . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 189
7.9 The Momentum-Space Renormalization Group . . . . . . . . . . . . . . . 193
7.9.1 The Gaussian Model . . . . . . . . . . . . . . . . . . . . . . . . . . 195
7.9.2 The S 4 Model . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 200
7.10 Exercises . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 204

8 Nonequilibrium Statistical Mechanics 213


8.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 213
8.2 Time-dependent Probability Distributions . . . . . . . . . . . . . . . . . . 213
8.3 The Master Equation and the Fokker-Planck Equation . . . . . . . . . . . 216
8.4 Random Walk . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 218
8.5 Movimento Browniano . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 220
8.5.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 220
8.5.2 Teoria de Langevin para o Movimento Browniano . . . . . . . . . . 220
8.5.3 Influence of the rapidly fluctuating force . . . . . . . . . . . . . . . 222
8.6 Spectral analysis of fluctuations . . . . . . . . . . . . . . . . . . . . . . . . 226
8.7 Boltzmann Equation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 233
8.7.1 Derivation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 233
8.7.2 The Relaxation Time Approximation . . . . . . . . . . . . . . . . . 238
8.7.3 Boltzmann’s H Theorem . . . . . . . . . . . . . . . . . . . . . . . . 240
8.8 Exercises . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 241
8 CONTENTS
Chapter 1

Elements of Ensemble Theory


Refs.: Balescu [1], Huang [2], Pathria [3, 4], Reichl [5, 6]

1.1 Introduction
When the study of a piece of material is focused on its macroscopic properties, such as the
dependence of the resistivity with temperature, one is faced with the task of processing
information from a microscopic realm into an output describing its collective behaviour.
Since the microscopic description encompasses the basic (classical or quantum) laws of
motion governing a system consisting of the order of NA (the Avogadro number, ∼ 1023 )
particles, this task requires a framework with an outstanding power of synthesis. Indeed,
even if we were able to solve the said equations of motion for the NA particles, the
gathered data by themselves would still be unable to provide information beyond the
microscopic realm. It is through the framework of Statistical Mechanics that we are able
to establish a bridge between the microscopic and macroscopic worlds.
Despite having its origin as a kinetic theory of gases, Statistical Mechanics is applica-
ble to matter in any state. In effect, through this framework many features of matter in
solid, liquid or gaseous phases (as well as mixtures of phases and constituents) have been
elucidated, even at extreme conditions of density and temperatures, as well as matter
in equilibrium with radiation, such as in stars. Further, the framework can be used to
study both equilibrium and non-equlibrium phenomena, thus shedding light on how a
system approaches equilibrium.

1.2 Macrostates and microstates


The first step to understand the Statistical Mechanics framework is to fully appreciate
the difference between macrostates and microstates of a system. Note that the system
in question may be part of a larger one, but we always have in mind a system with a
large number, NA ∼ 1023 , of constituents; the latter is to be understood as particles,
normal modes of vibration, excitations, or quanta. A macroscopic state (macrostate) is
specified by a set of macroscopic variables, the most common examples of which being
the total energy, temperature, number of particles, and several others, depending on
the nature of the system. For a fluid, for instance, one may additionally specify the

9
10 CHAPTER 1. ELEMENTS OF ENSEMBLE THEORY

pressure, while keeping fixed the volume of the container; for a magnet, one may specify
the magnetisation, while keeping fixed an applied magnetic field. The set specifying the
macrostate can be comprised of a single variable or by several ones.
The microscopic state (microstate) is specified in the usual way in the realm of
classical or quantum mechanics. A classical system of N particles in a three-dimensional
space is specified, at a given time, by 3N generalised coordinates q ≡ q1 , q2 , . . . , q3N ,
and by the 3N generalised conjugate momenta p ≡ p1 , p2 , . . . , p3N ; the number, 3N , of
pairs (qi , pi ) is the number of degrees of freedom of the system. For a system described
by a Hamiltonian, H(q, p), its time evolution can in principle be obtained by solving
Hamilton’s equations of motion,
∂H ∂H
q̇i = , ṗi = − , (1.2.1)
∂pi ∂qi
for a given set of initial conditions. One can therefore represent the microstate of this
system, at a given instant of time, by a point

(q, p) ≡ (q1 , q2 , q3 , . . . , q3N , p1 , p2 , . . . , p3N ), (1.2.2)

in a 6N -dimensional space, called the phase space. As time evolves, (q, p) follows a
trajectory in phase space. For instance, the state of a single particle undergoing one-
dimensional harmonic motion with a fixed total energy is represented by a point describ-
ing an ellipse in the two-dimensional phase space, (x, p).
The microstate of a quantum mechanical system of N particles is specified by a
complex wave function, Ψ(x, t) ≡ Ψ(x1 , x2 , . . . , x3N , t), where the xi are the particle
coordinates; when internal degrees of freedom (such as spin states) are relevant, the
wave function depends on additional quantum numbers specifying these variables, e.g.
Ψ{σ} (x, t). We recall that the wave function provides the maximum information available
about the system. One may equivalently think in terms of an abstract state, |Ψ(t)i,
whose projection in the so-called coordinate representation, |x1 x2 . . . x3N i, yields the
wave function, Ψ(x, t). The time evolution of the microstate |Ψ(t)i is governed by the
Schrödinger equation,

i~ |Ψ(t)i = H|Ψ(t)i, (1.2.3)
∂t
whose solution can be expressed in terms of the time evolution operator,

U (t) ≡ e−iHt/~ , if H 6= H(t), (1.2.4)

which is unitary, U † = U −1 , as

|Ψ(t)i = U (t)|Ψ(0)i, (1.2.5)

where |Ψ(0)i represents the initial condition on the state, assigned at t = 0. Therefore,
the microstate evolves in time in a Hilbert space, instead of in a phase space.
Usually many initial microstates (classical or quantum) correspond to the same
macrostate specifications. For instance, there are many ways in which one can mi-
croscopically prepare an isolated system of non-interacting particles with a specified
1.3. CLASSICAL ENSEMBLES 11

PN
macroscopic (total) energy E = i εi , where εi is the energy of the i-th particle.
Therefore, measurements of most (classical or quantum) dynamical quantities at a given
time would be strongly dependent on the microstate under consideration, thus ultimately
being dependent on the initially prepared state. This is totally unsatisfactory, since such
measurements are not reproducible: if one repeats the experiment at a later time, most
certainly the initial microstate would be different, hence leading to a different outcome
of the measurement. By contrast, if we measure, say the resistivity of a pre-heated
metallic wire as a function of time, we see that the outcome is reproducible, provided
the initial conditions (i.e., the temperature distribution) are the same every time the
experiment is performed, even though the initial microstate is most likely different. We
must therefore abandon the notion of ‘absolutely precise’ measurements of quantities
related to individual particles, in favour of a statistical framework which incorporates,
at a fundamental level, the multiplicity of acceptable microstates.1 That is, through this
framework we expect to predict an average outcome of a great number of experiments,
carried out under identical conditions, to measure collective properties of a system. The
need for a statistical framework is therefore much more deeply rooted than the common
misconception of attributing this need to our inability to solve the equations of motion
for 1023 particles.
This statistical framework may be introduced by simultaneously considering all pos-
sible initial microstates compatible with the specified macrostate; we call this set our
ensemble of microstates. Our first task is then to mathematically characterise the dis-
tribution of microstates. Since the classical and quantum approaches differ in the way
each microstate is defined, one should now split the discussion into classical and quantum
ensembles.

1.3 Classical Ensembles


For a classical system, we may discretise the phase space by dividing it into cells of
‘volume’ dq dp, where we use the notation dq ≡ d3N q and dp ≡ d3N p, for a three-
dimensional system. We then imagine counting the number, dN (q, p; t), of microstates
in which, at a given instant of time, the particle coordinates and momenta lie within
the volume dq dp centred at (q, p). However, dN (q, p; t) depends on the volume itself,
which is an arbitrary choice. This arbitrariness is removed by working with a density
of representative points (per volume in phase space), denoted by ρ(q, p; t); that is, the
number of points within the said volume is given by

dN (q, p; t) = ρ(q, p; t) dq dp. (1.3.1)


1
Given an arbitrary quantum-mechanical pure state, the maximum amount of information one can
extract about the measurements of an observable in this state are the possible outcomes (the eigenvalues
of the observable) and their relative probabilities, from which we determine an expectation value. If
this pure state happens to be one of the eigenstates of that observable, then the outcome is certainly
the corresponding eigenvalue. However, the multiplicity to which we refer here is relative to the many
different pure states in which the system can be found; more on this below.
12 CHAPTER 1. ELEMENTS OF ENSEMBLE THEORY

At a given instant, a local maximum of ρ [and, of course, of dN ] at (q̃, p̃) means that
one is more likely to find microstates with the particles distributed over (q̃, p̃) than over
nearby values of q and p. Hence, we also refer to ρ(q, p; t) as the probability distribution
function.
Let us now derive an equation of motion for ρ(q, p; t). The differential of ρ(q, p; t) is
3N  
∂ρ X ∂ρ ∂ρ
dρ = dt + dqi + dpi , (1.3.2)
∂t ∂qi ∂pi
i=1

so that with dqi = q̇i dt and dpi = ṗi dt, we arrive at Liouville’s equation,
3N  
dρ ∂ρ X ∂ρ ∂ρ
= + q̇i + ṗi . (1.3.3)
dt ∂t ∂qi ∂pi
i=1

Now,

∂ρ ∂(ρq̇i ) ∂ q̇i
q̇i = −ρ
∂qi ∂qi ∂qi
∂(ρq̇i ) ∂2H
= −ρ , (1.3.4)
∂qi ∂qi ∂pi

where we have used (1.2.1). Similarly,

∂ρ ∂(ρṗi ) ∂ ṗi
ṗi = −ρ
∂pi ∂pi ∂pi
∂(ρṗi ) ∂2H
= +ρ . (1.3.5)
∂pi ∂pi ∂qi

Taking (1.3.4) and (1.3.5) into (1.3.3) leads to


3N  
dρ ∂ρ X ∂ ∂
= + (ρq̇i ) + (ρṗi ) , (1.3.6)
dt ∂t ∂qi ∂pi
i=1

so that defining the velocity vector of the representative points as

v ≡ (q̇1 , q̇2 , . . . , q̇3N , ṗ1 , ṗ1 , . . . , ṗ3N ), (1.3.7)

and introducing the 6N -dimensional analogue of the del operator,


 
∂ ∂ ∂ ∂ ∂ ∂
∇≡ , ,..., , , ,..., , (1.3.8)
∂q1 ∂q2 ∂q3N ∂p1 ∂p2 ∂p3N

we may write Liouville’s equation as


dρ ∂ρ
= + ∇ · ρ v. (1.3.9)
dt ∂t
1.3. CLASSICAL ENSEMBLES 13

Let us now use the fact that the number of members in the ensemble is conserved: if
we consider a volume Γ in phase space, the rate of probability change in Γ results from
a flux of probability current, j ≡ ρv, through the closed surface SΓ bounding Γ. That
is,

Z Z
dq dp ρ(q, p; t) = − j · n dS
∂t Γ SΓ
Z
= − dq dp ∇ · j, (1.3.10)
Γ

where, in the first equality, dS is a surface element of SΓ , and n is the outward unit
vector normal to SΓ at each point; in the second equality we made use of the divergence
theorem. Rearranging terms leads to
 
∂ρ
Z
dq dp + ∇ · ρv = 0. (1.3.11)
Γ ∂t
Since this must hold for any Γ, the integrand must vanish identically, thus establishing
a continuity equation for the probability distribution, in analogy with fluid dynamics.
We have therefore proved Liouville’s theorem:
dρ ∂ρ
= + ∇ · ρv = 0. (1.3.12)
dt ∂t
The continuity equation allows us to view the theorem as a statement that the distribu-
tion of representative points moves in phase space as if it were an incompressible fluid.
Moreover, recall that ∂ρ(q, p; t)/∂t captures changes in ρ at a fixed point in phase space,
while ∇ · ρv picks up contributions due to changes in ρ along the trajectory in phase
space; the dρ/dt = 0 part in Liouville’s theorem therefore implies that the distribution
function remains constant in the neighbourhood of a point moving with this fluid.
At this point it is instructive to seek a formal solution to the continuity equation.
Taking (1.2.1) into (1.3.3) yields
3N  
∂ρ X ∂ρ ∂H ∂ρ ∂H
=− − , (1.3.13)
∂t ∂qi ∂pi ∂pi ∂qi
i=1

where the RHS is recognised as the Poisson bracket between ρ and H, denoted by [ρ, H]P ;
we may use an even more compact notation,
[H]ρ ≡ [ρ, H]P , [H]2 ρ ≡ [[ρ, H]P , H]P , . . . . (1.3.14)
Assuming ρ(q, p; t) can be expanded in a power series in time leads to [we omit here
the arguments (q, p)]
∂ρ 1 ∂2ρ
ρ(t) = ρ(0) + t+ t2 + . . .
∂t t=0 2 ∂t2 t=0
 
1
= 1 − [H] t + [H]2 t2 + . . . ρ(0), (1.3.15)
2
14 CHAPTER 1. ELEMENTS OF ENSEMBLE THEORY

or, schematically,
ρ(q, p; t) = e−t[H] ρ(q, p; 0), (1.3.16)
which is the formal solution we were seeking.
If we now define the Liouvillian operator, L, as

3N  
X ∂H ∂ ∂H ∂
L ≡ −i − , (1.3.17)
∂pj ∂qj ∂qj ∂pj
j=1

then Eq. (1.3.13) may be written as

∂ρ
i = Lρ(q, p; t). (1.3.18)
∂t
In many texts L is defined without the i, but here we adopt this definition in order to
render L Hermitian, and directly exploring the analogy with the Schrödinger equation.
We see that while H determines the evolution of a single point in phase space, L de-
termines the evolution of the distribution function (hence of the ensemble) in the same
space.
Once ρ(q, p; t) is determined, we can normalise it,
Z
dq dp ρ(q, p; t) = 1. (1.3.19)

Since ρ(q, p; t) is a probability density, it can also be used to calculate averages of any
microscopic quantity B(q, p ; x), where x is a point in space (e.g. the height where the
pressure of a gas is being determined), as
Z
hB(x, t)i = dq dp ρ(q, p; t)B(q, p ; x), (1.3.20)

with ρ(q, p; t) evolving in time according to Eq. (1.3.16). We adopt Eqs. (1.3.19) and
(1.3.20) as the basic postulate of classical Statistical Mechanics.

1.4 Quantum Ensembles


Let us first consider a quantum system in a pure state, |Ψ(t)i. Observables, such as
energy, momentum, and so forth, are described by Hermitian operators,2 b̂† = b̂, whose
time evolution is given by the Heisenberg equation of motion [7],
 
d d
i~ b̂H (t) = [b̂, H]H + i~ b̂S (t) , (1.4.1)
dt dt H

2
Here we use a “hat” (e.g., b̂) to distinguish a quantum operator from a number, but later we will
drop this notation, if no confusion is likely to arise.
1.4. QUANTUM ENSEMBLES 15

where [A, B] ≡ AB − BA is the commutator between operators A and B, and the


subscript H stands for an operator in the Heisenberg picture; for instance,

AH (t) = U † (t − t0 )AS (t0 )U (t − t0 ), (1.4.2)

with U (t − t0 ) being the time evolution operator (between instants t0 and t), as given
by Eq. (1.2.4). The subscript S stands for Schrödinger picture [7]. If the observable b̂
does not depend explicitly on time, the equation of motion becomes
d
i~ b̂H = [b̂, Ĥ]H . (1.4.3)
dt
As mentioned before, the outcome of an experiment measuring the observable b̂ in a
pure state |Ψ(t)i is necessarily one of the eigenvalues of b̂. Therefore, the most we can
predict is the expectation value,

b̄(t) = hΨ(t)| b̂ |Ψ(t) i = hΨ| b̂H |Ψ i, (1.4.4)

where |Ψi ≡ |Ψ(t = 0)i.


If we now expand |Ψi in terms of an orthonormal basis, |mi,
X
|Ψi = cm |mi, (1.4.5)
m

we have X
b̄ = c∗m cn bmn , (1.4.6)
m,n

where Z
bmn ≡ hm|b̂|n i = dx ϕ∗m (x) B(x) ϕn (x), (1.4.7)

where, as before, x ≡ x1 , x2 , . . . , x3N , ϕm (x) ≡ hx|mi, and B(x) ≡ hx|b̂|x i.


We now consider an ensemble of quantum systems, prepared according to the same
specified macrostate; let |Ψ(i) i denote the initial pure state of the i-th member of the
ensemble. We assume the maximum information one has about this ensemble is that
the probability of finding the system in each state |Ψ(i) i is γi , subject to the conditions,
X
γi ≥ 0 and γi = 1. (1.4.8)
i

The system is then said to be described by a statistical mixture ofPstates. As such, this
cannot be represented by a linear superposition of states, |χi = i α(i) |Ψ(i) i. Indeed,
when one takes hχ|χi in the latter case, interference terms appear which are absent in
the former [7].
In order to obtain an expression for the ensemble average of an observable b̂, it
is convenient to first expand each of the states in the mixture in terms of the same
orthonormal basis, |ri, as X
|Ψ(i) i = c(i)
r |ri. (1.4.9)
r
16 CHAPTER 1. ELEMENTS OF ENSEMBLE THEORY

The expectation value of b̂ in the state |Ψ(i) i is then


X
b̄ (i) = cr(i)∗ c(i)
s brs , (1.4.10)
r,s

where brs is given by Eq. (1.4.7).


We now perform a second average, this time in the ensemble:
X X X
hbi = γi b̄ (i) = γi cr(i)∗ c(i)
s brs . (1.4.11)
i i r,s

These are the results which should be compared with experiments.


We can perform the sum over the members of the ensemble first, thus defining a
matrix ρ, whose elements in the {|ri} basis are
X
ρsr ≡ γi c(i) (i)∗
s cr , (1.4.12)
i

where the order of the indices should be noted. It should also be noted that ρsr is only
concerned with the ensemble (and the chosen basis), not with the observable b̂. In order
to eliminate the reference to the basis, we define the density operator (or density matrix )
as the one whose elements in the {|ri} basis are given by
ρsr = hs|ρ̂|r i. (1.4.13)
The ensemble average (1.4.11) can then be written as
X X X
hbi = brs ρsr = hs|ρ̂|r ihr|b̂|s i = hr|ρ̂ b̂|r i. (1.4.14)
r,s r,s r

The last sum above is the trace of the operator ρ̂ b̂, which, in turn, is actually independent
of the basis used. Hence,
B = hbi = Tr ρ̂ b̂ = Tr b̂ ρ̂, (1.4.15)
where in the last equality we used the property that the trace is invariant under cyclic
permutations of the operators.
(i)
Note that as time evolves the coefficients acquire a time dependence, cr (t), which
in turn leads to a time dependent ρ̂(t), and to
B(t) = hbi(t) = Tr b̂ ρ̂(t). (1.4.16)
In particular, if b̂ = 1 we check if ρ̂ is normalised,
X X
Tr ρ̂ = γi c(i) (i)∗
r cr = γi = 1, (1.4.17)
i,r i

whereas if it is not, the average values are then defined as


Tr ρ̂ b̂
hbi = . (1.4.18)
Trρ̂
Equations (1.4.16) and (1.4.17) are the respective analogues of (1.3.20) and (1.3.19),
so that the quantum version of the basic postulate becomes
1.5. THE APPROACH TO EQUILIBRIUM 17

• The state of a quantum system in Statistical Mechanics is completely specified in a


given instant of time by the density operator ρ̂, satisfying Eq. (1.4.17). The average
value of a dynamical variable b̂ is given by (1.4.15).

In order to interpret ρ̂, it is convenient to separate the diagonal and non-diagonal


contributions: X X
hbi = brr ρrr + brs ρrs . (1.4.19)
r r6=s

The diagonal elements of ρ̂ can be associated with probabilities, since


X
ρrr = γi |c(i) 2
r | , (1.4.20)
i

has the properties


X
ρrr ≥ 0 e ρrr = 1, (1.4.21)
r

obtained with the aid of Eqs. (1.4.8) e (1.4.17).


Therefore, ρrr may be interpreted as the probability of finding the system in the basis
state ϕr (x) = hx|ri; ρrr then measures the population of |ri. If ρ̂ is diagonal in the chosen
basis, {ϕr }, we would have ρrs = 0 para r 6= s, and the definition of the average value
B would be analogous to the classical case. Certainly this situation would be special,
since it is strongly dependent on the basis chosen, not being an intrinsic property of the
density operator. The off-diagonal terms do not have well-defined signs, so that they
cannot be associated with any probabilistic interpretation; they are, instead, associated
with interference effects without classical analogues, and are called coherences.
As with any quantum-mechanical operator, the time-dependence of ρ̂ is governed by
the Heisenberg equation of motion, Eq. (1.4.1). The probability is a constant of motion,
so that the left-hand side of Eq. (1.4.1) vanishes, and we are left with


i~ ρ̂(t) = [Ĥ, ρ̂(t)], (1.4.22)
∂t
which is known as the von Neumann equation, and plays the role analogous to the
Liouville equation for the classical case.
We may then say that, at least formally, the starting point of Statistical Mechanics
consists in the study of solutions to the Liouville or von Neumann equations.

1.5 The Approach to Equilibrium


Assuming that the equations of motion for the probability distributions (or, in the quan-
tum case, for the density matrix) have been solved, one wonders whether the solutions
display the tendency towards equilibrium.
18 CHAPTER 1. ELEMENTS OF ENSEMBLE THEORY

Figure 1.1: Schematic constant energy surface in phase space for an ergodic system.

Two features show that this is not the case. First, the fact that the eigenvalues
of L are real3 indicates that the solutions to the Liouville equation oscillate in time,
thus not leading to a stationary solution as t → ∞. Second, the Liouville equation is
invariant under time reversal, which is incompatible with irreversible phenomena such
as the decay towards equilibrium.
The description of irreversibility and decay to equilibrium is part of an area of Sta-
tistical Mechanics called Ergodic Theory, whose aim is to understand the origin of irre-
versibility from the flow of distribution functions in phase space. In this course we will
not discuss these issues in detail, but we will provide a very brief introduction to non-
equilibrium systems in the final part. For our purposes here it suffices to mention (see,
e.g. Ref. [5], Chapter 6, for details) that two kinds of flow are important to understand
the decay to equilibrium: ergodic flow and mixing flow. In order to understand ergodic
flow, imagine an isolated system with energy E. To this system therefore corresponds
a (6N − 1)-dimensional surface in phase space, and, as time evolves each representative
point moves in that surface. One says that the flow of these points is ergodic if almost
all of them will pass through an arbitrary neighbourhood within this surface. Figure 1.1
schematically illustrates this surface and some trajectories.
The Ergodic Theorem provides a criterion to determine whether a system is ergodic.
Consider a function f (q, p), integrable in phase space. A system is ergodic if for all
functions f the time average,

t0 +T
1
Z
hf iT = lim dt f (q(t), p(t)), (1.5.1)
T →∞ T t0

3
This is a consequence of the fact that L is Hermitian; for a detailed discussion of the properties of
L, see, e.g. Ref. [8].
1.6. EXERCISES 19

exists for almost all (q, p), and when it does, it is equal to the ensemble average,
1 1
Z Z
hf iS = P f (q, p) dSE = P dqdp δ[H(q, p) − E] f (q, p), (1.5.2)
(E) SE (E)
where dSE is an P element of SE , the energy E surface, invariant during the evolution of
the system, and (E) is the area of this surface. Therefore, ergodic flow corresponds to
the set of representative points visiting almost all of the surface SE , after a sufficiently
long time, spending equal time in equal areas.
Systems with ergodic flow do not reach equilibrium, unless they already depart from
an equilibrium state. In order to reach equilibrium, the flow must also have the property
of mixing. In this kind of flow, the probability distribution spreads through the phase
space as time evolves. One should note that systems with mixing flow are ergodic, but
the converse is not necessarily true.
In the next chapter we will study equilibrium ensembles without referring to the
mechanisms responsible for taking the systems to this state.

1.6 Exercises
1. Consider a one-dimensional classical harmonic oscillator.
(a) Sketch the trajectory in the phase space for the representative point for this
oscillator.
(b) Consider now an ensemble of these oscillators in which the initial phase is random,
but uniformly distributed in the interval [0, 2π]. Show that the system is ergodic.
[Hint: explore the condition for time averages being equal to averages over the
ensemble.]
2. Consider a box of volume VT with NT particles. Assume that each of the NT particles
has equal probability of being in any point of the box. Now focusing on a volume V
within the box,
(a) Obtain, for any n ≤ NT , the probability distribution function, f (n, V, NT , VT ) [≡
f (n)], of finding n particles in the volume V .
(b) Calculate the mean values n and (n − n)2 .
(c) Show that, for n, NT  1, f (n) is approximately Gaussian.
(d) Show that in the limit V /VT → 0, with NT , VT → ∞ with NT /VT = constant,
f (n) approaches a Poisson distribution,
nn
f (n) = e−n . (1.6.1)
n!
(e) Calculate the standard deviation (relative fluctuation)
 1/2
(n − n)2
δ= ; (1.6.2)
n
20 CHAPTER 1. ELEMENTS OF ENSEMBLE THEORY

(i) Take NT = 1023 , and V /VT = 1/2 and 10−6 . Comment.


(ii) Take NT = 10, and V /VT = 1/2 and 10−6 . Comment.

3. A book with 1 400 pages has 700 typos. Under assumptions that one should find
reasonable, determine the probability that a page has 2 typos.

4. A beam of Ag atoms, each with spin-1/2, is prepared in a way that 60% of the atoms
are in the Sz = +~/2 eigenstate of Sbz , and 40% are in the eigenstate Sx = −~/2 of
Sbx .

(a) Obtain the density matrix at t = 0, in the basis of eigenstates of Sbz .


(b) Admit that the atoms are subjected to a magnetic field B = B0 ŷ, so that the
Hamiltonian reads, Hb = µ S · B (µ is the magnetic moment of an atom). Obtain
the density matrix at time t, in the basis of eigenstates of Sbz .
(c) Calculate hSz i at times t = 0 and t.
Chapter 2

Equilibrium Ensembles and


Thermodynamics
Refs.: Balescu [1], Huang [2], Pathria [3, 4], Reichl [5, 6], Stanley [9]

2.1 Equilibrium Solutions


We now discuss some equilibrium – that is, time-independent – solutions to both Liou-
ville’s and von Neumann’s equations.
In the classical case, Liouville’s equation becomes

[H, ρ]P = 0. (2.1.1)



R H, e.g. ρ = ρ H(q, p) , then [H, ρ]P = 0,
If the (q, p)-dependence of ρ is given through
and ρ is an acceptable solution, provided dq dp ρ = 1 and ρ ≥ 0. Similarly, in the
quantum case if ρ̂ = ρ̂(Ĥ), with Tr ρ̂ = 1 and ρrr ≥ 0, then

[Ĥ, ρ̂] = 0, (2.1.2)

thus representing an equilibrium solution.


Moreover, any constant of motion is a solution of the corresponding equation (Liou-
ville or von Neumann), but here we will be concerned with ρ as a function of H only.
Further details about the incorporation of other constants of motion, and the ensu-
ing study of trajectories of dynamical systems may be found in the context of Ergodic
Theory.
One may determine several solutions ρ (and ρ̂) satisfying Eqs. (2.1.1) and (2.1.2), but
the simplest one attributes equal weight to all microstates compatible with the given
macrostate, and zero weight to the incompatible ones. This is known as the Postulate
of equal a priori probabilities.
In what follows, we discuss several ensembles. While the overall presentation may
be applicable to different systems, in order to fix ideas it is illustrative to think initially
of fluid systems, such as a gas. In this case, two of the main characteristic variables are
the pressure and the volume, but in Sec. 2.6 we will introduce others, relevant to, say
magnetic systems.

21
22 CHAPTER 2. EQUILIBRIUM ENSEMBLES AND THERMODYNAMICS

2.2 The Microcanonical Ensemble


Our first aim is to set up a distribution function representing an equilibrium state.
We start with the quantum description, which is more clear and fundamental in many
aspects, as it will become evident when discussing quantum gases.
The simplest case we can consider is that of an isolated system: without interacting
with the external world, it is characterised by having constant energy. This is clearly an
idealisation, since it is impossible to switch off the interaction with the external world.
In addition, the number of states per energy interval is very large (∼ aN , where a is a
typical linear size of the system and N is the number of particles), so that a small –
though macroscopic – uncertainty in the total energy amounts to incorporate or exclude
from the discussion a great number of compatible states. Therefore we will extend the
definition of an isolated system one with energy between E and E + ∆E, with ∆E  E.
Further, we will assume the system is contained in a volume V much larger than typical
volumes in the molecular scale (i.e., V  10−30 m3 ), with N (∼ 1023 ) particles.
In order to obtain the density operator for this isolated system, we choose the rep-
resentation of Hamiltonian eigenstates, which renders ρ̂ diagonal due to its dependence
with Ĥ,
1
ρmn = am δmn , (2.2.1)

where m represents a set of quantum numbers which completely specify the Hamiltonian
eigenstates, and am and Ω will be defined below. Each pm ≡ am /Ω must be positive
since it represents the probability of finding the system in the state m (and not with the
energy Em ).
According to our previous discussion, we now introduce the postulate of equal a
priori probabilities, (
1 if E ≤ Em ≤ E + ∆E
am = (2.2.2)
0 otherwise,

while Ω is determined through the normalisation of ρ̂,

1X 1 X0
Tr ρ̂ = am = 1 = 1, (2.2.3)
Ω m Ω m
P0
where restricts the sum solely to states compatible with total energy between E and
E + ∆E. Therefore,
X
0
Ω= 1 (2.2.4)
m

is the number of accessible states with total energy between E and E + ∆E.
One should note that Ω is a function of the energy E, of the interval ∆E, and
parametrically depends (i.e., via Em ) on the volume V and on the number of particles
N,
Ω ≡ Ω(E; ∆E; N, V ). (2.2.5)
2.2. THE MICROCANONICAL ENSEMBLE 23

The analysis of the classical case follows along lines close in spirit to the quantum
case, though with suitable modifications. The postulate of equal a priori probabilities is
imposed to the classical distribution function for microstates with energy E0 as
(
1/Ω if E ≤ E0 ≤ E + ∆E
ρ(q, p) = (2.2.6)
0 otherwise.

Similarly to the quantum case, the normalisation of ρ allows us to interpret Ω as the


number of accessible points in phase space, given by
Z 0 Z 0
Ω = Ω0 dq dp, (2.2.7)

where the lines in the integrals restrict the volume in phase space to that corresponding
to the energy in the interval between E and E+∆E. The Ω0 appearing in (2.2.7) reminds
us that one needs a constant, h0 with dimensions of inverse angular momentum for each
product dqi dpi in the integral to render Ω dimensionless; h0 → h in the quantum limit.
Further, in order to avoid the Gibbs paradox (see Problem 2), the indistinguishability
of the particles is taken into account, at least approximately, by including a factor 1/N !.
Thus,
1
Ω0 = 3N . (2.2.8)
h0 N !
Instead of calculating the number of states within an interval ∆E, it is often more
convenient to calculate the number of states with energy smaller than E,
Z
Σ(E) = Ω0 dq dp, (2.2.9)
H<E

where one should note that the phase space integral incorporates the factor Ω0 given by
(2.2.8). Using Σ(E), we may write

Ω(E) = Σ(E + ∆E) − Σ(E) ≈ D(E) ∆E, (2.2.10)

since ∆E  E, and
∂Σ
D(E) = (2.2.11)
∂E
is the density of accessible states with energy E. A similar discussion applies to the
quantum case.
For a single particle in a cubic box of volume V , we have (see Problems 1 and 3)
Σ1 ∼ E 3/2 V ; for N non-interacting distinguishable particles we have

ΣN ∼ ΣN
1 ∼E
3N/2 N
V . (2.2.12)

Therefore, since N  1, the density of states grows very rapidly with E. Figure 2.1
schematically illustrates the dependence of D with E, and we also identify Σ(E) and
Ω(E) = D(E)dE.
24 CHAPTER 2. EQUILIBRIUM ENSEMBLES AND THERMODYNAMICS

D
( )
( )

E
Figure 2.1: Schematic density of states for N free particles in a cubic box of volume V as a function of the total
energy.

2.3 Connection with Thermodynamics


Classical Thermodynamics is built upon some experimental observations, giving rise
essentially to three basic laws which may be stated as follows:

First Law (Conservation of Energy): The variation of the internal energy of a


system in an arbitrary infinitesimal process is given by

dE = d−Q − d−W, (2.3.1)

where d−Q is the amount of heat absorbed by the system, and d−W is the work done by the
system. These latter quantities depend on the path followed in the process, while the
internal energy is a state function, depending only on the inital and final states, but not
on the path; for further discussions and applications of the First Law, see, e.g. Reif [10],
Reichl [6], and Huang [2].

Second Law (Entropy increase): In a closed system away from equilibrium, the pro-
cesses occur in such way that a state function, called entropy, S, increases continuously
until reaching a maximum value, corresponding to the equilibrium state. The entropy
is thermodynamically defined through its variation,
d−Q
dS ≥ (2.3.2)
T
where T is the absolute temperature of the system. The equality holds in an infinites-
imal quasi-static process, i.e. one in which the system slowly evolves, in a succession of
equilibrium states; the process is therefore reversible.
As a consequence of these two laws, we have

T dS ≥ dE + d−W (2.3.3)
2.3. CONNECTION WITH THERMODYNAMICS 25

where, again, the equaity holds in a reversible process.

Third Law (Limiting value of the entropy): The entropy of a system is such that

lim S = S0 , (2.3.4)
T →0+

where S0 is a constant independent of all system parameters.


Not withstanding the importance of these laws, here we will not discuss their specific
applications, since they are expected to have been extensively explored at the undergrad-
uate levels of both basic physics and that of Reif’s book [10]. Nonetheless, from these
laws it is possible to derive constraints to be imposed on several quantities characterising
thermal and mechanical behaviour of matter, as we will do throughout this course. In
addition, these laws also play an important role in validating results obtained in many
physical situations.
Despite its far reaching success, Thermodynamics has its intrinsic limitations. More
specifically, we recall that relationships between several response functions (see Sec. 2.7)
may be derived from purely thermodynamic arguments [see, e.g. Eqs. (2.7.6)]. However,
Thermodynamics alone does not provide the means to calculate each of the quantities
involved; that is, Thermodynamics is not a microscopic theory.
The link between the microscopic and macroscopic worlds is established by the frame-
work of Statistical Mechanics. To see how this comes about, we start by considering a
non-interacting gas in an isolated box of fixed volume, and let the macrostate be spec-
ified by, say the number of molecules in the left half of the box.1 One immediately
convinces oneself that the maximum number of macrostates corresponds to having half
of the molecules on the left-hand side. Cleary, this is the equilibrium situation: had one
started with all molecules in one side, they would soon be evenly distributed throughout
the box, apart from small fluctuations. We conclude from this simple example that the
equilibrium macrostate is connected with the maximum number of microstates. In view
of the Second Law, the entropy must therefore be related with the number of accessible
microstates. In order to set up such relation, we must take into account two constraints
the entropy must satisfy. The first is its additivity, which is not satisfied by Ω, but by
ln Ω, since if a non-interacting system is made up of two parts, the total number of states
is the product of the number of states of each part. The second is the fact that T d−S
has units of energy, so that S must have units of the Boltzmann constant, kB . In view
of all this, one may write
S ≡ kB ln Ω(E, V, N ). (2.3.5)
We note that the dependence of Ω with ∆E was omitted. Indeed, in the majority of
cases of interest, the number of states with energy between E and E + ∆E grows so fast
that the contribution to Ω from the immediate neighbourhood of E is much larger than
the contribution relative to all energies up to E. Therefore, the leading contribution to
the entropy in Eq. (2.3.5) is the same whether one uses Ω(E), Σ(E), or even D(E)∆E,
1
For a detailed description of this situation, see Reif’s book, Statistical Physics: Berkeley Physics
Course, Vol. 5 [11].
26 CHAPTER 2. EQUILIBRIUM ENSEMBLES AND THERMODYNAMICS

S1 S2

( E 1, V1 , N1) ( E 2, V2 , N2)

Figure 2.2: Two subsystems, S1 and S2 separated by a partition.

since the differences are on the order of ln N or smaller; see Pathria [3] (or [4]) and
Huang [2] for details.
In summary, the entropy is a measure of the degree of the system’s amount of dis-
order, in the sense that the larger the number of accessible states, the larger is the
randomness associated with the macrostate. Thus, the Second Law tells us that the
macrostate of equilibrium is the most random or, equivalently, the most likely. At this
point it is worth appreciating another aspect of Eq. (2.3.5): on the left-hand side lies a
thermodynamic quantity, while the right-hand side carries information about the sys-
tem’s spectral properties.
The extensivity of the entropy allows us to write a scaling form as

S = N s(E/N, V /N ), (2.3.6)

where s is the entropy per particle, which, in turn, can only be a function of the intensive
variables, E/N and V /N . This illustrates a general feature: an additive thermodynamic
quantity must be a homogeneous function of degree 1 in its additive variables, such that
if E → λE, N → λN , and V → λV , one has s → s, but S → λS.
We now consider the system, S, as made up of two parts, S1 and S2 (Fig. 2.2),
whose macrostates are characterised by the parameters (E1 , V1 , N1 ) and (E2 , V2 , N2 ),
respectively; to these parameters correspond Ω1 and Ω2 states. Let us initially assume
S1 and S2 are in thermal contact through a fixed and impermeable partition wall, i.e. it
only allows exchange of energy between them.
In view of this, V1 , V2 , N1 , and N2 are kept separately fixed, but the energies are
subject to the condition
E = E1 + E2 = constant (2.3.7)
The number of states accessible to S is, therefore,

Ω(E1 , E2 ) = Ω1 (E1 ) Ω2 (E2 ) = Ω1 (E1 ) Ω2 (E − E1 ) = Ω(E, E1 ). (2.3.8)

As discussed above, the equilibrium state corresponds to the maximum of Ω. Denot-


ing by Ē1 and Ē2 the energies of S1 and S2 in the equilibrium situation, the condition
2.3. CONNECTION WITH THERMODYNAMICS 27

of maximum of Ω becomes
  
∂Ω ∂Ω1 ∂Ω2 ∂E2
= Ω2 (Ē2 ) + Ω1 (Ē1 ) =0 (2.3.9)
∂E1 E1 =Ē1 ∂E1 E1 =Ē1 ∂E2 E2 =Ē2 ∂E1

In view of (2.3.7), ∂E2 /∂E1 = −1, so that the condition for thermal equilibrium becomes
   
∂ ln Ω1 (E1 ) ∂ ln Ω2 (E2 )
= . (2.3.10)
∂E1 E1 =Ē1 ∂E2 E2 =Ē2

If we now define  
∂ ln Ωi (Ei )
βi = , (2.3.11)
∂Ei Ei =Ē

we have
β1 = β2 , (2.3.12)
or, identifying βi = 1/kB Ti , i = 1, 2, with Ti being the absolute temperature of each
sub-system,
T1 = T2 , (2.3.13)
which is the expected condition for thermal equilibrium: the two subsystems must be at
the same temperature.
Let us now assume that in addition of being thermally conducting, the partition in
Fig. 2.2 is movable and permeable, so that the number of states is Ω(E, V, N, E1 , V1 , N1 ),
since now each of the sums V1 + V2 = V and N1 + N2 = N ia a constant. Imposing
dΩ = 0, for independent changes in E1 , V1 , and N1 , leads to ∂Ω/∂V1 = ∂Ω/∂N1 = 0,
from which one extracts the conditions on mechanic equilibrium,

P1 = P2 , (2.3.14)

where the pressure, Pi , i = 1, 2, for each sub-system is defined as


 
1 ∂ ln Ωi
Pi = , (2.3.15)
βi ∂Vi Ei ,Ni

and of chemical equilibrium,


µ1 = µ2 , (2.3.16)
where the chemical potential, µi , i = 1, 2, for each sub-system is defined as
 
1 ∂ ln Ωi
µi = − , (2.3.17)
βi ∂Ni Ei ,Vi

whose physical meaning will be discussed later.


If we now invert Eq. (2.3.5) to obtain E(S, V, N ), we make explicit the fact that E
depends on the degree of randomness (through S), being thus associated with the energy
required to prepare the macrostate. In view of this, E is also referred to as the internal
28 CHAPTER 2. EQUILIBRIUM ENSEMBLES AND THERMODYNAMICS

energy. The extensivity of E, S, and V allows one to anticipate that E(S, V, N ) may be
written as
E = N e(S/N, V /N ), (2.3.18)
where e is the internal energy per particle, which, as an intensive quantity, can only be
a function of the intensive variables S/N and V /N .
With E(S, V, N ) we also note that the internal energy is a thermodynamic poten-
tial,2 , in the sense that all thermodynamic quantities may be obtained from it through
simple algebraic manipulations or by differentiations; in the latter case, the notion of
thermodynamically conjugate variables emerges naturally, as we now illustrate.
Consider a quasi-static process [i.e., one in which the equality in Eq. (2.3.3) applies],
in which additionally the number of particles may vary (hence with a variation in the
internal energy). With E = E(S, V, N ), the conservation of energy [First Law of Termo-
dynamics, with d−W = P dV ] may then be written as

dE = T dS − P dV + µ dN. (2.3.19)

On the other hand, since the differential of E is given by


     
∂E ∂E ∂E
dE = dS + dV + dN, (2.3.20)
∂S V,N ∂V S,N ∂N S,V

we may obtain the following quantities:


 
∂E
Temperatura T = (T conjugada a S) (2.3.21)
∂S V,N
 
∂E
Pressão P = − (−P conjugada a V ) (2.3.22)
∂V S,N
 
∂E
Potencial quı́mico µ = (µ conjugada a N ) (2.3.23)
∂N S,V

In summary, in the microcanonical ensemble, the independent variables are (E, V, N )


or (S, V, N ), from which we may obtain (T, P, µ). However, the choice of independent
variables is dictated by the experimental conditions at hand. In principle, if one knew the
three functions (2.3.21)-(2.3.23), one could express any set of three variables in terms of
the remaining ones. Clearly this situation is unusual in practice, but it can be remedied
using other ensembles, or, equivalently, by performing Legendre transformations on the
different thermodynamic potentials; see Sec. 2.6.

2.4 The Canonical Ensemble


In the previous section we assumed the system was isolated. This hypothesis, in addi-
tion to being unrealistic, is too restrictive since it does not allow the study of systems
2
A more detailed discussion on thermodynamic potentials will be presented in Sec. 2.6.
2.4. THE CANONICAL ENSEMBLE 29

R0 S

RS W

Figure 2.3: Schematic representation: The system S has typical dimensions RS , and is a subsystem of the
microcanonical Universe, U. The external world, W, is much larger than its complement S. R0 is the length scale
of the interactions between the particles.

interacting with its surroundings through the exchange of energy in different ways. In
order to study these cases, let us first consider a very large isolated system – let us call
it the Universe, U –, with energy EU ; it is described by a microcanonical ensemble. The
system S, object of our study, is a subsystem of U . It has NS particles in a volume VS ,
and interacts with the complement of S, the external world, W, with NW particles in a
volume VW ; see Fig. 2.3.
Let us admit the following hypotheses: (1) 1  NS  NW , such that Statistical
Mechanics is applicable to S; (2) U is in equilibrium, so that particle densities and
other local properties are uniform, apart from fluctuations; (3) S does not correspond to
regions with large fluctuations, so that densities in S and in W are approximately the
same, or
NS NW
≈ . (2.4.1)
VS VW
That is, S and W are assumed to be in equilibrium with each other.
The results we are about to derive are valid in the so-called thermodynamic limit,

NS , NW → ∞
NW
→∞
NS
VS , VW → ∞,

but such that the densities are approximately the same,

NS NW
≈ = n. (2.4.2)
VS VW

The energy of the Universe may be written as


0
EU = ES + EW + HSW , (2.4.3)
30 CHAPTER 2. EQUILIBRIUM ENSEMBLES AND THERMODYNAMICS

EW EW + EU EU +

Em
Figure 2.4: S is in a state of energy Em , the energy of U lies in the range EU and EU + ∆, and the energy of W
lies in the range EW and EW + ∆.

where ES is the energy of S, which, being extensive (i.e., additive), is on the order of VS ;
EW is the energy of W which, similarly, is on the order of VW ; HSW 0 is the interaction
energy between S and W, which is on the order of VC , the volume of the region where
the interaction between S and W takes place. That is, VC ∼ RS2 R0 , where RS is a typical
linear size of S, and R0 is the range of the interaction potential between the particles;
see Fig. 2.3. Therefore, in comparison with the smaller energy scale (amongst S and W)
one has
0 |
|HSW R2 R0
VC −1/3
∼ ∼ S 3 ∝ VS . (2.4.4)
|ES | VS RS

Thus, by taking S as a very large system we may neglect HSW 0 in comparison with
0
ES . Nonetheless, one must always keep in mind that HSW is physically important for
providing the mechanism through which S and W exchange energy, though it contributes
with a numerically small to the total energy. In this way, S and W may be considered
as practically uncoupled, or

EU ≈ ES + EW , with ES  EW . (2.4.5)

At this point we pose the fundamental question in the canonical ensemble: Given
that the Universe is microcanonical, what is the probability, pm , of finding S in a given
quantum state, characterised by a set, m, of quantum numbers, and having an energy
Em ?
The quest for an answer may start by noticing that since U has energy between EU
and EU + ∆E, then W has energy between EU − Em and (EU − Em ) + ∆E, when S
has energy Em ; see Fig. 2.4. The number of states in W satisfying this condition is
ΩW (EU − Em ; ∆E), which is also the number of configurations in the Universe, Ω e U , in
which S is in the specific state m, with energy Em , and, jointly, W has energy in this
interval; that is,
e U (EU ; ∆E) = ΩW (EU − Em ; ∆E) · 1.
Ω (2.4.6)

Due to the postulate of equal a priori probabilities, all Ω


e U (EU ; ∆E) configurations
are equally likely, so that the sought probability is


e U (EU ; ∆E) ΩW (EU − Em ; ∆E)
pm = = . (2.4.7)
ΩU (EU ; ∆E) ΩU (EU ; ∆E)
2.4. THE CANONICAL ENSEMBLE 31

Since Em  EU , it is legitimate to expand ln ΩW in the neighbourhood of EU ,


 
∂ ln ΩW
ln ΩW (EU − Em ) ' ln ΩW (EU ) − Em . (2.4.8)
∂E E=EU

Defining β ≡ (∂ ln ΩW /∂E)E=EU , and taking (2.4.8) into (2.4.7) yields

1 −βEm
pm = e , (2.4.9)
Z
where, as suggested by (2.3.11), the parameter β will be interpreted (apart from a multi-
plicative constant; see Sec. 2.5) as the inverse temperature of the Universe; further, due
to our assumptions of U, W and S being in equilibrium, T ≡ 1/βkB is also the temper-
ature of S, and it appears as a parameter, independent of E Pm . The other parameter, Z,
is also independent of Em and, through the normalisation m pm = 1 (the sum extends
to all states m), may be determined solely in terms of quantities related to S. We then
have, X
Z= e−βEm , (2.4.10)
m

known as the system’s partition function. It is one of the most important quantities in
equilibrium Statistical Mechanics, since many important thermodynamic quantities may
be obtained from it. Note that for a fluid Z depends explicitly on the temperature, and
parametrically (through Em ) on the volume, V , and on the number of particles, N .
In order to set up the density matrix in the canonical ensemble, we recall that it
must be a function solely of the Hamiltonian operator, Ĥ. This ensemble will therefore
be a solution to the von Neumann equation.
In the basis of eigenstates of Ĥ we may write

ρmn = pm δmn , (2.4.11)

since the diagonal elements of ρ̂ represent the probabilities of finding a member of the
ensemble in state m. Using Eq. (2.4.9), we have
1 −βEm
ρmn = e δmn . (2.4.12)
Z
It is convenient to express ρ̂ in terms of operators, hence becoming basis independent.
To this end, we first note that
1 X
ρ̂ = |ni e−βEn hn|, (2.4.13)
Z n

where the sum runs over all eigenstates of ρ̂, satisfies Eq. (2.4.12). Further, since
e−βEn |ni = e−β Ĥ |ni, if Ĥ|n = En |n , we have, finally

1 −β Ĥ
ρ̂ = e , (2.4.14)
Z
32 CHAPTER 2. EQUILIBRIUM ENSEMBLES AND THERMODYNAMICS

with
Z = Tr e−β Ĥ . (2.4.15)
Since the trace is basis-independent, Eq. (2.4.15) allows one to calculate Z in any basis.
This property is often helpful in the development of systematic approximations to obtain
Z.
Having obtained ρ̂, the basic postulate of Statistical Mechanics (Sec. 1.4) determines
that the average values of observables are given by

hAi = Tr ρ̂ Â. (2.4.16)

For classical systems, we may use the analogy with the quantum case just discussed.
From Eq. (2.4.13), the distribution function in the classical canonical system is defined
as
1 −βH(q,p)
ρ(q, p) = e , (2.4.17)
Z
where the partition function is
1
Z
Z = sN dq dp e−βH(q,p) , (2.4.18)
h0 N !

which incorporates the ‘counting rule’ 1/N ! in order to avoid Gibbs paradox (see,
e.g. Pathria [4] and Problem 2), and s is the number of degrees of freedom per par-
ticle.
By the same token, the thermodynamical averages of dynamic quantities b(q, p) are
given by
1
Z
hbi = sN dq dp ρ(q, p) b(q, p). (2.4.19)
h0 N !

2.5 Connection with Thermodynamics in the Canonical


Ensemble
Thermodynamic quantities may be divided into essentially three groups:

(1) External parameters – are those fixed in a precise way by external conditions, with-
out reference to the internal state of the system. Examples: Volume, number of
particles, external fields, etc.

(2) Mechanical quantities – are defined as ensemble averages of microscopic quantities.


Examples: Internal energy, pressure, etc.

(3) Thermal quantities – are associated with collective properties, hence cannot be de-
fined as averages of microscopic quantities. Examples: Temperature, Entropy, Free
energy, etc.
2.5. THERMODYNAMICS IN THE CANONICAL ENSEMBLE 33

S2
S1
W

Figure 2.5: The system S of Fig. 2.3 is made up of two subsystems S1 and S2 .

The external parameters are specified in a precise way, so they don’t require a sta-
tistical treatment. The mechanical quantities, since they are defined as averages of
dynamical variables, may be directly determined [c.f. Eqs. (2.4.16) or (2.4.19)].
In order to define thermal quantities, we imagine two weakly interacting Universe
sub-systems, S1 and S2 , exchanging energy, as schematically illustrated in Fig. 2.5. The
same reasoning used to neglect the interaction between S and W in §2.4 may be used
here to neglect the interaction between S1 and S2 . Therefore, the joint probability of
finding S1 in state n (with energy E1n ) and S2 in state m (with energy E2m ) is given by
  
1 −β1 E1n 1 −β2 E2m
pnm = e e , (2.5.1)
Z1 Z2

with X
Zi = e−βi Eir , i = 1, 2. (2.5.2)
r

Now we impose that S1 and S2 are in mutual equilibrium, so that the situation is
equivalent to that of a system S with energy Enm = E1n +E2m , immersed in the external
world W. In this case, the probability distribution in the canonical ensemble is given by
1 −β(E1n +E2m )
pnm = e , (2.5.3)
Z
with X
Z= e−β(E1n +E2m ) . (2.5.4)
m,n

The condition for thermal equilibrium allows us to equate (2.5.1) and (2.5.3), thus
leading to the expected result,
β1 = β2 = β, (2.5.5)
that is, same temperature, βi = 1/kB Ti , and

Z = Z1 Z2 ⇒ ln Z = ln Z1 + ln Z2 , (2.5.6)
34 CHAPTER 2. EQUILIBRIUM ENSEMBLES AND THERMODYNAMICS

since S1 and S2 practically do not interact with each other.


The fact that ln Z is an additive quantity suggests that we may define a quantity

A(T, V, N ) = −kB T ln Z(T, V, N ), (2.5.7)

such that using the prescription to calculate ensemble averages, Eqs. (2.4.16) or (2.4.19),
the average energy may be written as
 
∂(βA)
hHi = (2.5.8)
∂β N,V
 
∂A
=A−T . (2.5.9)
∂T N,V

Comparison with the well established relation from Thermodynamics (see, e.g.
Reif [10] or Huang [2]),
E = A + T S, (2.5.10)
where E is the internal energy, and A is the Helmholtz free energy, suggests that
E = hHi, and that A(T, V, N ) as given by (2.5.7) is indeed the Helmholtz free en-
ergy, and, as such, a thermodynamic potential. Again, we note that, similarly to
Eq. (2.3.5), Eq. (2.5.7) provides the bridge between the microscopic world (through Z)
and the macrscopic world (through A). Further, the extensive quantity A is a function
of one intensive variable, T , and two extensive variables, V and N ; its scaling with N
must therefore be expressed as

A(T, V, N ) = N a(T, V /N ), (2.5.11)

where a (the Helmholtz free energy per particle) is a function solely of two intensive
variables.
We rewrite (2.5.10) as
A(T, V, N ) = E − T S, (2.5.12)
whose differential is
dA = dE − d(T S). (2.5.13)
Using (2.3.19), and the fact that d(T S) = S dT + T dS, we get

dA = −SdT − P dV + µdN. (2.5.14)

from which we arrive at the identifications,

(i) Entropy:  
∂A ∂
S=− = kB (T ln Z); (2.5.15)
∂T N,V ∂T
this relation justifies the introduction of the entropy when comparing Eqs. (2.5.9)
with (2.5.10).
2.5. THERMODYNAMICS IN THE CANONICAL ENSEMBLE 35

(ii) Pressure:
 
∂A ∂
P =− = kB T ln Z; (2.5.16)
∂V T,N ∂V

(iii) Chemical potential


 
∂A ∂
µ= = −kB T ln Z. (2.5.17)
∂N T,V ∂N

Similarly to what we had in the microcanonical ensemble, one role of A(T, V, N ) as


a thermodynamic potential is evident: by differentiating with respect to its variables we
obtain their thermodynamically conjugate quantities, −S, −P and µ, respectively.
The importance of the Helmholtz free energy is appreciated by first considering an
infinitesimal process in which, for simplicity, the number of particles is fixed. Then, from
(2.5.12) we have

dA = dE − d(T S)
= d−Q − d−W − T dS − SdT, (2.5.18)

where we used the First Law, Eq. (2.3.1). The work done by the system is then

d−W = (d−Q − T dS) − SdT − dA. (2.5.19)

In an irreversible isothermal process, the term in parentheses is negative [Second Law,


Eq. (2.3.2)], so that
(d−W )irrev ≤ −dA , (2.5.20)

thus showing that −dA is the maximum work that the system can perform at constant
temperature. Further, for a fixed volume d−W = 0, which means that a spontaneous
process only occurs if accompanied by a decrease in the Helmholtz free energy. In other
words,

The equilibrium state of a system with fixed T , V and N corresponds to a minimum


of the Helmholtz free energy.

It is important to note that the minimisation of the Helmholtz free energy, Eq. (2.5.12),
amounts to minimising the internal energy while maximising the entropy (at a given
temperature). Later on [see the discussion in the paragraph containing Eq. (7.5.5)] we
will see an extreme example of this delicate balance: in a given system with N parti-
cles, the free energy difference between two configurations is dominated by an entropy
difference which is ∼ ln N , while the difference in internal energy is ∼ 1.
36 CHAPTER 2. EQUILIBRIUM ENSEMBLES AND THERMODYNAMICS

2.6 Thermodynamic Potentials


In conservative mechanical systems, such as a mass fixed to a spring or suspended in a
gravitational field, work can be stored as potential energy and later restored. In some
circumstances, the same holds for thermodynamical systems: we can store energy by
performing work in a reversible process and may eventually recover this energy, say
in the form of work. As briefly discussed in the previous section, the energy stored
and recoverable in the form of work is called free energy. There are as many forms
of free energy in a thermodynamical system as the number of different combinations
of constraints. Due to the analogy with potential energy in mechanical systems, these
quantities are also called thermodynamic potentials.
In the previous section we introduced the Helmholtz free energy, A(T, V, N ), which
is useful to describe a system which is closed (constant N ), mechanically isolated (con-
stant V ), and thermally coupled to the external world, the latter acting as a thermal
reservoir at a temperature T . While in this case the control variables are T , V and
N , in some instances one may control, say the pressure, P , instead of V , or the chem-
ical potential, instead of N , and so forth. To each of these instances one associates a
thermodynamic potential, and, as we will see, different thermodynamic potentials are
related through Legendre transformations. Further, for non-fluid systems the variables
are different, such as in ferromagnets, in which case we may control the temperature,
the external magnetic field, H, and the number of particles.
It is therefore interesting to search for a unified description of the many physical
properties at hand. With this in mind, we first note that the thermodynamic state of a
system is completely specified by parameters called state variables. These, in turn, can
be cast essentially into two classes: control variables and response functions. We have
already been inroduced to some control variables (e.g. temperature, entropy, volume,
pressure, number of particles, chemical potential, magnetic field, magnetisation, etc.),
and despite the variety of these at our disposal, only a few (in general, two or three)
are independent; these are chosen as the ones more readily amenable to experimental
control. Another aspect worth keeping in mind is that state variables can be extensive
(which scale with the ‘size’ of the system) or intensive (which do not scale). Further,
extensive and intensive control variables often appear in pairs, corresponding to gener-
alised forces, Y , and generalised displacements, X, inspired by the relations expressing
thermodynamic work. Examples of these pairs are shown in Table 2.1.
The second class of state variables, the response functions, measure how the system
responds to a change in the control variables. Some examples are the heat capacity,
C, the compressibility, K, the magnetic susceptibility, χ, etc. In § 2.7 we will see the
definitions of the most common ones, as well as present some important relations they
satisfy.
We may now discuss other thermodynamic potentials in terms of generalised forces
and displacements. For the sake of completeness, we start with the internal energy, even
though we have already introduced it in the context of the microcanonical ensemble
(§2.3).
2.6. THERMODYNAMIC POTENTIALS 37

Table 2.1: Examples of pairs of thermodynamically conjugate control variables. The extensive variables, X,
correspond to generalised displacements, and the intensive variables, Y , to generalised forces. Despite not being
associated with actual work, the temperature, T , and the entropy, S, appear on the table with the sole purpose of
highlighting their role of mutually conjugate variables; the same holds for the chemical potential. µ, and number
of particles, N .

X volume magneti- length area (A) electric particle entropy


(V ) sation (L) polar- number (S)
(M) ization (N )
(P)
Y pressure magnetic tension surface electric chemical tempera-
(−P ) field (B) (−J) tension field (E) potential ture (T )
(−σ) (µ)

(1) Internal Energy: E(S, X, N )


This potential is useful when we have control over the entropy (e.g. in an adiabatic
process), the generalised displacement, and the number of particles.
The transformation between A(T, X, N ) and E(S, X, N ) is carried out through a
Legendre transformation starting from Eq. (2.5.14),

dA = −SdT + Y dX + µdN = −d(T S) + T dS + Y dX + µdN. (2.6.1)

where we replaced
S dT = d(T S) − T dS. (2.6.2)
Regrouping terms yields

dE = d(A + T S) = T dS + Y dX + µdN, (2.6.3)

where we used Eq. (2.5.12), and one should have in mind that T , Y and µ are to be
considered functions of S, X, and N .
The right-hand side of Eq. (2.6.3) allows us to obtain T , Y and µ as derivatives of
E with respect to their respective conjugate variables, S, X and N . Therefore,
     
∂E ∂E ∂E
T = , Y = , e µ= . (2.6.4)
∂S X,N ∂X S,N ∂N X,S

One should also have in mind that the internal energy can be obtained directly as
the thermodynamic average of Ĥ, i.e. E = hĤi, as in Eq. (2.5.8).

(2) Gibbs Free Energy: G(T, Y, N )


In processes in which one controls the temperature, the generalised force, and the
number of particles, the Gibbs free energy is the most adequate thermodynamic
potential, since one assumes the system is thermally and mechanically coupled to
the external world.
38 CHAPTER 2. EQUILIBRIUM ENSEMBLES AND THERMODYNAMICS

Performing a Legendre transformation analogous to the one used to obtain E, we


have
G(T, Y, N ) = A − XY = N g(T, Y ), (2.6.5)
where g(T, Y ) the Gibbs free energy per particle, and

dG = −SdT − XdY + µdN, (2.6.6)

which allows us to obtain S(T, Y, N ), X(T, Y, N ) and µ(T, Y, N ) as


     
∂G ∂G ∂G
S=− , X=− , and µ = = g(T, Y ). (2.6.7)
∂T Y,N ∂Y T,N ∂N T,Y

It is interesting to notice that the Gibbs free energy per particle is distinct from
the other thermodynamic potentials in the sense that it only depends on intensive
variables, e.g. g(T, P ) in the case of fluids.
Still in the context of fluids, and similarly to the Helmholtz free energy, G is related
to a partition function, Ξ(T, P, N ). To show this, we consider a situation similar to
that of Fig. 2.5, but now with S having a specified pressure, P , while the volume
V is undetermined; the quantum state now depends on the volume V through, say
the boundary conditions. The energies are still additive, following Eq. (2.4.5), and
so are the volumes,
VU = V + VW = constant. (2.6.8)
Let ΩW (EU − EmV , VU − V ; ∆E) be the number of states in which W has energy
between EU − EmV and EU − EmV + ∆E, and volume VU − V . Expanding ln ΩW
to first order around (EU , VU ) leads to

ln ΩW (EU − EmV , VU − V ) ' ln ΩW (EU , VU ) − β(EmV + P V ), (2.6.9)

where we made use of (2.3.11) and (2.3.15). The probability of finding S with volume
V and in the state with energy EmV , is then
1
pmV = e−β(EmV +P V ) , (2.6.10)
Ξ(T, P, N )

where Ξ(T, P, N ) is the partition function, determined by the normalisation of pmV


over all volumes and states:
Z ∞ X
dV pmV = 1. (2.6.11)
0 m

Therefore,
!
Z ∞ X Z
−βEmV −βP V
Ξ= dV e e = dV Z(T, V, N ) e−βP V , (2.6.12)
0 m
2.6. THERMODYNAMIC POTENTIALS 39

so that Ξ(T, P, N ) can be seen as an average of Z(T, V, N ) over all possible volumes,
weighted by exp(−βP V ); the volume V is therefore integrated out.
At this point it is worth making a few remarks. We recall that when the control
variables are (T, V, N ), Eq. (2.5.16) allows us to regard the pressure as an average
value, * +

X ∂Em ∂Em
P = hP i = − pm =− , (2.6.13)
m
∂V T,N ∂V
whose fluctuations are small, i.e.
p
hP 2 i − hP i2
 1. (2.6.14)
hP i
Therefore, the equilibrium state is unique and does not depend on the choice of
control parameters; that is, the equation of state relating P and V at a given tem-
perature is the same whether we control V or P .
In the present case of Ξ(T, P, N ), the average volume is given by

dV V e−βP V Z(T, V, N )
R
∂  
hV i ≡ R −βP V
= −kB T ln Ξ(P, T, N ) , (2.6.15)
dV e Z(T, V, N ) ∂P

which should be close to the most probable value, V ∗ , the one maximizing the dis-
tribution of V , irrespective of the quantum state,
!
X 1
pV ≡ pmV e−βP V = Z(T, V, N ) e−βP V ; (2.6.16)
m
Ξ(T, P, N )

we therefore expect the distribution of volumes to be strongly peaked at V ∗ . Since


Ξ 6= Ξ(V ), the maximum of pV is determined by maximizing

f (V ) ≡ Z(V ) e−βP V , (2.6.17)

where, to simplify the notation, only the V -dependence appears explicitly.


The extremum condition on f (V ) yields

Z0
f 0 (V ) = e−βP V Z 0 − βP Z

= 0 ⇒ βP = , (2.6.18)
V∗ V∗ Z
V∗

while the second derivative of f (V ) may be written as


"  0 2 #
f 00 Z 00 Z ∂ 2 ln Z ∂2A
= − = = −β < 0, (2.6.19)
f ∗ Z Z ∗
∂V 2 ∗
∂V 2 ∗
V V V V

where the last inequality reflects the condition that A must be a minimum in equi-
librium.
40 CHAPTER 2. EQUILIBRIUM ENSEMBLES AND THERMODYNAMICS

We can now plug these into an expansion of f (V ) near V ∗ . Collecting terms, we


have
Z ∞ ( )
1 f 00
dV f (V ∗ ) 1 + (V − V ∗ )2 + O (V − V ∗ )3 .
 
Ξ= (2.6.20)
0 2 f ∗
V

Recalling the final inequality in (2.6.19), the term in curly brackets in (2.6.20) may
be approximated by a Gaussian,
Z ∞
1 ∂2A
 
−βP V ∗ ∗ ∗ 2
Ξ' dV e Z(T, V , N ) exp − β (V − V ) , (2.6.21)
0 2 ∂V 2 V ∗
thus emphasising that the dominant contributions to the integral come from the
immediate neighbourhood of V ∗ . Taking ln Ξ and multiplying by −kB T yields
− kB T ln Ξ = A(T, V ∗ , N ) + P V ∗ , (2.6.22)
where we used Eq. (2.5.7) and the fact that the contribution from the Gaussian
term is of order ln N (Why?), hence being negligible in comparison with A and V ∗ .
Equation (2.6.22) therefore yields
∂ 
−kB T ln Ξ(P, T, N ) = V ∗ .

(2.6.23)
∂P
thus confirming our earlier expectation that the most probable value of V is, to a
very good approximation the actual average value in the canonical distributuion at
a given pressure.
In view of Eqs. (2.6.5)-(2.6.7), and of (2.6.23), we may identify

G(T, P, N ) = −kB T ln Ξ(T, P, N ) (2.6.24)

as the Gibbs free energy, and Eq. (2.6.22) reduces to Eq. (2.6.5). Note that the
maximum of the integrand in (2.6.12) represents the minimum of G for fixed T ,
P , and N . Therefore, similarly to what we have established for the Helmholtz free
energy,

The equilibrium state of a system with fixed T , P (or Y , in general) and N


corresponds to a minimum of the Gibbs free energy.

(3) Enthalpy: H(S, Y, N )


It is useful in the study of systems in which one can control the entropy, the gen-
eralised force, and the number of particles. Following along lines similar to the
previous thermodynamic potentials, we have
H(S, Y, N ) = A + T S − Y X = E − Y X
= N fH (S/N, Y ), (2.6.25)
2.7. RESPONSE FUNCTIONS 41

where fH is some function of two intensive variables. The differential of H,


dH = T dS − XdY + µdN, (2.6.26)
provides
     
∂H ∂H ∂H
T = , X=− , and µ = . (2.6.27)
∂S Y,N ∂Y S,N ∂N S,Y

There is yet another thermodynamic potential. very important to describe open


systems (those with unspecified number of particles), for which one controls the chemical
potential: it is called the grand-potential, and will be introduced when discussing the
grand-canonical ensemble, in §2.9.

2.7 Response Functions


Response functions are the thermodynamic quantities most readily accessible experi-
mentally. By probing how a state variable changes when other independent variables
are changed under controlled conditions the response functions provide important in-
formation about the system. They can be divided essentially into two groups: thermal
functions (such as heat capacities) and mechanical functions (such as comressibility and
susceptibility), as we now discuss.
(1) Heat Capacity
The heat capacity, C, measures the amount of heat, d−Q, necessary to induce a given
change in the temperature, dT , of a system. In general, one defines C = d−Q/dT , so
that given a certain amount of heat, the increase in temperature is larger the smaller
is the heat capacity. When measuring C, one tries to fix all other independent control
variables except the temperature. Therefore there are as many heat capacities as
the combinations of independent variables; each one of these heat capacities contain
different information about the system.
The two most commonly used are those obtained at constant volume (or, generically,
X),    2 
∂S ∂ A
CX = T = −T , (2.7.1)
∂T X ∂T 2 X
where we used d−Q = T dS), and, analogously, at constant pressure (or Y ),
   2 
∂S ∂ G
CY = T = −T . (2.7.2)
∂T Y ∂T 2 Y

Later we will see that CY > CX ≥ 0. It should also be noted that the heat capacity
is an extensive quantity, since so is the entropy; hence one often uses the specific
heat, c, defined as the ratio between C and some extensive variable such as the
number of moles or particles, or the volume.
42 CHAPTER 2. EQUILIBRIUM ENSEMBLES AND THERMODYNAMICS

(2) Mechanical response functions for PVT systems


When dealing with fluid (or PVT) systems, one often wants to know how the volume
changes with pressure. If this change takes place at constant number of particles and
temperature, the appropriate response function is the isothermal compressibility,

1 ∂2G
   
1 ∂V
KT = − =− , (2.7.3)
V ∂P T,N V ∂P 2 T,N

while for processes at constant entropy, we define the adiabatic compressibility,

1 ∂2H
   
1 ∂V
KS = − =− . (2.7.4)
V ∂P S,N V ∂P 2 S,N

We see that for a given increase in pressure the relative decrease in volume is larger
the larger is the compressibility.
A measure of the change in volume with temperature is given by the thermal ex-
pansion coefficient, defined as
 
1 ∂V
αP = . (2.7.5)
V ∂T P,N

Note that both the compressibility and the thermal expansion coefficient are inten-
sive quantities.
It can be shown (see Problem 10) that the thermal and mechanical response functions
are related through

KT (CP − CV ) = T V αP2 (2.7.6a)


CP (KT − KS ) = T V αP2 (2.7.6b)
CP KT
= . (2.7.6c)
CV KS

(3) Mechanical response functions for magnetic systems


The change in magnetisation with the applied field, h, at constant temperature, is
given by the isothermal susceptibility,
   2 
∂M ∂ G
χT = =− , (2.7.7)
∂h T,N ∂h2

while for adiabatic processes we define


   2 
∂M ∂ H
χS = =− . (2.7.8)
∂h S,N ∂h2 S,N
2.8. STABILITY OF THE EQUILIBRIUM STATE 43

One should note that, unlike the compressibility, the susceptibility is defined as an
extensive quantity.
In an analogous way,  
∂M
αh = , (2.7.9)
∂T h,N
thus providing the identities,
χT (Ch − CM ) = T αh2 (2.7.10)
Ch (χT − χS ) = T αh2 (2.7.11)
Ch χT
= . (2.7.12)
CM χS

2.8 Stability of the Equilibrium State


The second law of Thermodynamics may be formulated as follows: The change in entropy
of a system and its surroundings is positive, and goes to zero in a process approaching re-
versibility; in other words, the equilibrium state of a system is the one which maximizes
the entropy, therefore being stable with respect to spontaneous changes. The connec-
tion between microscopic and thermodynamic descriptions, which we established in the
previous sections, is an example of the far reaching consequences of the second law of
Thermodynamics.
The conditions determining the stability of the equilibrium state are yet another
consequence of the second law: recall that in Sec. 2.3, we maximised (the logarithm
of) the number of states of a system composed of two parts, 1 and 2, from which we
derived that these sub-systems should have the same temperature, pressure, and chemical
potential.
In Sec. 2.8.1 we will briefly revisit the derivation of equilibrium conditions, and in
Sec. 2.8.2 we discuss the local stability of the equilibrium state and its consequences for
the response functions.

2.8.1 Conditions for Local Equilibrium in a PVT System


Let us consider a mixture of ` kinds of particles in an isolated box of volume VT divided
into two parts, A and B, by a porous (thus allowing for particle exchange) and conducting
wall which can also move freely.3 We assume there are no chemical reactions, so that
the total number of each kind of particles is constant.
Under these conditions we may write for the total internal energy,
ET = EA + EB , (2.8.1)
for the total volume,
VT = VA + VB , (2.8.2)
3
This discussion can be easily generalised to the case in which A is the system of interest, and B the
external world, as in §2.4.
44 CHAPTER 2. EQUILIBRIUM ENSEMBLES AND THERMODYNAMICS

and for the total number of particles of kind j,

NT j = NAj + NBj . (2.8.3)

Further, the entropy is additive, that is,

ST = SA + SB . (2.8.4)

Let us assume that spontaneous changes may occur in the energy, in the volume, and
in the number of particles on each side of the partition, but subject to the constraints,

∆ET = ∆VT = ∆NTj = 0, (2.8.5)

since the system is isolated and there are no chemical reactions. The change in total
entropy for these processes may be written as
 
X  ∂Sα    `  
∂Sα X ∂Sα
∆ST =  ∆Eα + ∆Vα + ∆Nαj  ,
∂Eα Vα ,{Nαj } ∂Vα Eα ,{Nαj } ∂Nαj Eα Vα
α=A,B j=1
(2.8.6)
up to terms in first order.
Since
     
1 ∂S P ∂S µj ∂S
= , = , and − = , (2.8.7)
T ∂E V,{Nj } T ∂V E,{Nj } T ∂Nj E,V,{Ni6=j }

Eq. (2.8.6) becomes


    `  
1 1 PA PB X µBj µAj
∆ST = − ∆EA + − ∆VA + − ∆NAj . (2.8.8)
TA TB TA TB TB TA
j=1

For a system in equilibrium, the entropy is maximum, so that any spontaneous


change must cause a decrease in entropy. Since ∆EA , ∆VA and ∆NAj may be positive
or negative, in order to satisfy ∆ST ≥ 0 we must necessarily have

TA = TB , PA = PB and µAj = µBj , j = 1, . . . `, (2.8.9)

which are the conditions for local equilibrium in a system without chemical reactions.
Note that if the partition is not porous, then ∆NA = ∆NB = 0 and we may have
µAj 6= µBj even in equilibrium. If, in addition, the partition is fixed in position, we may
also have PA 6= PB , and still be in an equilibrium state.

2.8.2 Conditions for Local Stability


The stability of the equilibrium state imposes constraints on the signs of the response
functions. To see how this occurs, we consider the same system as above, but with only
one kind of particles, for simplicity.
2.8. STABILITY OF THE EQUILIBRIUM STATE 45

T T’ > T dQ T
T T

inicial final

Figure 2.6: In a system in equilibrium at a temperature T (leftmost panel), fluctuations cause a temperature rise
to T 0 > T in a given region (second panel). The system restores equilibrium by this region giving away heat
(third panel), d−Q < 0, thus reducing the temperature again, dT < 0 (rightmost panel).

Since the number of particles in the box is finite (though very large), the thermody-
namic variables on each partition will spontaneously fluctuate around their respective
average values. These fluctuations must be such that VT , ET , and NT remain fixed, but,
according to the Second Law, they cause a decrease in the total entropy, ST . (If ST
didn’t decrease, the equilibrium state would be unstable and spontaneous fluctuations
would drive the system to a more stable state of equilibrium with larger entropy.)
The conditions for local stability may be derived formally by carrying the expansion
in Eq. (2.8.6) up to second order in changes in the state variables; see, e.g. Reichl [6].
However, here we adopt a more intuitive reasoning, based on Le Châtelier’s Principle, to
heuristically derive the consequences of stability to the signs of the response functions.
Le Châtelier’s Principle may be stated as follows: If a system is in a state of stable
equilibrium, then any spontaneous change in its parameters triggers processes which
tend to restore the equilibrium state. Let us then see how this rflects in thermal and
mechanical stabilities.

Thermal stability:
Suppose the temperature spontaneously rises in a region R of the system, as shown
in Fig. 2.6. According to Le Châtelier’s Principle, this causes the region R to give away
heat to its external environment, d−Q < 0, in order to lower R’s temperature, dT < 0,
thus restoring equilibrium. Therefore,

d−Q
C≡ > 0. (2.8.10)
dT

Mechanical stability:
Suppose that the volume occupied by a quantity of fluid increases, as a result of
fluctuations (see Fig. 2.7). This, in turn, causes a decrease in the pressure of that region.
According to Le Châtelier’s Principle, with a larger pressure outside R, the region is
forced to decrease its volume, dV < 0, until restoring the original volume; in this latter
stage, dP > 0. Therefore,
1 dV
K=− > 0. (2.8.11)
V dP
46 CHAPTER 2. EQUILIBRIUM ENSEMBLES AND THERMODYNAMICS

P’
V V
V+ V P>P’
inicial final

Figure 2.7: A region of volume V , part of a system in mechanical equilibrium (leftmost panel), increases its volume
to V 0 > V , as a result of spontaneous fluctuations (second panel), which, in turn, causes a pressure drop in the
region (third panel). The system restores equilibrium by decreasing the volume again, dV < 0, and increasing its
pressure dP > 0 (rightmost panel).

2.8.3 Consequences of Stability


We first note that when the conditions (2.8.10) and (2.8.11) are taken into Eqs. (2.7.6a)
and (2.7.6b), respectively imply in

CP ≥ CV > 0, (2.8.12)

and
KT ≥ KS > 0. (2.8.13)
In the magnetic case, the corresponding conditions are

Ch > CM and χT > χS . (2.8.14)

In addition, in a process with constant volume and number of particles we have


dE = T dS [c.f. Eq. (2.6.3)], and the stability condition becomes
 
∂E
CV = > 0, (2.8.15)
∂T V

which means that the internal energy grows monotonically with the temperature, at
constant volume. In an analogous way,
 
∂H
CP = > 0, (2.8.16)
∂T P

indicating that the enthalpy also grows monotonically with the temperature, at constant
pressure.
We can also determine some constraints governing the behaviour of the Helmholtz
and Gibbs free energies. Equations (2.7.1), (2.5.16), and (2.7.3) lead to
 2 
∂ A CV
2
=− <0 (2.8.17)
∂T V,N T
 2   
∂ A ∂P 1
2
=− = > 0. (2.8.18)
∂V T,N ∂V T,N V KT
2.8. STABILITY OF THE EQUILIBRIUM STATE 47

A A S P
(a) (b) (d)

(c)
T V T V

Figure 2.8: The Helmholtz free energy is (a) a concave function of T , and (b) a convex function of V , whose
monotonicity follows from the positivity of the entropy (c) and pressure (d); see Eqs. (2.5.15) and (2.5.16).

G (a) G (b) V (c) S (d)

P T P T

Figure 2.9: The Gibbs free energy is a concave function both of (a) P , and (b) T , whose monotonicity follows
from the positivity of the volume (c) and entropy (d); see Eqs. (2.6.7).

That is, the Helmholtz free energy, A(T, V, N ), is a concave function of the temperature
and a convex function of the volume. Given that the entropy, S = −∂A/∂T, and the
pressure, P = −∂A/∂V, are positive quantities, the decreasing monotonicity of A with
respect to T and V follows suit. These interrelations are illustrated in Fig. 2.8.
By the same token, Eqs. (2.7.2), (2.6.7), (2.8.12) and (2.8.13) lead to
 2 
∂ G CP,N
2
=− < 0, (2.8.19)
∂T P,N T

and
∂2G
 
= −V KT < 0. (2.8.20)
∂P 2 T,N

Therefore, the Gibbs free energy, G(T, P, N ), is a concave function of the temperature
and of the pressure. Further, the monotonicity of G with P and with T are set by the
positiveness of V = ∂G/∂P and of S = −∂G/∂T ; see Fig. 2.9.
For magnetic systems, one cannot claim on general grounds that the above results
remain universally valid. A counterexample is provided by diamagnetic systems, for
which χ < 0. Nonetheless, it can be shown [12] that for systems in which the coupling
between the magnetisation M and the magnetic field, H, enters the Hamiltonian through

H = H0 − HM, (2.8.21)

where H0 contains the interaction terms between the spins, the following statements
hold:
48 CHAPTER 2. EQUILIBRIUM ENSEMBLES AND THERMODYNAMICS

• The Helmholtz free energy is a concave function of the temperature and a convex
function of the magnetisation.

• The Gibbs free energy is a concave function of both temperature and magnetic
field.
The reader should check these statements vis-à-vis Figs. 2.8 and 2.9, taking into account
the correspondences V → M and −P → H.

2.9 The Grand-Canonical Ensemble


When we discussed the Canonical Ensemble in $ 2.4, we considered a system, S, with
fixed number of particles in thermal contact with the external world, W. In the present
Section we admit that S is also allowed to exchange particles with W.
We may therefore extend the development of $ 2.4 by posing the following question:
given that the Universe has energy EU and NU particles, what is the probability of
finding S with N particles in a given state m, whose energy is EmN . A reasoning similar
to that leading to Eqs. (2.3.6) and (2.6.10) yields
ΩW (EU − EmN , NU − N ; ∆E)
pmN = . (2.9.1)
ΩU (EU , NU ; ∆E)
If S is small, i.e. EmN  EU and N  NU , we may expand
 
∂ ln ΩW
ln ΩW (EU − EmN , NU − N ) ≈ ln ΩW (EU , NU ) − EmN
∂E E=EU ,N =NU
 
∂ ln ΩW
− N, (2.9.2)
∂N E=EU ,N =NU

and identify  
1 ∂ ln ΩW
β= = , (2.9.3)
kB T ∂E EU ,NU
and  
1 ∂ ln ΩW
µ=− . (2.9.4)
β ∂N EU ,NU
Recall that the chemical potential, µ, is an intensive quantity with dimension of energy,
which controls the number of particles in the system.
Similarly to the canonical ensemble, we get
1 −β(EmN −µN )
pmN = e , (2.9.5)
Z
where Z is the grand partition function, determined by the normalisation of pmN ,
∞ X
X
pmN = 1. (2.9.6)
N =0 m
2.9. THE GRAND-CANONICAL ENSEMBLE 49

Note that now we need to sum over all numbers of particles in S, and over the possible
states, which, in turn, depend on N . We then have,
∞ X
X
Z(T, V, µ) = e−β[EmN −µN ] . (2.9.7)
N =0 m

The grand partition function depends on the parameters β, µ, and, implicitly, on V ;


it plays the same role in the grand-canonical ensemble as does the partition function in
the canonical ensemble.
Let us introduce a number operator, N̂ , which satisfies an eigenvalue equation
N̂ |N i = N |N i, with the eigenvalues N being non-negative integers. If the Hamilto-
nian, Ĥ, preserves the number of particles, one may find a representation in which these
two operators are diagonal. Therefore, we can regard Eq. (2.9.5) as an expression for the
diagonal elements of the density operator,
1 −β(Ĥ−µN̂ )
ρ̂ = e , (2.9.8)
Z
with the partition function being given as

Z = Tr e−β[Ĥ−µN̂ ] , (2.9.9)

where the operation Tr represents a sum over the eigenvalues of N̂ , as well as the usual
Tr in the subspace of fixed number of particles.
The classical case is also obtained by following the lines described in §2.6. The
classical distribution function is given by
1 1 −β[HN (q,p)−µN ]
ρN (q, p) = e , (2.9.10)
hsN
0 N ! Z

where HN (q, p) is the Hamiltonian for a system with N particles, and the grand partition
function is

1
X Z
Z= sN N !
eβµN
dq dp e−βHN (q,p) . (2.9.11)
N =0
h 0

In order to establish the connection of the grand-canonical ensemble with the ther-
modynamics, we first recall that the canonical thermodynamic potentials A, E, G, and
H represent the description of the system in termos the variables (T, V, hN i), (S, V, hN i),
(T, P, hN i), and (S, P, hN i), respectively, where hN i is to be regarded as the observed
number of particles, which is different from the microscopic variable N̂ . In the grand-
canonical ensemble we want to replace hN i by the chemical potential, µ. To this end,
we must introduce a new potential, J(T, V, µ), through a Legendre transformation:

dA = −SdT − P dV + µdhN i
= −SdT − P dV + µdhN i − hN idµ + hN idµ, (2.9.12)
50 CHAPTER 2. EQUILIBRIUM ENSEMBLES AND THERMODYNAMICS

or
dJ = SdT + P dV + hN idµ, (2.9.13)

with
J(T, V, µ) = −A + µhN i. (2.9.14)

Therefore, once J is determined, we obtain the quantities,


     
∂J ∂J ∂J
S= , P = , and hN i = , (2.9.15)
∂T V,µ ∂V T,µ ∂µ T,V

where it is important to notice that hN i is now a function of T, V and µ.


Let us now use the fact that J is an extensive variable depending on two intensive
variables, T and µ, and one extensive variable, V . Therefore, if the volume is scaled by
a factor λ, V → λV , one must necessarily have J → λJ,

J(T, λV, µ) = λ J(T, V, µ). (2.9.16)

Thus, J must be of the form

J(T, V, µ) = V f (T, µ), (2.9.17)

where f is a function of T and µ only. Using the fact that P = (∂J/∂V )T, µ , we may
identify
J(T, V, µ) ≡ V P (T, µ). (2.9.18)

Similarly to the Helmholtz and Gibbs free energies, one can show that for reversible
processes with fixed T, V, and µ, the equilibrium state corresponds to a maximum of
J(T, V, µ).4
The other thermodynamic potentials are defined as

(i) Internal energy: E(S, V, µ)

E = A + T S = µhN i − J + T S; (2.9.19)

(ii) Gibbs free energy: G(T, P, µ)

G = A + P V = J + A = µhN i; (2.9.20)

(iii) Enthalpy: H(S, P, µ)


H = µhN i + T S. (2.9.21)
4
Note that some texts define the grand potential as Ω = −J, so that the equilibrium state corresponds
to a minimum of Ω(T, V, µ).
2.10. EQUIVALENCE BETWEEN EQUILIBRIUM ENSEMBLES 51

The averages in the grand-canonical ensemble are then given by

hOi = Tr ρ̂ Ô. (2.9.22)

For instance, the internal energy is



1 XX
E(T, V, µ) ≡ hĤi = Tr ρ̂ Ĥ = EmN e−β(EmN −µN ) , (2.9.23)
Z m N =0

while the nuber of particles is



1 XX
hN i = Tr ρ̂ N̂ = N e−β(EmN −µN ) . (2.9.24)
Z m N =0

The thermal quantities are defined following lines similar to what we did in §2.5:
the equilibrium conditions between subsystems S1 and S2 again leads us to β1 = β2 and
µ1 = µ2 ; see also the discussion in §2.3. It can also be seen that ln Z is an extensive
quantity. Hence, by taking
∂ 1 XX
N e−β(EmN −µN ) = hN i,

kB T ln Z = (2.9.25)
∂µ Z m N

or, using the third of Eqs. (2.9.15) we can make yet another identification,

J(T, V, µ) ≡ kB T ln Z. (2.9.26)

This shows that once obtained the grand partition function, one automatically gains
access to the thermodynamc grandpotential, and to the product P V .
Finally, we mention that sometimes it is convenient to use a variable

z ≡ eβµ , (2.9.27)

called fugacity. We may then write



X
Z(T, V, z) = z N Z(T, V, N ), (2.9.28)
N =0

that is, the grand partition function is the generating function for the canonical partition
function; that is, N !Z(T, V, N ) is the coefficient of z N in the expansion of Z in a Taylor
series expansion in z.

2.10 Equivalence between Equilibrium Ensembles: Fluc-


tuations
In the preceding sections we set up three distinct ensembles to describe systems in
equilibrium, in which different state variables were controlled. While we may expect on
52 CHAPTER 2. EQUILIBRIUM ENSEMBLES AND THERMODYNAMICS

general grounds that the choice of ensembles does not give rise to different results, it is
illustrative to show formally that the ensembles are indeed equivalent, so that the choice
is more a matter of convenience than of conceptual nature. In what follows we will show
the equivalences microcanonical-canonical and grand-canonical–canonical.
The microcanonical ensemble describes a system whose energy, E, is fixed or, classi-
cally, specified within arbitrarily small limits. In the canonical ensemble the energy may
have any value, but the average energy, hHi, is fixed. The equivalence between them
must therefore correspond to having E ≈ hHi, apart from vanishingly small fluctuations.
To show this, we calculate
 
∂ ∂ 1 −β Ĥ 1 1  ∂Z
hĤi = Tr e Ĥ = − Tr e−β Ĥ Ĥ2 − 2 Tr e−β Ĥ Ĥ , (2.10.1)
∂β ∂β Z Z Z ∂β

where
∂Z ∂ h i
= Tr e−β Ĥ = −Tr e−β Ĥ Ĥ = −ZhĤi. (2.10.2)
∂β ∂β
Therefore,

hĤi = −hĤ2 i + hĤi2 . (2.10.3)
∂β
On the other hand, recalling that the derivatives are taken at constant volume, we have

∂hĤi ∂hĤi ∂T
= = −kB T 2 CV , (2.10.4)
∂β ∂T ∂β

which leads us to
hĤ2 i − hĤi2 ≡ h[Ĥ − hĤi]2 i = kB T 2 CV . (2.10.5)

This result is extremely important, since it relates the fluctuations in a microscopic


quantity with something readily measurable, such as the heat capacity. Moreover, since
CV is an extensive quantity (hence ∝ N ) and T is an intensive quantity, we have,

hĤ2 i − hĤi2 ∼ N, (2.10.6)

so that the relative importance of fluctuations in the energy may be estimated as

h[Ĥ − hĤi]2 i1/2 N 1/2 1


∼ =√ −→ 0. (2.10.7)
hĤi N N N →∞

This result expresses the fact that the fluctuations around the average energy in the
canonical ensemble may be large in absolute value, but they are negligible in compar-
ison with the much larger values of the average energy itself. This means that the
probability of finding a member of the ensemble with an energy E very different from
hĤi vanishes in the thermodynamic limit, thus establishing the correspondence between
the microcanonical and canonical ensembles.
2.10. EQUIVALENCE BETWEEN EQUILIBRIUM ENSEMBLES 53

Now we consider the grand canonical ensemble, and let us examine the fluctuations
in the number of particles. We start by evaluating
 
∂ ∂ 1 −β[Ĥ−µN̂ ]
hN i = Tr e N̂ =
∂µ ∂µ Z
1   1   ∂Z
= β Tr e−β[Ĥ−µN̂ ] N̂ 2 − 2 Tr e−β[Ĥ−µN̂ ] N̂ (2.10.8)
Z Z ∂µ
with
∂Z ∂ h i
= Tr e−β[Ĥ−µN̂ ] = β Tr e−β[Ĥ−µN̂ ] N̂ = βZhN i. (2.10.9)
∂µ ∂µ
Therefore,
∂ h i
hN i = β hN 2 i − hN i2 (2.10.10)
∂µ
In order to relate ∂hN i/∂µ with more familiar quantities, we note that

∂hN i ∂hN i ∂hN i ∂hN i


         
∂P
= = , (2.10.11)
∂µ V,T ∂P V,T ∂µ V,T ∂P V,T ∂V µ,T

where in the last equality we used a Maxwell relation,

∂hN i
   
∂P
= . (2.10.12)
∂µ V,T ∂V µ,T

(The reader should derive this relation!)


Similarly to what we did for the grand potential J, it is a simple matter to verify
that the extensive quantity hN i, as a function of V , T and µ must satisfy

hN i = V Q(T, µ), (2.10.13)

where Q is a function of the intensive variables T and µ. Thus,

∂hN i hN i
 
= , (2.10.14)
∂V T, µ V

leading to
∂hN i hN i ∂hN i
   
= . (2.10.15)
∂µ V,T V ∂P V,T

Now we must regard hN i a function of P , V , and T , in which case we similarly have,

hN i = V g(T, P ), (2.10.16)

which means that hN i/V does not depend on hN i and V . On the other hand,

∂hN i
     
∂P ∂V
= −1, (2.10.17)
∂P V,T ∂V hN i,T ∂hN i P,T
54 CHAPTER 2. EQUILIBRIUM ENSEMBLES AND THERMODYNAMICS

so that using Eqs. (2.7.3) and (2.10.16), we end up with


∂hN i
 
= hN iKT . (2.10.18)
∂P V,T
We then have, finally,
∂hN i hN i2
 
= KT . (2.10.19)
∂µ V,T V
This important result shows that an incompressible system, KT → 0, can be seen either
as one in which the volume is not altered by applied pressure, or as one to which it is
extremely hard to add particles by increasing the chemical potential.
Taking (2.10.19) into (2.10.10), we obtain a relation analogous to (2.10.7),
1/2
h[N̂ − hN̂ i]2 i1/2

kB T
= nKT , (2.10.20)
hN i hN i
where n ≡ hN i/V is the average density of particles. Since KT is an intensive quantity,
we have, in general, √ KT ∼ 1, so that relative fluctuations in the number of particles
around hN i are ∼ 1/ N . thus vanishingly small in the thermodynamic limit. However,
an important exception takes place near a phase transition, when one may have KT ∼ N ;
for instance, at the transition point between liquid and vapour critical fluctuations take
place in large regions giving rise to the phenomenon of critical opalescence shown in
Fig. 7.6.
We may then conclude that the grand-canonical ensemble is equivalent to the canon-
ical ensemble, apart from the neighbourhood of the critical point. When studying fluc-
tuations in fluids near this region, one must therefore use the grand-canonical ensemble.

2.11 Exercises
1. Consider a particle of mass m in a cubic box of side L.
(a) Calculate the number of classical states with energy smaller than E.
(b) Calculate the number of quantum states with energy smaller than E, and compare
with the classical result.
(c) From the above results, obtain the equation of state for an ideal gas of N such
particles in the microcanonical ensemble. What is the relation between E and
the absolute temperature T ? Comment on the role played by the space dimen-
sionality, d.
(d) Show that the entropy of the three-dimensional gas of N distinguishable particles
with total energy E in a volume V can be written as
"   #
V 4πmE 3/2 3
S(E, V, N ) ≈ N kB ln 3 + N kB . (2.11.1)
h 3N 2
2.11. EXERCISES 55

(e) Show that the entropy thus obtained is not extensive, that is, if each extensive
variable is scaled by λ, the entropy is not scaled by the same factor.
2. Consider two ideal gases initially occupying each side of a container, separated by
an insulating, fixed, and impenetrable partition; see Fig. 2.2. On the left hand side
there are N1 molecules of mass m1 occupying a volume V1 at a temperature T ; on
the right hand side there are N2 molecules of mass m2 occupying a volume V2 at the
same temperature T of the left hand side.
(a) Write down an expression for the entropy of each gas, in terms of Ni , Vi , mi ,
i = 1, 2, and T , before the partition is removed.
(b) The partition is removed. Write down an expression for the total entropy, ST , in
terms of Ni , V ≡ V1 + V2 , mi , i = 1, 2, and T , after equilibrium is reached.
(c) Define the entropy of mixing as
∆S ≡ ST − (S1 + S2 ), (2.11.2)
and show that if the gases have the same densities, one has
 
N1 + N2 N1 + N2
∆S = kB N1 ln + N2 ln , (2.11.3)
N1 N2
which is positive, as expected (Why?).
(d) Now assume the molecules are identical. Show that even in this case one has
∆S > 0.
(e) The result in (2d) is obviously wrong, and is known as The Gibbs Paradox: one
should have ∆S = 0, since this particular mixing is a reversible process. Indeed,
by repositioning the partition in the same position, one recovers the initial state,
before mixing. In order to correct this, first show that (2.11.3) can be written as
∆S ≈ kB [ln(N1 + N2 )! − ln N1 ! − ln N2 !] . (2.11.4)
This suggests that the number of states is overestimated by a factor N !, due
to the indistinguishability of the particles. Hence, in going from one-particle
states to N -particles states, one must divide the outcome by N !. Show that by
incorporating this factor in the number of states leads to: (i) an extensive entropy,
and (ii) zero entropy of mixing for identical molecules.
3. Obtain the density of quantum states for non-interacting particles of mass m, in a d-
dimensional box of linear size L. The energy-momentum relation (dispersion relation)
for each particle is given by ε = aps .
4. Consider N practically uncoupled harmonic oscillators in the microcanonical ensem-
ble. The total energy of the system is
1
E = N hν + M hν
2
where ν is the common frequency of all oscillators, and M is an integer.
56 CHAPTER 2. EQUILIBRIUM ENSEMBLES AND THERMODYNAMICS

(a) Show that the number of states with energy E is given by

(M + N − 1)! E 1
Ω(M, N ) = , with M = − N. (2.11.5)
M !(N − 1)! hν 2

(b) Assuming N, M  1, show that the energy is expressed in terms of the temper-
ature as  
1 1
E = N hν + . (2.11.6)
2 ehν/kB T − 1
Sketch E/N hν as a function of kB T /hν, and discuss the limits of high and low
temperatures.
(c) Show that the chemical potential is given by

µ = kB T ln [2 sinh(hν/2kB T )] . (2.11.7)

Sketch µ/kB T as a function of kB T /hν, and discuss the limits of high and low
temperatures.

5. A system of N independent particles is such that each one of them can be in either
of two energy levels, ±ε0 .

(a) Determine the number of states with energy E = M 0 , M = −N, −N + 1, . . . , N


(b) Obtain the system temperature as a function of E.
(c) Make a sketch of S(E) and of T (E); consider both regions E > 0 and E < 0.
(d) Obtain the heat capacity, C ≡ dE/dT , and make a sketch of C(T ).

6. A system with N (  1) oscillators and total energy E is in thermal equilibrium.


Using the result of Prob. 4(a), obtain the probability that one oscillator is in state n,
with energy εn (n + 1/2)hν.

7. For a generic thermodynamic system, discuss the behaviour of E, S, CP , CV , αP ,


(∂P/∂T )V , and KT as T → 0.

The Hamiltonian for a system with N independent particles may be written as H =


8. P
N
i=1 Hi .

(a) Show that the classical partition function is given by

(Cl.) 1
ZN = [Z1 (T, V )]N
N!
where Z1 is the partition function for a single particle.
(b) Now let Hi = p2 /2m, and show that
1/2
h2

V
Z1 = 3 , with Λ = .
Λ 2πmkB T
2.11. EXERCISES 57

(c) Calculate the following quantities for the N -particle system: µ, P , S, E, CP , and
CV . Make sketches illustrating their dependence with the temperature. Which
of these quantities would be modified if we hadn’t included the factor (1/N !)?

9. Obtain the partition function Ξ(T, P, N ) for an ideal gas in the T -P canonical en-
semble, and derive the equation of state.

10. Derive the following relations:

KT (CP − CV ) = T V αP2 and CP (KT − KS ) = T V αP2 ,

where KX and CY are the compressibility (at constant X) and the heat capacity (at
constant Y ), respectively; αP is the coefficient of thermal expansion,
 
1 ∂V
αP = .
V ∂T P

11. (a) Derive the following Maxwell relation for a fluid system:
   
∂µ ∂V
= = v,
∂P T,N ∂N T,P

where v ≡ V /N = 1/n.
(b) Show that for an ideal gas at a given temperature T , the chemical potential
difference between an arbitrary pressure, P , and a reference pressure, P0 , is given
by
µ(P ) − µ(P0 ) = kB T ln (P/P0 ) .

(c) For the case of an incompressible liquid, the volume per particle, v ≡ V /N , is
independent of the pressure; show that in this case, one has

µ(P ) − µ(P0 ) = v (P − P0 ).

(d) Discuss the features common to the results obtained in (b) and (c).

12. Consider N uncoupled harmonic oscillators with frequency ω in the canonical ensem-
ble.

(a) Assuming the oscillators are classical, show that the partition function is given
by
 N
1
Z(T, N ) = , u ≡ ~ω/kB T,
u
and calculate the following quantities: µ, P , S, E, CP , and CV . Make sketches
of their dependence with the temperature.
58 CHAPTER 2. EQUILIBRIUM ENSEMBLES AND THERMODYNAMICS

(b) For quantum oscillators, show that the partition function is given by

Z(T, N ) = [2 sinh(u/2)]−N ,

and calculate the same quantities as in (a). Comment graphically on their main
differences relative to (a).

13. A monatomic gas coexists in equilibrium with the solid phase. Assume the energy
per atom necessary to transform solid in gas is φ, and adopt the Einstein model for
solids, namely each atom vibrates around its equilibrium position with frequency ω,
being therefore represented by a three-dimensional harmonic oscillator. Determine
the vapour pressure, P , as a function of temperature, T , for this system, and sketch
P (T ). Discuss physically the low- and high-temperature limits.

14. Consider a classical ideal gas of monatomic molecules.

(a) Show that the grand partition function is given by

Z = ezZ1 ,

where z is the fugacity, and Z1 = V /Λ3 is the partition function for a single
 1/2
molecule, with Λ = h2 /2πmkB T .
(b) Show that the average number of molecules is

hN i = zZ1

(c) Obtain the equation of state in terms of hN i.

15. Consider a monatomic crystal, made up of N atoms. The atoms may be located
in two kinds of positions: normal (filled circles in Fig. 2.10) or interstitial (empty
circles). Assume there are an equal number, N , of both kinds of positions, but the
energy of an atom on an interstitial position excedes by ε that of an atom on a normal
position.

(a) Show that the partition function for this system can be written as
X X
Z= Ω(n) e−βnε ≡ ζ(n), (2.11.8)
n n

where n (1  n  N ) is the number of occupied interstitial positions, and Ω(n)


is the number of ways these positions can be occupied.
(b) Show that the leading contribution to Ω(n) is
 2n
N
Ω(n) ∼ . (2.11.9)
n
2.11. EXERCISES 59

Figure 2.10: Problem 3: Lattice


sites are represented by full circles,
while intersticial sites are repre- Figure 2.11: Problem 4: Gas molecules are
sented by empty circles. adsorbed on a surface.

(c) Since Ω(n) increases rapidly with n, while exp(−βnε) decreases rapidly with n,
one expects a sharp maximum of ζ(n) at some n∗ . Show that

n∗
≈ e−βε/2 , (2.11.10)
N
and that the Helmholtz free energy becomes

A ≈ −kB T ln ζ(n∗ ). (2.11.11)

(d) Alternatively, we can calculate the Helmholtz free energy by first calculating the
entropy, S, associated with displacing n atoms to interstitial positions, and using
A = E − T S. Show that imposing A to be a minimum yields the same n∗ as in
(c).

16. A surface with M sites can adsorb atoms of an ideal gas (single atoms with mass m)
at a temperature T and pressure P ; see Fig. 2.11. An adsorbed atom has energy −ε0 ,
relative to the free case.

(a) Obtain an expression for the surface coverage, θ, (i.e., the ratio of the number of
adsorbed atoms by M , the number of adsorbing sites) as a function of P , T , and
ε0 .
(b) Discuss physically the behaviour of θ in the limits P → 0 and P → ∞.
60 CHAPTER 2. EQUILIBRIUM ENSEMBLES AND THERMODYNAMICS
Chapter 3

Ideal Systems in
Maxwell-Boltzmann Statistics
Refs.: Balescu, Pathria

3.1 Definition of Ideal Systems


In this Chapter we discuss applications to specific systems of the general theory
developed in the first two chapters. We will be concerned here with a special class of
systems, called ideal, whose Hamiltonians can be cast in the form
N
X
0
H = Hj0 , (3.1.1)
j=1

where Hj0 is a function solely of the coordinates and momenta of a finite (usually small)
number of degrees of freedom; this set is designated by j. Quantum mechanically, Hj0
is an operator acting solely in a finite set of coordinates in the configuration space.
A typical example is the case in which j involves the three translational degrees of
freedom of the molecule’s centre of mass; for polyatomic molecules, the degrees of
freedom describing their rotation and vibration must also be included. Accordingly,
in order to simplify the notation we will think of j as a ‘particle’, but always keeping
in mind that j may include both translational and internal degrees of freedom. It
is also worth stressing that Hamiltonians such as (3.1.1) may also describe systems
which are not composed of material particles, such as harmonic oscillators, phonons,
magnons, excitons, and so forth.
A very important property of the Hamiltonian (3.1.1) is additivity: it describes a set
of independent particles. We have already encountered applications of Hamiltonians
of this form in some problems of Chapter 2. In this Chapter we will consider ideal
‘classical’ systems, in the sense that quantum effects such as indistinguishability are
irrelevant: the motion of one particle is not influenced by any other. In this case, the
N -body problem reduces to N independent one-body problems: these systems are

61
62 CHAPTER 3. IDEAL SYSTEMS IN MAXWELL-BOLTZMANN STATISTICS

therefore described by the so-called Maxwell-Boltzmann statistics. As we will see in


Chapter 4, indistinguishability imposes stringent constraints on the wave functions,
leading to surprising quantum behaviours. These quantum gases are described by
either Bose-Einstein (particles with integer spin) or Fermi-Dirac (half-integer spins)
statistics, but, in such way their high temperature or low-density limits must repro-
duce the results from Maxwell-Boltzmann statistics.
One of the most significant aspects in the study of ideal systems is their simplicity, for
these are the Statistical Mechanical models which can be treated more thoroughly,
and even exactly in some cases. However, one must always keep in mind that ideal
systems do not exist in Nature. Attempts to insist in this concept may lead to
severe inconsistencies: it can be shown [see, e.g. Ref. [1], Chapter 13] that a system
starting from an arbitrary state will never reach thermodynamic equilibrium, if it is
described by Eq. (3.1.1). This is due to the fact that it is the interaction between
the constituents which provides the crucial mechanism to drive the system towards
equilibrium. If the interactions are small, in some sense, the equilibrium properties
of the system are described by a distribution (or density operator) corresponding to
that of an ideal system with corrections.

3.2 The Boltzmann Gas


The derivation of thermodynamic properties of real systems reduces essentially to
a Quantum Mechanical problem, but in some cases one may neglect the effects of
indistinguishability. We have already seen that the high temperature (or low density)
behaviour of the translational degrees of freedom associated with the motion of non-
interacting molecules in a gas is the same whether the system is treated classically or
quantum mechanically; this highlights the irrelevance of quantum indistinguishability
in this regime. Further, as we will see in this Chapter, interesting thermodynamical
properties are associated with the internal degrees of freedom of dilute molecular
gases, which do not involve quantum effects associated with indistinguishability. An-
other situation occurs when the relevant degrees of freedom are attached to sites of a
lattice, thus becoming distinguishable.
The combination of these two aspects, namely the separability of the Hamiltonian
and the lack of wave function symmetrisation constraints renders the calculations
very simple, as we will see through some examples.
Before discussing these examples, let us see how the Gibbs prescription arises quite
naturally as the dilute limit of indistinguishability. To this end, let us consider a gas
with N identical and independent particles. The energy of a given configuration may
be written as
XN
E= ε(j) , (3.2.1)
j=1

where ε(j) is the energy level occupied by particle j.


3.3. PARAMAGNETISM OF LOCALISED SPINS. 63

As a first attempt, we may write the partition function as

ε(j)
XX X P
Z0 = ··· e−β j , (3.2.2)
m(1) m(2) m(N )

where the sums are carried out over all states, characterised by m(j) , of particle j.
Typically, m(j) are the position and momentum components of the centre of mass of
each molecule, rotational and vibrational quantum numbers, spins, etc.
As mentioned before, this expression overestimates the number of accessible states:
a given distribution of particles amongst the various states {mk }, characterised by
the occupation numbers {nk }, may be obtained in N !/n1 !n2 ! . . . distinct ways. Given
that all these ways correspond to the same configuration, each term of the partition
function sum must be divided by this factor,
X X n1 !n2 ! . . . P (j)
Z= ··· e−β ε . (3.2.3)
N!
m(1) (N )
m

At low temperatures, the dominant terms in (3.2.3) come from the lowest energy
levels; that is, quantum effects must be important. At high temperatures, a large
number of energy levels contribute to Z: all energy levels are equally likely to be
occupied by the N particles, so that the corresponding occupation numbers are mostly
nk = 0 or 1, hence nk ! = 1 for the majority of configurations. Similarly, for gases at
low densities, N/V  1, we may also take nk ! ' 1. Therefore, under either of these
conditions we may write

1 X X P (j)
Z= ··· e−β ε , (3.2.4)
N ! (1) (N )
m m

which corresponds to the classical analogue: particles are considered as nearly dis-
tinguishable, with the ‘nearly’ being due to the factor 1/N !. For particles bound to
lattice sites, the 1/N ! factor should not be considered, since the particles are, in fact,
distinguishable for they occupy the given sites. These situations will be discussed in
the remainder of this Chapter.

3.3 Paramagnetism of localised spins.

The magnetic moment of an atom is given by


 e 
µ= g Jop , (3.3.1)
2mc
where the total angular momentum operator is Jop = Lop + Sop , with Lop and Sop
being the orbital and spin angular momentum operators, respectively. This sum of
64 CHAPTER 3. IDEAL SYSTEMS IN MAXWELL-BOLTZMANN STATISTICS

operators is carried out according to the usual rules of addition of angular momentum
2 ,
(see, e.g. Ref. [7]) leading to the possible eigenvalues of Jop

1 3 5
J(J + 1) ~2 with J = , , . . . or J = 0, 1, 2 . . . , (3.3.2)
2 2 2
since |L − S| ≤ J ≤ L + S, where the eigenvalues of L2op and S2op are L(L + 1)~2 and
S(S + 1)~2 , respectively. Further, the proportionality constant in (3.3.1), ge/2mc, is
the dipole’s gyromagnetic ratio, with g being the Landé factor, given by

3 1 S(S + 1) − L(L + 1)
g= + . (3.3.3)
2 2 J(J + 1)

Now consider a system with N of these magnetic dipoles, each of which with a moment
µi located on the site i of a lattice. In a first approximation, we neglect the interaction
between the dipoles,1 and assume they are in the presence of an external magnetic
field, H, in the direction of which they tend to align.
The system is therefore described by the Hamiltonian,
N
X
H=− µi · H. (3.3.4)
i=1

Taking H in the z-direction, Eq. (3.3.4) becomes


X X
H = −H µzi = −gµB H mi , (3.3.5)
i i

where in the second equality we introduced the Bohr magneton, µB = e~/2mc, and
z /~: m = −J, −J + 1, . . . , J.
the mi ’s are the eigenvalues of Jop i

The partition function for the N independent dipoles is therefore factorised,

ZN = (Z1 )N , (3.3.6)

where
J
X 1 − e(2J+1)x
Z1 = emx = e−xJ , (3.3.7)
1 − ex
m=−J

with x ≡ gµB H/kB T , or

sinh J + 12 x
  
Z1 (H, T ) = . (3.3.8)
sinh 12 x
 

1
Similarly to what happens in gases, the interaction between dipoles provides the mechanism by
which equilibrium is achieved when the external conditions are changed. Further, the interaction must
also be taken into account if one wants to describe the phase transition between demagnetised and
magnetised states.
3.3. PARAMAGNETISM OF LOCALISED SPINS. 65

1.0

BJ (x)

0.5

J=1/2
J=1
J=2
J=20

0.0
0.0 1.0 2.0 3.0 4.0
x
Figure 3.1: The Brillouin function [Eq. (3.3.12)] plotted as a function of x ≡ gµB H/kB T , for different values of J.

The average magnetic moment is the magnetisation per spin, and may be obtained
as !
1 X 1 X X
M = hµzi i = e−βH µzi = e−βH µzi , (3.3.9)
Z NZ
{m} {m} i

where a uniform magnetisation, i.e. µi = µ, ∀i, was assumed. Hence,

1 ∂ 1 ∂
M= ln Z = − G(T, H), (3.3.10)
N β ∂H N ∂H

where we have now identified G = −kB T ln Z, since the independent variables are T
and H, following the discussion of §2.6 about the free energy of a fluid at constant
pressure.
Explicitly we have,
1 ∂
M= ln Z1 = µ BJ (x), (3.3.11)
β ∂H
where µ ≡ gµB J, and the Brillouin function of ordem J is
      
1 1 1 1
BJ (x) = 1 + coth 1 + x − coth x , (3.3.12)
2J 2J 2J 2J

and is shown in Fig. 3.1.


It is instructive to examine some limiting cases. For strong fields and/or low temper-
atures, x  1, one has BJ (x) ≈ 1, for all J; this corresponds to magnetic saturation,
66 CHAPTER 3. IDEAL SYSTEMS IN MAXWELL-BOLTZMANN STATISTICS

when all moments are aligned with the field. On the other hand, for weak fields
and/or high temperatures, x  1, the behaviour of BJ is linear with x,
1
BJ (x) ' (1 + 1/J) x, (3.3.13)
3
but with a slope dependent on J: maximum when J = 1/2 and minimum in the
classical limit, J → ∞; see Fig. 3.1.
The intensive isothermal magnetic susceptibility,

1 ∂2G
   
∂M
χT = =− , (3.3.14)
∂H T N ∂H 2 T

is then given by
∂M ∂x g 2 µ2B J(J + 1) C
χT = = ≡ , (3.3.15)
∂x ∂H 3kB T T
which is known as Curie’s law: χ ∼ 1/T .
The limit of classical dipoles is recovered if one takes J → ∞ with g → 0, such that
µ ≡ gµB J → constant.
Let us now specialise to J = 1/2, which simplifies the calculations considerably while
keeping the results very illustrative. Each dipole now has only two orientations,
corresponding to the energies ±ε, ε = µH, with µ = 2µB . With x ≡ 2µB /kB T , the
partition function becomes

ZN (T, H) = [2 cosh x]N , (3.3.16)

from which the free energy is obtained as

G = −N kB T ln(2 cosh x). (3.3.17)

From the free energy we get,


 
∂G
S=− = N kB [ln(2 cosh x) − x tanh x] , (3.3.18)
∂T H
 

E≡− ln Z = −N ε tanh x, (3.3.19)
∂β
 
1 ∂G
M=− = µ tanh x, (3.3.20)
N ∂H T
 
∂E
CH = = N kB x2 sech2 x. (3.3.21)
∂T H

Before attempting to plot these results, we note that the above equations illustrate
the importance of using the ratio, x, of the two relevant energy scales of the problem,
namely magnetic, ε, and thermal, kB T . Accordingly, the temperature dependence is
3.3. PARAMAGNETISM OF LOCALISED SPINS. 67

highlighted by plotting all the above quantities as functions of kB T /ε = 1/x, as in


Fig. 3.2.
From the figure we first note that S → 0 when kB T  ε, in agreement with the Third
Law of Thermodynamics. Indeed, when T → 0 the ground state is unique, Ω = 1,
corresponding to all spins aligned with the field; hence S = kB ln Ω = 0. On the
other hand, at high temperatures, kB T  ε, the spins are practically independent so
that the 2N possible configurations give rise to a macroscopic entropy, S/N kB = ln 2.
The fastest growth of the entropy occurs when kB T ∼ ε, signalling that many states
become accessible in this range of temperatures.
Figure 3.2 also shows the temperature dependence of the internal energy. As expected,
E/N ε is minimal when T → 0, corresponding to the ground state energy of N aligned
spins, each contributing with the energy −ε; hence E/N ε → −1. As T increases, so
does the internal energy, though reaching a saturation value E = 0, when x  1.
Indeed, in this limit each single particle state becomes equally likely, contributing
with zero energy to the average. We also note that the existence of a saturation value
of the internal energy at high temperatures is a peculiarity of the finite number of
single-particle states, which will be exploited below; this should be contrasted with
‘normal’ systems, such as an ideal gas, for which the internal energy grows indefinitely
with the temperature.
The magnetisation also displays two distinct regimes, according to x; see Fig. 3.2.
When kB T  ε, the magnetisation saturates due to the low occurrence of misaligned
spins, while in the opposite limit of high temperature, x  1, each spin is likely to
point up or down, thus contributing with zero magnetisation.
With respect to the heat capacity, first we must note that for x  1 we have

∆ 2 −∆/kB T
 
CH
∼ e , (3.3.22)
N kB kB T
where ∆ = 2ε is the energy gap between the ground state, E0 = −N ε, and the
first excited state, E1 = −(N − 2)ε. Therefore, in the presence of a gap in the
spectrum, the low-temperature heat capacity vanishes exponentially. Given that the
heat capacity is a readily measurable quantity, it is an important asset in the study
of spectral properties. For instance, the existence of a gap in the superconducting
state (but not in the normal state) has shed light into the mechanism responsible for
the appearance of a zero-resistance state in conventional superconductors. Another
important feature of the heat capacity is the maximum around x ∼ 1 – maxima of this
sort in C are called Schottky anomalies –, which reflects the inflection point in E(T ),
due to the saturation of the internal energy at high temperaures. And, finally, when
kB T  ε, CH → 0, also a manifestation of the saturation of E at high temperatures.

Temperatura Negativa
A Eq. (3.3.19) nos mostra que, enquanto E < 0, o sistema é ‘normal’, isto é, T > 0.
Se E > 0, temos que ter, necessariamente T < 0. Este fato requer uma discussão mais
68 CHAPTER 3. IDEAL SYSTEMS IN MAXWELL-BOLTZMANN STATISTICS

1.0

ln 2

0.0
S/NkB
E/N
M/µ
CH/NkB

−1.0
0.0 1.0 2.0 3.0 4.0
kBT/

Figure 3.2: Plots of Eqs. (3.3.18)-(3.3.21) as functions of temperature (in units of ε/kB ). The vertical axes are
scaled in order to render the quantities intensive and dimensionless.

detalhada. Uma análise no ensemble microcanônico (veja Exercı́cio 2.5) nos fornece
a entropia como função da energia interna; o resultado está mostrado na Fig. 3.3(a).
A partir de S(E, N ) podemos obter a temperatura como
 
1 ∂S
= , (3.3.23)
T ∂E N

[veja a Fig. 3.3(b)], mostrando que, efetivamente, T < 0 para E > 0. Esta região é
anormal, porque corresponde à magnetização em oposição ao campo [c.f. Eq. (3.3.20)].
Mesmo assim, esta situação pode ser realizada experimentalmente num sistema de mo-
mentos nucleares em uma rede, em que o tempo de relaxação t1 de interações mútuas
é muito menor do que o tempo de relaxação t2 da interação dos momentos com a rede;
veja N.F. Ramsey, Phys. Rev. 103, 20 (1956), e referências lá contidas. Isto significa
que ao aplicarmos um campo forte neste cristal e depois revertê-lo rapidamente, os
spins não terão tempo suficiente de acompanhar a reversão. Isto deixa os spins fora
de equilı́brio com a rede, porém em equilı́brio entre si, com uma energia maior do que
seria o novo valor de equilı́brio E. Podemos pensar no subsistema de spins como se
estivesse a T < 0, enquanto que o subsistema da rede está a T > 0, após decorrido
t1 . Ao atingirmos t2 , os dois subsistemas estarão em equilı́brio mútuo, a uma tem-
peratura positiva; esta temperatura corresponde à energia sendo cedida pelos spins à
rede, já que T < 0 é, na realidade, mais ‘quente’ do que T > 0.
Para concluir, notemos que temperaturas negativas só ocorrem quando a energia do
sistema tem um limite superior, o que faz com que a entropia (como função de E)
3.4. MOLECULAR GAS 69

1.0
(a)
S/NkB
0.5

0.0
10
(b)
kBT/

−10
−1.0 −0.5 0.0 0.5 1.0
E/N

Figure 3.3: (a) Entropy (per particle, in units of kB ) and (b) temperature (in units of ε/kB ) as functions of energy
(per particle, in units of ε).

decresça. Isto não ocorre na maioria dos sistemas, já que a energia cinética das
partı́culas faz com que a energia interna não tenha limite superior.

3.4 Molecular Gas

Vejamos agora como a Estatı́stica de Boltzmann se aplica a um sistema ideal com


graus de liberdade de translação e graus de liberdade internos.
A Eq. (3.2.4) nos dá
 
N
1 Y  X −βε(j)  1
Z(T, V, N ) = e = Z1N , (3.4.1)
N! N !
j=1
(j) m

onde a última igualdade segue da suposição das partı́culas serem idênticas, e


X
Z1 = e−βε , (3.4.2)
m

onde a soma é feita sobre todos os estados de uma partı́cula.


The Helmholtz free energy is given by

A(T, V, N ) = kB T ln(N !) − N kB T ln Z1 (T, V ). (3.4.3)


70 CHAPTER 3. IDEAL SYSTEMS IN MAXWELL-BOLTZMANN STATISTICS

For N  1 we can use Stirling’s formula,

ln N ! ' N ln N − N, (3.4.4)

to write he i
A(T, V, N ) ' −N kB T ln Z1 (T, V ) . (3.4.5)
N
Para moléculas, a energia pode ser escrita como

ε = εtr + εi , (3.4.6)

onde εtr é a energia associada ao movimento de translação do centro de massa, e εi cor-


responde aos graus de liberdade internos (rotações, vibrações, excitações eletrônicas,
etc.). Como estes dois termos dependem de variáveis desacopladas (i.e., as Hamiltoni-
anas correspondentes comutam), a função de partição Z pode ser novamente fatorada

Z1 = Z1tr Zi , (3.4.7)

once Zi é a função de partição para os grau de liberdade internos de uma única


molécula.
Na ausência de campos externos,

p2
εtr = , (3.4.8)
2m
onde os valores permitidos de px , py e pz dependem do tamanho e da forma da caixa
que contém as moléculas, bem como das condições de contorno. Antes de explicitar
a função de partição para o gás ideal, ressaltemos que uma grandeza importante é o
comprimento de onda térmico,2
s
h2
Λ≡ , (3.4.9)
2πmkB T

que cresce à medida em que a massa das patı́culas ou a temperatura diminuem; assim,
esta grandeza fornece uma escala de comprimentos para a predominância de efeitos
quânticos. No caso do gás ideal, a função de partição então assume uma forma simples
[veja Exercı́cios 2.9 e 3.1],
V
Z1tr = 3 . (3.4.10)
Λ
Note que este é o mesmo resultado obtido para o caso clássico, já que no cálculo
considera-se p como variável contı́nua, ignorando a quantização; efeitos quânticos só
seriam perceptı́veis caso a caixa fosse do tamanho tı́pico das moléculas. Conclui-se,
então, que na maioria dos casos de interesse, os graus de liberdade translacionais
2
Strictly speaking this is not the thermal wavelength, λT , associated with a particle of mass m and
kinetic energy 3kB T /2, leading to λT ≈ 1.45 Λ. For our purposes here, however, we consider this a
negligible difference.
3.4. MOLECULAR GAS 71

podem ser tratados classicamente. Uma exceção importante é o gás bosônico ideal
a temperaturas muito baixas; veja a Seção 4.5. Note também que se imaginarmos
que o volume seja uma caixa cúbica de lados L, podemos escrever Z1tr = (L/Λ)3 ,
ressaltando que a função de partição de uma partı́cula livre é expressa como a razão
entre as duas escalas de comprimento relevantes, elevada à dimensão espacial, no caso
3.
A Eq. (3.4.5) então fica

eV
A(T, V, N ) = −N kB T ln Zi , (3.4.11)
N Λ3
com X
Zi = gi e−εi /kB T , (3.4.12)
εi

onde gi é a degenerescência do nı́vel εi .


Neste ponto precisarı́amos conhecer detalhes a respeito da estrutura interna das
partı́culas para descrever o sistema em mais detalhes, o que será feito adiante. Por
ora, ainda podemos extrair informações importantes a partir de (3.4.11).
Primeiramente, notemos que a função de partição interna não pode depender do
volume do sistema, pois a escala relevante de comprimentos é atômica. Assim, Zi é
função apenas da temperatura. Podemos então escrever

A(T, V, N ) = Atr (T, V, N ) + N ai (T ), (3.4.13)

com  
eV
Atr (T, V, N ) = −N kB T ln , (3.4.14)
N Λ3
e
ai (T ) = −kB T ln Zi (T ). (3.4.15)

A partir de (3.4.14) obtemos a pressão como


 
∂A N kB T
P =− = , (3.4.16)
∂V T,N V

que é o resultado conhecido do gás ideal. Isto confirma que a estrutura interna das
moléculas que compõem o gás ideal é irrelevante na determinação da equação de
estado.
O potencial quı́mico fica  
∂A
µ= = µ0 + µi , (3.4.17)
∂N T,V

onde
N Λ3
 
µ0 = kB T ln (3.4.18)
V
72 CHAPTER 3. IDEAL SYSTEMS IN MAXWELL-BOLTZMANN STATISTICS

é o potencial quı́mico devido ao movimento de translação, e

µi ≡ ai (T ) (3.4.19)

corresponde aos graus de liberdade internos.


A entropia do sistema é obtida como
 
∂A
S=− = Str + N si (T ), (3.4.20)
∂T V,N

onde !
e5/2 V
Str = N kB ln (3.4.21)
N Λ3
e si = −dai /dT é a entropia associada aos graus de liberdade internos. A energia
interna é dada por
E = A + T S = Etr + N ei (T ), (3.4.22)
com
3N
Etr = kB T (3.4.23)
2
e
ei = ai (T ) − T a0i (T ). (3.4.24)
A Eq. (3.4.23) reflete o princı́pio da equipartição da energia, válido apenas para sis-
temas clássicos: a cada termo quadrático da Hamiltoniana corresponde 12 kB T na ener-
gia interna. É interesante notar também que para um gás ideal composto de partı́culas
sem estrutura (tais como elétrons e átomos a temperaturas tais que a excitação
eletrônica possa ser desprezada), tem-se ai (T ) = 0. Ademais, as Eqs. (3.4.22)-(3.4.24)
também recuperam o resultado conhecido de que a energia interna por partı́cula de
um gás ideal é função apenas da temperatura.
A capacidade calorı́fica é obtida como
 
∂E 3
CV = = N kB − T a00i (T ). (3.4.25)
∂T N,V 2

Note que, para partı́culas sem estrutura, CV é constante: toda a dependência com a
temperatura vem da estrutura interna das partı́culas.
Façamos agora um estudo mais detalhado da estrutura interna das partı́culas. Cada
molécula é composta de átomos formando uma estrutura, caracterizada por um certo
número de parâmetros relativos aos diferentes movimentos com relação ao seu centro
de massa. Por exemplo, um momento principal da inércia Ij é associado com cada
grau de liberdade rotacional, uma freqüência caracterı́stica νk é associada com cada
grau de liberdade vibracional, e uma energia de excitação eletrônica ∆ε` é associ-
ada com cada estado eletrônico. Todos estes graus de liberdade contribuem para a
Hamiltoniana e, via função de partição, para as propriedades termodinâmicas. Além
3.4. MOLECULAR GAS 73

Θrot (K) Θvib (K)


H2 85.5 6140
CO 2.77 3120
O2 2.09 2260
Cl2 0.347 810
Br2 0.117 470
Na2 0.224 230
K2 0.081 140

Table 3.1: Temperaturas caracterı́sticas para alguns gases diatômicos.

destes, existem graus de liberdade nucleares, que podem ser importantes em alguns
casos, mas que não serão tratados aqui.
Considerando que cada molécula se encontre no estado fundamental eletrônico,3 isto
é, que kB T  ∆ε` , a função de partição Zi envolve apenas os movimentos de rotação
e vibração. Numa primeira aproximação, estes graus de liberdade podem ser consid-
erados como desacoplados, o que nos permite escrever

Zi = Zrot Zvib , (3.4.26)

e
ai = arot + avib . (3.4.27)

Note que o espaçamento entre os nı́veis de energia associados aos diferentes pro-
cessos dinâmicos depende dos parâmetros caracterı́sticos, mencionados acima. Para
temperaturas tais que kB T seja muito menor que este espaçamento, a agitação térmica
não pode induzir transições para estados excitados. Neste caso, Zi não depende da
temperatura e a contribuição para o calor especı́fico é nula. Diz-se que nesta temper-
atura o grau de liberdade correspondente está congelado. No outro limite, a temperat-
uras em que kB T é muito maior que as separações, as energias podem ser consideradas
como contı́nuas e o sistema se comporta classicamente. Podemos definir uma tem-
peratura caracterı́stica, Θi , associada a este grau de liberdade (veja a Tabela 3.1):
ela mede, essencialmente, o espaçamento tı́pico entre os nı́veis. Esta discussão pode
ser resumida na Fig. 3.4, que representa um processo dinâmico qualquer (rotação ou
vibração) com f graus de liberdade. Estudemos agora, em detalhes, os movimentos
de rotação e vibração moleculares, em casos simples.

3.4.1 Rotation of Diatomic Molecules

Neste caso, a molécula pode ser pensada como um rotor rı́gido, cujos nı́veis de energia
são dados por
L2 ~2
εrot = = j(j + 1) ; j = 0, 1, 2 . . . (3.4.28)
2I 2I
3
Desprezamos aqui a estrutura fina das moléculas
74 CHAPTER 3. IDEAL SYSTEMS IN MAXWELL-BOLTZMANN STATISTICS

CV
NkB
f
2

congelado classico

i T

Figure 3.4: Generic behaviour of the specific heat as a function of temperature, for a system with f quadratic
degrees of freedom in the Hamiltonian. These degrees of freedom crossover from frozen to ‘classic’ at the charac-
teristic temperature Θi ; see text.

onde I é o momento de inércia da molécula. Cada nı́vel rotacional tem degenerescência


g = 2j + 1, e a temperatura caracterı́stica é definida como
~2
Θrot = . (3.4.29)
2IkB

Para moléculas heteronucleares, a função de partição é dada por



X
Zrot = (2j + 1) e−j(j+1)Θrot /T , (3.4.30)
j=0

que não pode ser calculada analiticamente no caso geral. Todavia, como indicado na
Tabela 3.1, em geral Θrot é pequeno (menor que ∼ 10 meV ' 102 K; 1eV ' 1.2×104 K),
de modo que para temperaturas T  Θrot , os nı́veis de energia formam um quase-
contı́nuo e podemos fazer a aproximação clássica, que consiste em substituir a soma
pela integral Z ∞
T
Zrot ≈ dj (2j + 1) e−j(j+1)Θrot /T = . (3.4.31)
0 Θrot
Para moléculas homonucleares, duas orientações diferindo de π são idênticas e, por-
tanto, indistinguı́veis. Assim, introduzindo um número de simetria σ (σ = 1, para
heteronucleares e σ = 2 para homonuncleares), temos
T
Zrot ' , T  Θrot , (3.4.32)
σΘrot
o que fornece as seguintes contribuições:

arot = −kB T (ln T /σΘrot ) (3.4.33)


Srot /N = kB ln(T /σΘrot ) + kB (3.4.34)
Erot /N = kB T (2 graus de lib. por moléc., p2θ e p2ϕ ) (3.4.35)
CV, rot /N = kB . (3.4.36)
3.4. MOLECULAR GAS 75

CV,rot C V,k
NkB NkB
1 1

0.5 1.0 T / rot 0.5 1.0 T/ k

Figure 3.5: Temperature dependence of the specific Figure 3.6: Temperature dependence of the specific
heat associated with molecular rotations; see text. heat associated with molecular vibrations; see text.

Uma aproximação melhor pode ser obtida usando a fórmula (veja Balescu para de-
talhes)
∞ ∞
1 1 0 1 000
X Z
f (n) = f (x) dx + f (0) − f (0) + f (0) − · · · , (3.4.37)
0 2 12 720
n=0

o que nos dá


 2
T 1 1 Θrot 4 Θrot
Zrot (T ) = + + + + ··· , (3.4.38)
Θrot 3 15 T 315 T

e, para o calor especı́fico,


(  2  3 )
1 Θrot 16 Θrot
CV, rot = N kB 1+ + + ··· , (3.4.39)
45 T 945 T

de modo que as correções ao resultado clássico são positivas; veja a Fig. 3.5.
Para T  Θrot , apenas os primeiros termos em (3.4.30) precisam ser considerados, o
que nos dá
Zrot ' 1 + 3e−2 Θrot /T + 5e−6 Θrot /T + O(e−10 Θrot /T ), (3.4.40)

de modo que o calor especı́fico fica


 2
Θrot
CV,rot ' 12N kB e−2Θrot /T . (3.4.41)
T

Como discutido na seção anterior, o comportamento exponencial do calor especı́fico


a baixas temperaturas sinaliza a presença de um gap no espectro de energia.
76 CHAPTER 3. IDEAL SYSTEMS IN MAXWELL-BOLTZMANN STATISTICS

c [cal/(mol K)]
7R/2

5R/2

3R/2

10 50 500 1000 5000


T [K]
Figure 3.7: Temperature dependence of the specific heat for a gas of diatomic molecules, over a range of temper-
atures wide enough to follow a succession of frozen to classic crossovers; see text.

3.4.2 Molecular Vibration

Considerando pequenas amplitudes, o movimento vibracional de moléculas poliatômicas


pode sempre ser descrito como uma superposição de f osciladores harmônicos inde-
pendentes (os modos normais de vibração), cada um com frequência caracterı́stica
νk . Para moléculas n-atômicas, o número de modos normais é f = 3n − 5 (moléculas
lineares) e f = 3n − 6 (em outros casos); note que moléculas diatômicas só têm um
modo normal.
A Tabela 3.1 dá uma idéia da faixa de temperaturas (Θvib ) em que as vibrações são
importantes. Assim, para T ∼ 104 K todos os modos normais estão excitados (região
clássica), enquanto que para T . 102 K os modos vibracionais estão congelados.
Note que as temperaturas não podem ser muito altas ( 104 K) para não excitarmos
vibrações nucleares.
Como os osciladores são independentes, a energia de cada um é dada por

f  
X 1
εvib = vk + ~ ωk ; vk = 0, 1, 2, . . . , (3.4.42)
2
k=1

e a função de partição por


f
Y
Zvib = Zk . (3.4.43)
k=1

O fato da função de partição ser escrita como um produto de funções relativas a


cada modo nos permite analisar a contribuição de cada modo separadamente, como
faremos a seguir.
3.5. EXERCISES 77

Definindo a temperatura caracterı́stica do modo k como Θk = hνk /kB , obtemos



X e−Θk /2T
Zk = e−(v+1/2)Θk /T = , (3.4.44)
v=0
1 − e−Θk /T

o que nos dá


1
ak = kB Θk + kB T ln(1 − e−Θk /T ), (3.4.45)
2
 
−Θk /T Θk
sk = −kB ln(1 − e ) + kB (eΘk /T − 1)−1 , (3.4.46)
T
1
ek = kB Θk + kB Θk (eΘk /T − 1)−1 , (3.4.47)
2
e 2
eΘk /T
  
Θk Θk
cV,k = kB ≡ kB E ; (3.4.48)
T [eΘk /T − 1]2 T
a Eq. (3.4.48) define a função de Einstein, E(x).
Note que quando T  Θk , cV,k ∼ e−Θk /T , novamente refletindo a presença de um
gap ; para T  Θk , cV,k ∼ kB , representando a excitação de um modo normal clássico
(um modo normal contribui com p2 e q 2 na Hamiltoniana clássica). O calor especı́fico
de cada modo vibracional tem a forma esboçada na Fig. 3.6.
Na Fig. 3.7 fazemos um esboço do calor especı́fico englobando as contribuições rota-
cionais e vibracionais para uma molécula diatômica. Esta discussão mostra como
a Mecânica Estatı́stica pode prever o comportamento observado, mesmo na aprox-
imação de gases ideais.

3.5 Exercises
1. Considere um sistema quântico dePN partı́culas independentes, cuja Hamiltoniana
pode ser escrita sob a forma H = N 2
i=1 Hi , com Hi = p /2m. Mostre que a função
de partição na Estatı́stica de Maxwell-Boltzmann é igual à do caso clássico, obtida
no Exercı́cio 9 do Capı́tulo 2. Por que isto ocorre?
2. Considere N partı́culas clássicas não-interagentes, cada uma com energia ε = λpn
(p é o momento linear), ocupando uma caixa d-dimensional de volume V = Ld .
Obtenha a pressão do gás e as dependências da energia interna e do calor especı́fico
com a temperatura. Qual a relação entre a pressão e a energia interna?
3. Um gás ideal consiste de moléculas do tipo A, do tipo B, e do tipo AB, em
constante processo de dissociação: A + B AB. Obtenha a lei de ação das
massas,
3/2 0
(mA + mB )h2

nAB zAB W0 /kB T
= 0 z0 e ,
nA nB 2πmA mB kB T zA B
78 CHAPTER 3. IDEAL SYSTEMS IN MAXWELL-BOLTZMANN STATISTICS

onde nX , X = A, B, AB, é a concentração (i.e., número por volume) de moléculas


do tipo X, zX 0 é a função de partição para os graus de liberdade internos de

cada molécula, em que os zeros de energia são tomados como as energias dos
estados fundamentais de cada molécula (excluindo vibrações de ponto zero); assim,
W0 ≡ ε0A + ε0B − ε0AB é a diferença entre os zeros de energia.
4. Uma superfı́cie tem M sı́tios onde moléculas podem ser adsorvidas. Ao ser ad-
sorvida, uma molécula tem energia −ε0 relativa à energia de uma molécula livre.
Suponha que N moléculas de spin-1/2 sejam adsorvidas nesta superfı́cie, onde,
por sua vez, atua um campo magnético h (em unidades de gµB ). Desprezando
interações entre as moléculas adsorvidas, calcule:
(a) o potencial quı́mico das moléculas como função de T , M , N e h;
(b) a magnetização por partı́cula para o sistema de moléculas adsorvidas.
5. Um gás monoatômico coexiste em equilı́brio com a fase sólida. Suponha que a
energia por átomo necessária para transformar sólido em gás seja φ, e adote o
modelo de Einstein para sólidos – cada átomo pode ser representado por um os-
cilador harmônico tri-dimensional de freqüência ω, vibrando independentemente
em torno de sua posição de equilı́brio. Obtenha a pressão de vapor deste sistema,
P , como função de T , e faça um esboço de P (T ).
6. Um cristal perfeito é formado por N átomos distribuı́dos regularmente. Se deslo-
carmos n (1  n  N ) destes átomos para posições intersticiais da rede, teremos
um cristal imperfeito, dito do tipo Frenkel. Suponha que o número de sı́tios in-
tersticiais, N 0 , que podem alocar os átomos deslocados seja da mesma ordem de
grandeza de N , e seja w a energia necessária para remover um átomo de um sı́tio
da rede para uma posição intersticial.
(a) Calcule a entropia do sistema com n defeitos;
(b) O estado de equilı́brio corresponde a um mı́nimo da energia livre de Helmholtz.
(Por quê?). Imponha esta condição para mostrar que

n ≈ N N 0 e−w/2kB T

7. An ideal monatomic gas occupies a box of volume V . For each of the N atoms
of mass m, the fine structure in the ground state gives rise to a doublet of states
with degeneracies g0 and g1 , separated in energy by ∆ ≡ ε1 − ε0 . Determine the
specific heat of this gas as a function of temperature; make a sketch of CV /N kB ×T
indicating the relevant quantities. Comment on the limitations of the results you
obtained.
Chapter 4

Ideal Systems in Bose and Fermi


Statistics
Refs.: Balescu, Huang, Pathria

4.1 Indistinguishability
Vejamos agora quais as conseqüências do fato de que as partı́culas são indistinguı́veis.
Consideremos, por simplicidade, um sistema de N partı́culas não interagentes, e indis-
tinguı́veis. A Hamiltoniana do sistema é, então, escrita como
N
X
H= Hi0 . (4.1.1)
i=1

Hi0 é função apenas de operadores que atuam na partı́cula i, de modo que todos os Hi0
são formalmente idênticos, e definem o assim chamado ‘problema de uma-partı́cula’,
H0 φm (r) = εm φm (r). (4.1.2)
O ı́ndice i foi omitido por ser genérico neste caso, e suporemos que as autofunções de
(4.1.2) gerem um espaço de estados de dimensão N , que é, também, o número de valores
distintos de m.1
A equação de Schrödinger independente do tempo fica
H ΨE (r1 , r2 , . . . rN ) = E ΨE (r1 , r2 , . . . rN ), (4.1.3)
na representação das coordenadas; E é o autovalor de H correspondente à energia total
do sistema. Como H é separável, uma possı́vel solução de (4.1.3) pode ser escrita como
N
Y
Ψ0E (r1 , r2 , . . . rN ) = φmi (ri ), (4.1.4)
i=1
1
Note que m, em geral, representa um conjunto de números quânticos que caracterizam o estado de
uma partı́cula, como, por exemplo, {k, σ}, i.e., o momento linear e a projeção de spin; neste caso, N
representaria o número de conjuntos de m distintos. Por outro lado, no que se segue faremos menção a
um conjunto {m} (de N elementos) referente aos possı́veis mi associados a cada uma das N partı́culas:
a confusão entre estes dois conjuntos deve ser evitada.

79
80 CHAPTER 4. IDEAL SYSTEMS IN BOSE AND FERMI STATISTICS

com
N
X
E= εm i . (4.1.5)
i=1

Claramente Ψ0E não reflete o fato de que as partı́culas são indistinguı́veis: ao permu-
tar quaisquer duas, obteremos uma outra função. Para satisfazer a indistinguibilidade,
devemos tomar uma combinação linear de Ψ0E ,
XX X
ΨE (r1 , . . . rN ) = ··· C(m1 , m2 . . . mN ) φm1 (r1 ) φm2 (r2 ) · · · φmN (rN ), (4.1.6)
m1 m2 mN

com os coeficientes, C, sujeitos a certas restrições. A primeira destas requer que os C’s
se anulem cada vez que o conjunto de números quânticos ({m} ≡ {m1 , m2 , . . . , mN })
não coincidir com o previamente determinado pelas Eqs. (4.1.3) a (4.1.5). A segunda re-
presenta a imposição de indistinguibilidade: ao permutarmos duas partı́culas quaisquer,
devemos preservar as propriedades fı́sicas de ΨE . Daı́ segue que

|ΨE (r1 , . . . , rj , . . . , rk , . . . , rN )|2 = |ΨE (r1 , . . . , rk , . . . , rj , . . . , rN )|2 , (4.1.7)

já que as propriedades fı́sicas decorrem de |Ψ|2 e não de Ψ. Desta forma,

ΨE (r1 , . . . , rj , . . . , rk , . . . , rN ) = θ ΨE (r1 , . . . , rk , . . . , rj , . . . , rN ), (4.1.8)

com θ = ±1; ou seja, a função de onda total é simétrica (θ = +1) ou anti-simétrica


(θ = −1) na troca de duas partı́culas.
Todas as partı́culas na natureza são então classificadas como bósons (funções de onda
simétricas) ou férmions (funções de onda anti-simétricas). Os bósons são partı́culas com
spin inteiro, como fótons, fônons, mésons π, grávitons, átomos de 4 He, etc. Férmions
são partı́culas com spin semi-inteiro, como elétrons, prótons, neutrons, muons, neutrinos,
átomos de 3 He, etc.
Tomemos como exemplo N = 2, e suponhamos que as partı́culas estejam em estados
a e b; podemos então escrever a função de onda simétrica e anti-simétrica como
1
ψS = √ [φa (r1 ) φb (r2 ) + φb (r1 ) φa (r2 )] , (4.1.9)
2
e
1
ψA = √ [φa (r1 ) φb (r2 ) − φb (r1 ) φa (r2 )] (4.1.10)
2
Este exemplo ilustra a segunda restrição que deve ser imposta aos coeficientes na
Eq. (4.1.6). De fato, a troca ri ↔ rj é equivalente à troca de números quânticos mi ↔ mj .
Logo, a Eq. (4.1.8) nos dá

C(m1 , . . . , mj , . . . , mk , . . . , mN ) = θ C(m1 ., . . . , mk , . . . , mj , . . . , mN ). (4.1.11)

Em particular, o princı́pio de exclusão de Pauli segue de (4.1.11) já que, para férmions,

C(m1 , . . . , m, . . . , m, . . . mN ) = 0. (4.1.12)
4.2. IDEAL SYSTEMS OF BOSONS OR FERMIONS 81

Deve-se ter em mente que a igualdade mj = mk = m corresponde à igualdade de todos


os números quânticos dos conjuntos mj e mk .
Note que condições do tipo (4.1.11) refletem o fato de que uma descrição do estado
quântico conforme a Eq. (4.1.6) é redundante, de vez que não interessa qual partı́cula
está no estado mk , etc.: a informação relevante é quantas partı́culas estão no estado mk .
Portanto, as variáveis naturais em problemas quânticos de muitos corpos são os números
de ocupação, nmk , dos diversos estados. Assim, a probabilidade de encontrarmos n1
partı́culas no estado m1 , n2 no estado m2 , etc., é dada por
X
|C(n1 , n2 , . . .)|2 = |C(m1 , m2 , . . . mN )|2 , (4.1.13)

onde a soma se estende a todos os estados com n1 partı́culas no estado m1 , n2 no estado


m2 , etc. Usando (4.1.11) e a mesma contagem que antecedeu a Eq. (3.2.3), temos

N! 2
|C(n1 , n2 , . . .)|2 = C(m01 , m02 , . . . , m0N ) , (4.1.14)
n1 !n2 ! . . .

já que para uma dada distribuição de partı́culas pelos estados m01 , m02 , . . . , m0N todos
os |C(m01 , m02 , . . . , m0N )|2 são iguais. Esta relação nos permite passar da representação
em termos de m’s para a representação dos números de ocupação, ou representação
de segunda quantização. Nesta última, nm = 0 ou 1 para férmions, enquanto que
nm = 0, 1, 2, . . . para bósons.
Desta forma, a energia total do sistema é dada por
X0
E= n m εm , (4.1.15)
m
P0
onde significa soma restrita à condição
X
nm = N. (4.1.16)
m

É importante enfatizar a diferença entre as Eqs. (4.1.5) e (4.1.15): na primeira soma-se


sobre as partı́culas, e, na segunda, sobre estados.

4.2 Ideal Systems of Bosons or Fermions


Na seção anterior vimos como os efeitos quânticos de indistinguibilidade se manifestam
na simetria (ou anti-simetria) da função de onda. Estes efeitos são importantes a baixas
temperaturas ou altas densidades, e são objeto de estudo desta seção.
Consideremos então N partı́culas pontuais não-interagentes em um volume V , cada
uma das quais com spin-S. (Não analisaremos aqui graus de liberdade vibracionais
ou rotacionais das partı́culas, porque estes não são afetados pela indistinguibilidade.
Mesmo em gases quânticos o tratamento de rotação e vibração é praticamente igual ao
da Seção 3.4). Cada estado de uma partı́cula é então caracterizado pelo autovalor do
82 CHAPTER 4. IDEAL SYSTEMS IN BOSE AND FERMI STATISTICS

operador momento p e pela componente S z = σ~ do spin. Assim, para cada valor de


p existem 2S + 1 estados distintos, com σ = −S, −S + 1, . . . , S, todos com a mesma
energia
p2
 

εpσ = εp = , pα = ~ nα , nα = 0, ±1, . . . , α = x, y, z; (4.2.1)
2m L
aqui também supusemos que as partı́culas ocupem uma caixa cúbica de dimensão linear
L.
Em segunda quantização, uma base conveniente é composta pelos números de ocu-
pação dos estados de uma partı́cula (no caso, de spin-1/2),
|{np,σ }i ≡ |np1 ↑ , np1 ↓ , np2 ↑ , np2 ↓ , . . .i ≡ |np1 ↑ i|np1 ↓ i|np2 ↑ i|np2 ↓ i . . . , (4.2.2)
tal que para um particular par (P, Σ), tem-se
n̂PΣ |{np,σ }i = nPΣ |{np,σ }i; (4.2.3)
isto é, nesta base, o operador n̂pσ conta quantas partı́culas, npσ , há no estado (p, σ),
fornecendo npσ = 0 ou 1 para férmions, e npσ = 0, 1, 2, . . . , ou ∞, para bósons.
Para um sistema não-interagente, a Hamiltoniana pode então ser escrita como [com-
pare com a Eq. (4.1.15)] XX
H= εp n̂pσ , (4.2.4)
p σ
onde n̂pσ é o operador número de partı́culas com momento p e componente S z igual a
σ~.
A função de partição canônica é então
X0 P P
ZN = Tr e−βH = e−β p σ εp npσ (4.2.5)
{npσ }

onde substituı́mos o operador n̂pσ pelo autovalor npσ , porque a Hamiltoniana H é diago-
nal na representação do número de ocupação. O traço é tomado da seguinte forma: para
cada valor de p e de σ, soma-se sobre todos os valores possı́veis de npσ correspondentes.
É importante notar que a restrição
X
npσ = N (4.2.6)

impede a fatorização da função de partição. Isto ocorre devido à correlação entre as


ocupações dos nı́veis de energia, fenômeno puramente quântico.
Neste ponto devemos enfatizar a influência da indistinguibilidade através da obtenção
da função de partição do gás de Boltzmann. Para isto consideremos S = 0, por simplici-
dade, e notemos que no caso de Q partı́culas distinguı́veis (Boltzmann), cada configuração
{np } pode ser obtida de N !/ p np ! modos distintos. Neste caso, a Eq. (4.2.5) fica
!N
X0 N! Y X
−βε n −βε
ZB = Q e p p
= e p
, (4.2.7)
p np ! p
{np } p
4.2. IDEAL SYSTEMS OF BOSONS OR FERMIONS 83

onde a última igualdade segue do polinômio de Newton. A Eq. (4.2.7) é o já conhecido
resultado clássico, a menos do fator 1/N ! que leva em conta, a posteriori, a indistin-
guibilidade das partı́culas.
A restrição da constância do número de partı́culas, Eq. (4.2.6), pode ser levantada se
utilizarmos o ensemble gran-canônico. Neste caso, temos
∞ X
X 0 β P [µ−ε ] n
Z= e p,σ p pσ
. (4.2.8)
N =0 {npσ }

Para melhor compreender como estas somas são feitas, considere um sistema de apenas
dois nı́veis, com energias ε1 e ε2 , e definamos a = eβ(µ−ε1 ) e b = eβ(µ−ε2 ) . Inicialmente,
suporemos também que cada estado possa ser ocupado por um número arbitrário de
partı́culas; o caso de férmions pode ser recuperado trivialmente ao final. A gran-função
de partição fica sendo
∞ XX ∞ X
N
X 0 0 X
Z= an1 bn2 = aN −n bn . (4.2.9)
N =0 n1 n2 N =0 n=0

já que as somas em n1 e n2 estão sujeitas à restrição n1 + n2 = N .


Assim, para cada N fazemos a soma de n = 0 até N ; depois somamos os resultados
parciais de N = 0 até ∞. Na tabela abaixo, isto representa somar todas as linhas

N =0 1
N =1 a+b
N = 2 a2 + ab + b2
N = 3 a3 + a2 b + ab2 + b3
...

o que é equivalente a somar primeiro as potências de b, desde 0 a ∞, para uma dada


potência de a; depois soma-se sobre todas as potências de a:

Z= (1 + b + b2 + b3 + · · · )+
+ a (1 + b + b2 + b3 + · · · )+
+ a2 (1 + b + b2 + b3 + · · · ) + . . . =

! ∞ !
X X
n1 n2
= a b . (4.2.10)
n1 =0 n2 =0

Este resultado pode ser facilmente estendido para um número arbitrário de estados, de
modo que a Eq. (4.2.8) fica

YYX
Z= eβn(µ−εp ) . (4.2.11)
p σ n=0
84 CHAPTER 4. IDEAL SYSTEMS IN BOSE AND FERMI STATISTICS

Para férmions, os números de ocupação, n, só podem ser 0 ou 1, e a soma em (4.2.11)


fica trivial: YY 
Z= 1 + eβ(µ−εp ) (F). (4.2.12)
p σ

Para bósons, os números de ocupação, n, podem ser quaisquer (positivos), e a soma


em (4.2.11) também fica trivial, desde que o expoente seja negativo, para qualquer εp .
Isto requer
µ ≤ 0 , para bósons, (4.2.13)
onde a igualdade só é admitida nos casos em que εp > 0, ∀p. Assim,
YY −1
β(µ−εp )
Z= 1−e (B). (4.2.14)
p σ

Podemos tratar os casos F e B simultaneamente, através do parâmetro θ [c.f., (4.1.8)]:


YY −θ
Z= 1 − θ eβ(µ−εp ) . (4.2.15)
p σ

O resultado acima é semelhante aos obtidos anteriormente: a função de partição


de um gás ideal é fatorada. No entanto, uma diferença crucial com relação ao gás de
Boltzmann é que aqui os fatores não se referem a partı́culas individuais, mas aos estados
quânticos de uma partı́cula.
O gran-potencial J(T, V, µ) pode ser escrito como
XX  
J(T, V, µ) ≡ V P (T, µ) = −θkB T ln 1 − θ eβ(µ−εp ) , (4.2.16)
p σ

de onde decorrem todas as outras funções termodinâmicas:

hN i
 
∂P
densidade: n = = (4.2.17)
V ∂µ T
 
S ∂P
densidade de entropia: s̃ = = (4.2.18)
V ∂T µ
   
1 ∂V 1 ∂n
compressibilidade: KT = − = 2 (4.2.19)
V ∂P T n ∂µ T
 
1 ∂
densidade de energia interna: ẽ = − βJ (4.2.20)
V ∂β z,V
 
∂ẽ
calor especı́fico (por volume): cV = . (4.2.21)
∂T µ,V

O leitor deve notar (veja o Exercı́cio 4.1) que o cálculo da derivada com relação a
β, no caso da densidade de energia, é feito a fugacidade constante, e não a potencial
quı́mico constante. A segunda igualdade da Eq. (4.2.19), obtida usando a Eq. (2.10.18),
4.2. IDEAL SYSTEMS OF BOSONS OR FERMIONS 85

mostra também que a compressibilidade fornece uma medida do custo energético para
se adicionar partı́culas ao sistema; assim, p.ex., um isolante é incompressı́vel (KT = 0),
enquanto que um metal é compressı́vel (KT > 0).
Vamos agora desenvolver a Eq. (4.2.16) um poucoP mais. Primeiramente, na ausência
de campo magnético externo, εp independe de σ, e a σ nos dá g, a degenerescência do
nı́vel εp . Em segundo lugar, para um sistema de dimensões macroscópicas, os valores
possı́veis de p são pouco espaçados; podemos, portanto, substituir a soma em p em
(4.2.16) por uma integral.2
Temos então, com a substituição
L3
X Z
→ 3 d3 p, (4.2.22)
p
h

V
Z  
2
P V = −θgkB T 3 d3 p ln 1 − θ eβ(µ−p /2m) . (4.2.23)
h
Integrando em coordenadas polares, a parte angular contribui com 4π. Chamando
η = β(p2 /2m), e efetuando a integração em (4.2.23) por partes, obtemos
Z ∞
η 3/2

2 −3 2
P (T, µ) = kB T gΛ √ dη η−µ/k T , (4.2.24)
3 π 0 e B −θ
onde o reaparecimento do comprimento de onda térmico, Eq. (3.4.9), indica que uma
outra escala de comprimentos se torna importante, além do tamanho linear (L) do
sistema; como veremos, se Λ é muito menor que o espaçamento entre as partı́culas (cujo
limite superior é L), os efeitos quânticos não são dominantes.
Obtivemos, então, uma expressão para P em função de T e de µ. Esta última
quantidade não é muito conveniente por não ser diretamente mensurável. Para se chegar
a uma equação de estado [P (T, n)], notemos que a densidade n pode ser obtida como
Z ∞
η 3/2 eη−µ/kB T
 
∂P 2 −3 2
n= = gΛ √ dη η−µ/k T , (4.2.25)
∂µ T 3 π 0 [e B − θ]2
que, após integrada por partes, fica

2 η 1/2
Z
n(T, µ) = g Λ−3 √ dη . (4.2.26)
π 0 eη−µ/kB T − θ
Resolvendo (4.2.26) para µ(n, T ) e levando em (4.2.24) podemos, em princı́pio, obter
P (T, n). Há uma forma de se inverter estas equações, mas que ainda recai em integrais
bastante intrincadas, o que as torna de pouca utilidade prática (veja Ref. [1], Seção 4.5).
Antes de fazer algumas aproximações que tornem (4.2.24) e (4.2.26) mais simples,
notemos que a densidade de energia é obtida a partir de (4.2.20) como
Z ∞
−3 2 η 3/2
ẽ(T, µ) = g kB T Λ √ dη η−µ/k T , (4.2.27)
π 0 e B −θ
2
Como veremos na Seção 4.5, alguns cuidados devem ser tomados ao fazer esta substituição, pela
possibilidade de ocupação macroscópica do estado fundamental de uma partı́cula.
86 CHAPTER 4. IDEAL SYSTEMS IN BOSE AND FERMI STATISTICS

o que nos dá, por comparação direta com (4.2.24), a equação de estado
2
P = ẽ. (4.2.28)
3
O leitor deve se convencer de que a fração 2/3 na Eq. (4.2.28) representa, na realidade,
a razão s/d, onde s é o expoente da relação de dispersão (ε ∝ ps , com s = 2) e d é a
dimensão espacial, (= 3, neste caso).
Deve-se também frisar o aspecto universal desta equação de estado: como θ não
aparece nesta relação, ela é válida para todos os sistemas ideais, independentemente da
estatı́stica (MB, BE, FD). No caso MB, a forma simples

Pcl = n kB T (4.2.29)

é recuperada com o auxı́lio do Teorema da Equipartição da energia.


Vamos estudar agora uma aproximação que seja válida quando os efeitos quânticos
não são importantes, o que, de acordo com o limite de altas temperaturas da Eq. (3.4.18),
ocorre para (µ/kB T ) → −∞, ou
 3
µ/kB T Λ
z=e =N  1, (4.2.30)
L

quando fica fácil adicionar partı́culas ao sistema.


Nestas condições, expandindo em z os integrandos de (4.2.24) e (4.2.26), e integrando
termo a termo, obtemos

P = g kB T Λ−3 z(1 + θ 2−5/2 z + 3−5/2 z 2 + · · · ), (4.2.31)


−3 −3/2 −3/2 2
n = gΛ z(1 + θ 2 z+3 z + · · · ). (4.2.32)

A Eq. (4.2.32) pode ser invertida e substituı́da em (4.2.31), o que dá

P = nkB T [1 − 0.1768 θ g −1 Λ3 n − 0.0033 g −2 Λ6 n2 + · · · ]. (4.2.33)

Este último resultado contém informações muito interessantes. Primeiramente, o resul-


tado final aparece como uma expansão em série de potências do chamado parâmetro de
degenerescência
3/2
h2

−1 3 1
δ≡g Λ n= n, (4.2.34)
g 2πmkB T
que pode ser pensado como a fração do volume ocupado pelos pacotes de onda (de
largura Λ) associados às partı́culas; assim, a estatı́stica de Maxwell-Boltzmann equivale
ao limite não-degenerado,
δ1 (MB), (4.2.35)
correspondendo a altas temperaturas (para uma dada densidade) ou baixas densidades
(para uma dada temperatura), evitando efeitos de interferência entre os pacotes. Ade-
mais, o lado direito da Eq. (4.2.33) pode também ser visto como uma expansão em série
4.3. BOSE-EINSTEIN AND FERMI-DIRAC DISTRIBUTIONS 87

de potências da densidade, n; esta forma chama-se expansão do virial e é caracterı́stica


de gases não-ideais [veja a Seção 6.2]. Em segundo lugar, o desvio do resultado do gás
ideal clássico é devido à correlação introduzida ao adotarmos funções de onda simétricas
ou anti-simétricas. Isto é, apesar de não haver interações reais, o movimento de cada
partı́cula é fortemente dependente das demais. É como se férmions estivessem sujeitos
a uma pseudo-força repulsiva, que aumenta a pressão em relação ao gás de Maxwell-
Boltzmann. Da mesma forma, bósons estariam sujeitos a uma pseudo-força atrativa,
que diminui a pressão em relação ao gás de Maxwell-Boltzmann.

4.3 Bose-Einstein and Fermi-Dirac distributions


Para um estudo mais detalhado das propriedades termodinâmicas de sistemas ideais
quânticos, especialmente no regime de alta degenerescência (δ  1), precisamos entender
sua estrutura microscópica. Uma quantidade crucial para isto é o número de ocupação
médio do estado (p, σ), hnpσ i.
Expressões para hnpσ i são obtidas supondo que os nı́veis de uma partı́cula tenham
uma dependência com σ, εpσ [veja o Exercı́cio 4.1(b)], a saber,
 
1 ∂ 1
hnp σ i = −
0 0 βP V = β(ε 0 0 −µ) , (4.3.1)
β ∂εp0 σ0 z,T e p σ −θ

fornecendo as conhecidas distribuições (retornando a εpσ = εp ):

(i) de Bose-Einstein,
1
hnpσ i = , e (4.3.2)
eβ(εp −µ) −1
(ii) de Fermi-Dirac
1
hnpσ i = . (4.3.3)
eβ(εp −µ) +1
P P
Note que hN i = pσ hnpσ i, e que a magnetização, dada por pσ σhnpσ i, se anula
na ausência de campo magnético pois hnpσ i não depende de σ: o estado de equilı́brio
é, portanto, despolarizado. Finalmente, para férmions 1 − hnpσ i é o número médio de
buracos no estado (pσ).
Devido às diferentes propriedades das estatı́sticas de férmions e de bósons, no que
se segue analisaremos separadamente o comportamento dos correspondentes gases no
regime de alta degenerescência,
Λ3 n
δ≡ ≥ 1. (4.3.4)
g

4.4 Degenerate Fermi gas


Nos sistemas de férmions com densidade constante, as partı́culas se distribuem de modo
compatı́vel com o princı́pio de exclusão de Pauli. Consequentemente, não pode haver
88 CHAPTER 4. IDEAL SYSTEMS IN BOSE AND FERMI STATISTICS

np
1

F
p

Figure 4.1: Fermi distribution at T = 0.

acumulação de partı́culas em qualquer estado quântico. A baixas temperaturas, a


distribuição de partı́culas mais favorável consiste na ocupação dos nı́veis de energia
mais baixos, respeitando a degenerescência g, até que todas as partı́culas estejam ‘aco-
modadas’. A energia do estado populado mais alto é a chamada energia de Fermi, εF .
Deste modo a energia de ponto zero de um sistema de férmions é considerável, contrari-
amente ao que ocorre com bósons, como veremos posteriormente.
Assim, a T = 0 devemos ter

hnpσ i = Θ(εF − εp ), (4.4.1)

com (
0 x<0
Θ(x) = (4.4.2)
1 x > 0,
como indica a Fig. 4.1.
Para compatibilizar (4.4.1) com a distribuição (4.3.3), notemos que
(
0 se (ε − µ) < 0
lim eβ(ε−µ) = (4.4.3)
β→∞ ∞ se (ε − µ) > 0,

ou (
1 1 se ε < µ
hnpσ i = β(ε−µ) → (4.4.4)
e +1 0 se ε > µ,
o que significa
µ = εF a T = 0. (4.4.5)
Para obter a energia de Fermi, lembremos que a densidade de partı́culas, dada por
(4.2.26), se reduz, no limite T → 0, a

25/2 π m3/2 g
Z
n= dε ε1/2 Θ(εF − ε), (4.4.6)
h3 0
4.4. DEGENERATE FERMI GAS 89

o que nos dá


2/3 
6π 2 ~2
 
εF = n2/3 . (4.4.7)
g 2m
Podemos também associar um momento de Fermi pF :
1/3
p2 6π 2

εF = F ⇒ pF = ~ n1/3 . (4.4.8)
2m g

A densidade de energia interna é obtida de (4.2.27) como


3
ẽ = n εF (T = 0), (4.4.9)
5
e a pressão é
2/3 
6π 2 ~2
 
2 1
P = n εF = n5/3 (T = 0). (4.4.10)
5 5 g m
O gás de Fermi é um modelo bastante razoável para metais alcalinos, enquanto que
para os demais metais ele pode ser usado como um guia para ordens de grandeza; veja,
p.ex., Ref. [13], Cap. 2. As densidades tı́picas são da ordem de 1021 -1022 elétrons/cm3 , o
que fornece energias de Fermi entre 2 e 10 eV. Assim, devido a esta grande energia de
ponto zero, a pressão de um gás de férmions a T = 0 é considerável, da ordem de 3 GPa
' 104 atm. Este comportamento deve ser contrastado com o de um gás de bósons, cuja
pressão tende a zero quando T → 0, como veremos na próxima seção.
Vejamos agora o comportamento das funções termodinâmicas a temperaturas baixas,
mas não-nulas. Lembremos que
Z ∞
P g 4 η 3/2 g
= 3 √ dη −1 η ≡ 3 f5/2 (z) (4.4.11)
kB T Λ 3 π 0 z e +1 Λ
e

g 2 η 1/2 g
Z
n= √ dη −1
≡ 3 f3/2 (z), (4.4.12)
Λ3 π 0
η
z e +1 Λ
onde a última igualdade em cada uma das Eqs. (4.4.11) e (4.4.12) introduz as integrais
de Fermi, Z ∞
1 xn−1 dx
fn (z) ≡ , (4.4.13)
Γ(n) 0 z −1 ex + 1
com √
Γ(n) = (n − 1)! ⇒ Γ(n + 1) = n Γ(n); Γ(1/2) = π. (4.4.14)
Para fazer expansões sistemáticas utilizaremos um método, devido a Sommerfeld,
para integrais do tipo fn (z); um procedimento mais geral, em termos de densidade
de estados, será discutido na Seção 5.2. A região de interesse agora é a de baixas
temperaturas, T → 0, µ → εF , de modo que z = eµ/kB T  1. Introduzindo a variável

ξ ≡ ln z (= µ/kB T ), (4.4.15)
90 CHAPTER 4. IDEAL SYSTEMS IN BOSE AND FERMI STATISTICS

1
1.0

+ 1]
)
0.5

(x
[e
0.0
x
−1
Figure 4.2: Schematic plot of ex−ξ + 1 as a function of x: the temperature only causes appreciable changes
relative to T = 0 (Fig. 4.1) in the region x ' ξ.

temos

xn−1 dx
Z
Fn (ξ) = Γ(n) fn (ξ) = . (4.4.16)
0 ex−ξ + 1

Note que para x  ξ  1 o fator (ex−ξ + 1)−1 é muito próximo de 0, enquanto que
para x < ξ o mesmo fator é muito pouco diferente de 1; veja a Fig. 4.2. A variação
significativa entre estes limites ocorre perto de x = ξ. Assim, em primeira aproximação
podemos substituir
Z ξ
Fn (ξ) ≈ xn−1 dx = ξ n /n. (4.4.17)
0

Esta aproximação pode ser sistematicamente melhorada através da expansão de Som-


merfeld (veja, p.ex., Refs. [2, 4, 1]):

ξn π2 1 7π 4 1
 
fn (ξ) = 1 + n(n − 1) + n(n − 1)(n − 2)(n − 3) + ··· .
Γ(n + 1) 6 ξ2 360 ξ 4
(4.4.18)
Assim, obtemos o seguinte resultado para a densidade
3/2 " #
π 2 kB T 2
  
g µ 4
n= 3 √ 1+ + ··· (4.4.19)
Λ kB T 3 π 8 µ

que pode ser invertido, usando as Eqs. (4.4.5) e (4.4.7) para T = 0, dando
" 2 #
π2

kB T
µ = εF 1− + ··· (4.4.20)
12 εF

Esta equação relaciona o potencial quı́mico com a temperatura e a densidade (através


de εF ). Note que para metais à temperatura ambiente (∼ 0.25 eV), o potencial quı́mico
difere de εF por termos da ordem de 10−3 εF , de modo que a temperaturas de interesse
(bem mais baixas que a ambiente) pode-se sempre tomar µ = εF nestes sistemas.
4.4. DEGENERATE FERMI GAS 91

CV
Nk B

3/2

F kBT

Figure 4.3: The temperature dependence of the specific heat of the Fermi gas.

A densidade (volumétrica) de energia interna pode ser obtida de maneira análoga


como " #
5π 2 kB T 2
 
3
ẽ(n, T ) = nεF 1 + + ··· (4.4.21)
5 12 εF
de onde tiramos o calor especı́fico
π 2 kB
2
 
∂ẽ
cV (T, n) = = γ T, γ≡ (4.4.22)
∂T n 2εF

(a dependência de cV com n se dá via εF ). Ou seja, o calor especı́fico de um gás de


férmions é linear com T , a baixas temperaturas. Este comportamento é bem diferente
do gás ideal clássico (cV = 3kB /2), o qual, não obstante, é recuperado a altas tem-
peraturas, como mostra, esquematicamente, a Fig. 4.3. Para metais usuais, γ ∼ 10−3
J/(mol·K2 ), mas, para compostos como UBe13 , CeAl3 , CeCu2 Si2 e outros, γ chega a 103
vezes estes valores. Como γ ∝ m [massa eletrônica; veja Eq. (4.4.7)], estes compostos são
chamados de férmions pesados, cujas propriedades são bastante interessantes, já que al-
guns apresentam ordem magnética coexistindo com supercondutividade, pontos crı́ticos
quânticos, etc.
Uma vez obtido cV (T, n) = T [∂s̃(T, n)/∂T ]n , a entropia por partı́cula pode ser obtida
por uma simples integração:
Z T 2T
cV π 2 kB
s̃ = dT = + ··· , (4.4.23)
0 T 2 εF
de modo que s̃ → 0 quando T → 0. Este comportamento está de acordo com a 3a Lei
da Termodinâmica, ao contrário do obtido para o gás ideal clássico (MB),
"   #
s̃ e5/2 L 3
= n ln −→ −∞, (4.4.24)
kB N Λ T →0

que viola a 3a Lei. Outras grandezas termodinâmicas serão discutidas no Cap. 5.


92 CHAPTER 4. IDEAL SYSTEMS IN BOSE AND FERMI STATISTICS

4.5 Degenerate Bose gas


We start by recalling Eqs. (4.2.24) and (4.2.26), with θ = 1, and noticing that they can
be expressed in terms of the Bose integrals,

1 xλ−1 dx
Z
gλ (z) = , (4.5.1)
Γ(λ) 0 z −1 ex − 1

where the Gamma function, Γ(λ), was defined in Eq. (4.4.14), and z ≡ exp(βµ) is the
fugacity. That is, we may write

1
Pn = k B T g (z), (4.5.2)
Λ3 5/2
and
1
Nn = V g (z), (4.5.3)
Λ3 3/2
where the subscript n in both equations stands for “normal”, for reasons which will
become apparent later.
The functions gλ (z) have some simple properties. For z ≤ 1, the integrand in
Eq. (4.5.1) can be expanded in a power series in z, and then integrated term by term to
yield

X z`
gλ (z) = , (4.5.4)

`=1

whose radius of convergence is z = 1. For λ > 1, gλ (z) calculated at z = 1 becomes the


Riemann ζ function,
X∞
ζ(λ) = `−λ . (4.5.5)
`=1

In particular, the following will be very useful to us here:

ζ(3/2) ≈ 2.612 and ζ(5/2) ≈ 1.342; (4.5.6)

note also that ζ(∞) = 1. For λ ≤ 1, on the other hand, gλ (1) diverges.3 Figure 4.4
shows g3/2 (z) and g5/2 (z), calculated using Eq. (4.5.4): we see that for all values of z of
our concern here, the functions gλ (z) increase monotonically, that is,

gn (z) ≤ gn (1) ≡ ζ(n). (4.5.7)

Next, we take a closer look at the Bose-Einstein distribution, Eq. (4.3.2), which we
write in terms of z, as
z
n(ε) = βε , (4.5.8)
e −z
3
See Appendix D of Ref. [4] for a detailed discussion on the properties of gλ (z).
4.5. DEGENERATE BOSE GAS 93

2.612
2.5
g 3/2(z)
g 5/2(z)
2.0

gn(z)
1.5
1.341

1.0

0.5

0.0
0.0 0.5 1.0
z

Figure 4.4: The functions g3/2 (z) e g5/2 (z).

keeping in mind that µ ≤ 0 for bosons, so that z ∈ [0, 1]. When taking the zero
temperature limit, we have to distinguish between the occupation of the ground state
(ε = 0) and of any excited state (ε > 0),

 z ,

if ε = 0, (4.5.9a)
n(ε) → 1−z
 −βε
ze , if ε 6= 0. (4.5.9b)

In the absence of a restriction (such as the Pauli principle for fermions), at zero temper-
ature all particles must be in the ground state, that is, the occupation with bosons of
the lowest-energy state, ε = 0, must be macroscopic: n(0) ∼ N → ∞. This can only be
achieved with
lim z = 1, or, equivalently, lim µ → 0− , (4.5.10)
β→∞ T →0

where in the second limit µ is to be regarded as a function of T and of the density N/V .
This establishes the zero temperature limits of µ and z as 0− and 1, respectively.
Now we recall that Eqs. (4.2.24) e (4.2.26) were obtained by replacing the sums by
integrals in p [c.f. Eq. (4.2.22)]; the integration variables were subsequently changed to
η = p2 /(2mkB T ). An equivalent way of expressing average values is in terms of integrals
in the single particle energy, ε, and of the density of states D(ε); see Chapter 2. For
instance, the average number of particles is obtained from
Z
hN i = dε D(ε) n(ε), (4.5.11)

which separates the information about the spectral properties [contained in D(ε)] from
the thermal properties [in n(ε)].
For the present case of quadratic dispersion, ε ∝ p2 , and for a three-dimensional
space, we have

D(ε) = 3 (2m)3/2 V ε1/2 , (4.5.12)
h
94 CHAPTER 4. IDEAL SYSTEMS IN BOSE AND FERMI STATISTICS

according to Problems 2.1 and 2.3, and where we have taken g = 1 for simplicity. This
density of states attributes zero weight to states with ε = 0, so that the ground state
occupation would not contribute to hN i.4 In addition, since n ≈ exp(−βε) the excited
states would also contribute with hN i → 0 at low temperatures. This is certainly nonsen-
sical, since particles cannot disappear as the temperature is lowered. The inconsistency
lies in the fact that the replacement of sums over p by integrals in ε ignores the singular
behaviour of n(ε) expressed in Eqs. (4.5.9a) and (4.5.9b). We must therefore separate
the contributions from the p = 0 states before replacing the sums by integrals. Going
back to Eq. (4.2.16), we write
 
 X h i
P V = −kB T ln(1 − z) + ln 1 − z e−βεp , (4.5.13)
 
p6=0

whose derivative with respect to µ yields


N 1 z 1 X 1
= + . (4.5.14)
V V 1−z V z −1 eβεp − 1
p6=0

The sums in p can now be replaced by integrals, as before, since the p = 0 terms do not
contribute anyway; we then have
P 1 1
= − ln(1 − z) + 3 g5/2 (z), (4.5.15)
kB T V Λ
and
1
n = n0 + g (z), (4.5.16)
Λ3 3/2
where
hN0 i 1 z
n0 ≡ = (4.5.17)
V V 1−z
is the density of particles in the ground state, and the Bose integrals are given by
Eq. (4.5.1).
Let us examine the relative magnitude of the terms on the right-hand side (RHS) of
Eqs. (4.5.15) and (4.5.16), keeping in mind that for bosons we must have z ∈ [0, 1] since
µ ∈ (−∞, 0]. Given that P/kB T and n are intensive, we only need to keep terms of O(1)
on the RHS of these equations.
At high temperatures, z  1, so that ln(1 − z) ' −z and the new term in (4.5.15)
contributes with z/V . O(1/N ); in this classical limit, the second term must yield n,
in comparison with which the new term can be neglected. The first term in (4.5.16),
namely the density of particles in the ground state, is O(z/N ), so that, again, the second
term is the one providing the sought O(1) contribution. Thus, the new terms do not
contribute at high temperatures, and the Maxwell-Boltzmann limit is unaffected.
4
Note that usually one considers N as large, but finite, and the limit N → ∞ is taken at the end of
the calculations.
4.5. DEGENERATE BOSE GAS 95

ne,max
n

Tc T
Figure 4.5: Densidade total, n, e densidade de partı́culas nos estados excitados, ne , como funções da temperatura
(esquemático).

At very low temperatures, z → 1, the dominant contribution to the density in (4.5.16)


must come from the first term, since the accumulation of particles in the ground state is
allowed. Therefore, n0 = z(1 − z)−1 /V must be O(1), implying in z(1 − z)−1 ' N ; hence
z ∼ 1 − 1/N . By contrast, when we take this into the first term on the RHS of (4.5.15),
we see that its contribution to the pressure, −(1/V ) ln(1 − z), is, at most, O[(ln N )/N ].
In summary, the pressure is not significantly [i.e., not O(1)] altered by the contri-
butions from the ground state neither at high nor at low temperatures; therefore, the
new term will be neglected from now on. For the density, the new term accounts for the
‘missing’ particles at low temperatuers, so it must be kept. Accordingly, Eqs. (4.5.15)
and (4.5.16) become
P 1
= 3 g5/2 (z), (4.5.18)
kB T Λ
and
1
n = n0 + g (z), (4.5.19)
Λ3 3/2
which provide us with the equation of state.
We have therefore found two distinct regimes of ground state occupancy: one corre-
sponds to a macroscopic occupation, occurring for z ≈ 1, and the other to a microscopic
occupation, occurring for z  1.
The interesting question to answer now is whether this macroscopic occupation, or
condensed state, persists through a finite temperature interval, or it becomes microscopic
as soon as the temperature rises. To this end we now examine the behaviour of ne ≡
n − n0 , which is the density of particles accommodated in all excited states, i.e., those
with p 6= 0. The first thing to note is that, by virtue of gλ (1) being finite for λ = 3/2,
ne is limited. De fato, usando as Eqs. (4.5.19), (4.5.6), e (4.5.7), podemos escrever, para
uma dada temperatura,
ne ≤ ne,max = 2.612/Λ3 . (4.5.20)
96 CHAPTER 4. IDEAL SYSTEMS IN BOSE AND FERMI STATISTICS

A dependência de ne,max com a temperatura (∝ T 3/2 ) está ilustrada na Fig. 4.5, que
mostra também a densidade total, n, suposta constante, pois admite-se que não haja
criação de partı́culas.
A Fig. 4.5 indica que há dois regimes distintos. Ao contrário do que ocorre com um
gás de Boltzmann, quando, à medida em que a temperatura aumenta, estados excitados
vão sendo ocupados sem restrições, nota-se aqui que para ne,max < n, a ocupação dos
estados excitados é limitada, de modo que as partı́culas excedentes têm que ocupar,
necessariamente, o estado fundamental.5 Em outras palavras, neste caso a ocupação do
estado fundamental é macroscópica. Esta acumulação de partı́culas não-interagentes em
um único estado é chamada de condensação de Bose-Einstein (BEC); é uma condensação
distinta da condensação do vapor em lı́quido porque ocorre no espaço dos momentos e
não no espaço usual de coordenadas. No outro regime, ne,max > n, não há limitação na
população dos estados estados excitados, de modo que o estado fundamental pode ser
exaurido; isto é, é o regime de ocupação microscópica do estado fundamental. Neste caso,
a mudança de regime é induzida variando a temperatura, mantendo fixa a densidade; a
temperatura, Tc , na qual isto ocorre corresponde à condição ne,max = n, ou

h2 n n o2/3
Tc = . (4.5.21)
2πmkB 2.612

Similarly, instead of keeping the density fixed and varying the temperature, one can
go across the two regimes the other way around: we keep the temperature fixed, while
the density can be varied. If n > ne,max (T ) for a given temperature, then the occupation
of the ground state is macroscopic; by contrast, if n < ne,max (T ) the occupation of the
ground state is microscopic. Therefore, for a given temperature ne,max (T ) is the critical
density separating these two regimes of ground state occupation,

nc (T ) ≡ ne,max (T ) = 2.612/Λ3 . (4.5.22)

Since nc ∝ T 3/2 , the higher the temperature, the larger is the critical density needed to
induce Bose-Einstein condensation; conversely, if one can work at very low temperatures,
then the critical density is not that high. At this point, one should note that BEC only
occurs when the occupation of excited states is bounded [see Eq. (4.5.20)].
We now compare the behaviour of the gas in the condensed phase and in the ‘normal’
phase. First, we recall that the fact that the condensate survives for any temperature
below Tc implies that one must have µ ≈ 0 or, equivalently, z ≈ 1 throughout the con-
densed phase. Com efeito, a ocupação do estado fundamental a uma dada temperatura
é dada pela Eq. (4.5.17), que pode ser resolvida para z, fornecendo

1
z '1− . (4.5.23)
hN0 i
5
Deve-se sempre ter em mente, é claro, que as partı́culas são indistinguı́veis, não se podendo dizer
‘quais’ partı́culas estão no estado εp = 0 e ‘quais’ estão nos estados εp 6= 0. Este fato já está incorporado
à função de onda simetrizada, Eq. (4.1.6).
4.5. DEGENERATE BOSE GAS 97

z
o(1/ V)
1

3
0 1 1/n
2.612
Figure 4.6: Fugacity as a function of 1/nΛ3 (schematic).

Ou seja, enquanto houver o condensado, hN0 i ∼ N e z difere de 1 por termos da ordem


de 1/V ; veja a Fig. 4.6. Da mesma forma, µ ∼ −(kB T /hN0 i) → 0− para hN0 i  1.
Assim, no que se segue, ao calcularmos as diversas grandezas para T < Tc , tomaremos
µ = 0 ou z = 1.
A ocupação dos estados excitados, a T < Tc , fica sendo dada por
2πmkB T 3/2
 
V
N − hN0 i = 3 g3/2 (1) = 2.612 V =
Λ h2
 3/2
T
=N , (4.5.24)
Tc
de modo que
hN0 i
= 1 − (T /Tc )3/2 , (4.5.25)
N
como representado na Fig. 4.7. Abaixo de Tc , à medida em que a temperatura diminui,
a ocupação do estado fundamental cresce até atingir o valor de saturação n, num com-
portamento tı́pico de um parâmetro de ordem em uma transição de fase, como veremos
no Cap. 7. Podemos imaginar um modelo de dois fluidos tal que, para T < Tc , o sistema
se encontra em uma mistura de duas fases: um ‘condensado’ com densidade n0 corre-
spondendo às partı́culas no estado com p = 0, e um ‘gás’ com densidade ne ≡ n − n0
correspondendo às partı́culas nos estados excitados.
Vejamos agora como fica a equação de estado, fixando n. Tomando z ' 1 para
T < Tc , temos, de (4.5.18),
kB T
P (T ) = g (1) ∼ T 5/2 , para T < Tc , (4.5.26)
Λ3 5/2
que é independente de v ≡ 1/n e vai a zero quando T → 0.
Para T > Tc podemos desprezar hN0 i; temos então
N 1
= 3 g3/2 (z), para T > Tc , (4.5.27)
V Λ
98 CHAPTER 4. IDEAL SYSTEMS IN BOSE AND FERMI STATISTICS

N0
P
N linha das transicoes
1 v constante

kBT g (1)
3 5/2

T
vc (T) v
Tc T Figure 4.8: Isotermas da equação de estado, P (v),
onde v = 1/n. A curva tracejada localiza as
Figure 4.7: Ocupação do estado fundamental vs. transições de fase.
T , a v ≡ 1/n constante.

que pode, em princı́pio, ser invertida para se obter z = z(T, n). A Eq. (4.5.18) nos dá,
então,
kB T  
P (T, n) = 3 g5/2 z(T, n) , para T > Tc . (4.5.28)
Λ
Duas isotermas de P (v) estão indicadas na Fig. 4.8, e as Eqs. (4.5.26) e (4.5.28)
indicam que a curva superior corresponde a uma temperatura maior que a inferior.
Como previsto anteriormente [Eq. (4.5.22)], a uma dada temperatura, existe um vc =
Λ3 /g3/2 (1), tal que para v < vc o sistema se encontra na fase condensada. A linha
pontilhada na Fig. 4.8 representa o lugar geométrico das temperaturas de transição,
e é obtida fazendo-se z → 1 e T = Tc em (4.5.27) e (4.5.28). A parte horizontal
das isotermas indica que as partı́culas no estado fundamental não contribuem para
P . Estas isotermas devem ser comparadas com as de um gás ideal clássico, P =
kB T /v. Ainda da Fig. 4.8, deduzimos que a compressibilidade isotérmica, definida pela
Eq. (2.7.3), é infinita para v < vc ; isto é consistente com uma coexistência de fases, como
veremos no Cap. 7.
Para o cálculo da entropia, podemos usar a Eq. (2.9.19), com N = hN i, para escrever
E + P V − µN
S= , (4.5.29)
T
que, junto com a equação de estado, (4.2.28), fornece o resultado geral
5 PV µN
S= − . (4.5.30)
2 T T
Para o gás de bósons a T < Tc , usamos a Eq. (4.5.18), com z ' 1, para substituir P ; de
forma análoga, usamos a Eq. (4.5.19), com ne ≡ n − n0 , para escrever Λ3 em termos de
Ne = ne V e de g3/2 (1). Temos então,

5 g5/2 (1)
S= kB Ne , T < Tc . (4.5.31)
2 g3/2 (1)
4.5. DEGENERATE BOSE GAS 99

Acima de Tc , substituições equivalentes levam a


 
g5/2 z(n, T )
P (T ) = n kB T  , (4.5.32)
g3/2 z(n, T )

de onde se obtém
5 g5/2 (z)
 
S = N kB − ln z , T > Tc . (4.5.33)
2 g3/2 (z)
A proporcionalidade entre S e Ne na fase condensada significa que somente as
partı́culas nos estados excitados ‘carregam’ entropia (vale aqui a mesma observação da
Nota 4). Assim, a interpretação de dois fluidos coexistindo para T < Tc fica mais con-
sistente: um dos fluidos, o ‘condensado’, não carrega entropia e não faz pressão, que são
atribuı́dos somente ao ‘gás’ (i.e., às partı́culas que ocupam os estados excitados). Acima
de Tc , não há condensado e todas as partı́culas contribuem para a entropia, S ∝ N . Um
modelo de dois fluidos semelhante a este é utilizado para descrever alguns aspectos da
superfluidez.
Novamente usando a equação de estado, (4.2.28), o calor especı́fico é dado por
   
CV 1 ∂E 3 ∂P
= = . (4.5.34)
N kB N kB ∂T N,V 2n ∂T N, V
| {z }
n

Abaixo de Tc temos, então,


CV 15 1
= g5/2 (1) ∝ T 3/2 , T < Tc . (4.5.35)
N kB 4 nΛ3
Para obter CV acima de Tc , usamos novamente a Eq. (4.5.32) para escrever

3 g5/2 (z)
  
CV ∂
= T . (4.5.36)
N kB ∂T 2 g3/2 (z) n

Para calcular a derivada acima, necessitamos obter (∂z/∂T )n ; para isto, notemos primei-
ramente que
∂g3/2 ∂g3/2 (z) ∂z
   
= . (4.5.37)
∂T n ∂z ∂T n
Por um lado, a Eq. (4.5.27) nos dá

∂g3/2 3 g3/2 (z)


 
=− , (4.5.38)
∂T n 2 T

enquanto que da expansão (4.5.4) segue que


z gn (z) = gn−1 (z). (4.5.39)
∂z
100 CHAPTER 4. IDEAL SYSTEMS IN BOSE AND FERMI STATISTICS

CV
Nk B

3/2

3/2
~T

Tc
T
Figure 4.9: The specific heat of an ideal Bose gas (schematic).

Levando estes dois últimos resultados em (4.5.37), vem

3 z g3/2 (z)
 
∂z
=− . (4.5.40)
∂T n 2 T g1/2 (z)

Com isto, finalmente, a derivada na Eq. (4.5.36) fica

CV 15 g5/2 (z) 9 g3/2 (z)


= − , (4.5.41)
N kB 4 g3/2 (z) 4 g1/2 (z)

com z(n, T ) sendo obtido a partir de (4.5.27).


A Fig. 4.9 mostra o calor especı́fico como função da temperatura. É interessante notar
que a baixas temperaturas, CV vai a zero (com T 3/2 ), de acordo com a 3a Lei da Ter-
modinâmica; a introdução da estatı́stica quântica elimina, portanto, o comportamento
insatisfatório do calor especı́fico clássico a baixas temperaturas. Já o limite de altas
temperaturas coincide com o do gás ideal clássico, como era de se esperar. Mais ainda,
em Tc o calor especı́fico é singular, comportamento caracterı́stico de uma transição de
fase. A semelhança desta curva com a observada na transição superfluida do 4 He sugere
que esta última tenha uma ligação estreita com a Condensação de Bose-Einstein (CBE).
No entanto, tanto no 4 He superfluido quanto nos supercondutores, as interações entre
as partı́culas não podem ser desprezadas. Daı́ que estes sistemas não são considerados
exemplos emblemáticos da CBE.
Assim, apesar de prevista em 1925, e de incessantes tentativas de realizá-la experi-
mentalmente, somente em 1995 a CBE foi observada de modo conclusivo. As razões
desta demora são fáceis de entender. Não basta resfriar um gás de bósons até que Λ
fique da ordem da distância interatômica: as interações entre os átomos acabam por
localizá-los, formando lı́quidos ou sólidos (uma exceção é o He). Assim, tem-se que tra-
balhar a densidades baixas o suficiente, para minimizar o efeito das interações entre as
partı́culas, mas, ao mesmo tempo, altas o suficiente para que efeitos quânticos sejam
dominantes. A Eq. (4.5.22) nos mostra o caminho: CBE pode ocorrer a baixas densi-
dades, desde que as temperaturas sejam suficientemente baixas. Através de sofisticadas
4.6. EXERCISES 101

técnicas de resfriamento por laser, combinadas com armadilhamento magnético, atingiu-


se temperaturas da ordem de 0.1 µK para átomos de Rb, Na e Li, com densidades da
ordem de 1014 cm−3 , viabilizando a observação de CBE. Mais detalhes sobre os métodos
experimentais utilizados e sobre os avanços teóricos sobre o tema podem ser encontrados
no Physics Today de dezembro de 1999.

4.6 Exercises
1. (a) Mostre que, para gases ideais quânticos, a densidade de energia é obtida a partir
do gran-potencial J, como
 
1 ∂
ẽ = − βJ .
V ∂β z,V

(b) Suponha agora que os nı́veis de uma partı́cula tenham uma depend ência com σ,
εpσ , para mostrar que
 
1 ∂
hnp0 σ0 i = − βJ .
β ∂εp0 σ0 z,T

2. Considere um gás ideal de férmions, com espectro de energia ε(p) = aps , contido
numa caixa hipercubica de “volume” V = Ld , num espaço d-dimensional.

(a) Mostre que a equação de estado é


s
PV = E
d
onde E é a energia interna.
(b) Mostre que o calor especı́fico é dado por
 2
f(d/s)+1 (z) fd/s (z)
 
CV d d d
= +1 − ,
N kB s s fd/s (z) s f(d/s)−1 (z)

onde z é a fugacidade, e

1 xn−1 dx
Z
fn (z) = .
Γ(n) 0 z −1 ex+1

(c) Obtenha o comportamento de CV /N kB a baixas temperaturas. Comente.

3. Em um semicondutor intrı́nseco, que tem um gap de energia EG , as densidades de


elétrons de condução e de buracos são n e p, respectivamente. Mostre que
" #3/2
2π (me mh )1/2 kB T
n=p=2 e−EG /2kB T ,
h2
102 CHAPTER 4. IDEAL SYSTEMS IN BOSE AND FERMI STATISTICS

e que a energia de Fermi do sistema de elétrons é dada por


1 3 mh
µ = EG + kB T ln ,
2 4 me
quando elétrons e buracos são considerados como partı́culas livres de massas me e
mh , respectivamente. Tome a origem das energias no topo da banda cheia e suponha
EG  kB T . Estime o valor de n para EG = 0.7eV, T = 300K, e me = mh .

4. Considere um gás ideal de N bósons, com espectro de energia εp = aps , s > 0,


contido em uma caixa cúbica de volume V .

(a) Haverá condensação de Bose-Einstein para qualquer valor de s? Em caso afirma-


tivo, qual a dependência de Tc com a densidade n ≡ N/V ?
(b) Repita a discussão para um sistema d-dimensional.
(c) Discuta a dependência do calor especı́fico com T , a baixas temperaturas, para s
e d genéricos.

5. Considere um gás ideal de Bose, composto de moléculas com graus de liberdade


internos. Suponha que, além do estado fundamental, ε0 = 0, só haja necessidade
de levarmos em conta o primeiro estado excitado, de energia ε1 , do espectro interno.
Mostre que a temperatura crı́tica para condensação de Bose-Einstein é dada por
   1/2 
Tc(0) 1 2/3 1 + 24/3 πε1 (0)

se ε1  kB Tc

2 3ζ(3/2) k T (0)
Tc ' h B
(0)
ic

Tc(0) 1 − 2

e−ε1 /kB Tc (0)
se ε1  kB Tc ,
3ζ(3/2)

(0)
onde Tc é a temperatura crı́tica usual e ζ(n) é a função ζ de Riemann.

6. Considere um sistema ideal de N partı́culas; os estados acessı́veis a cada partı́cula


têm energias dadas por εp (p ≡ ı́ndice de momentum linear). Suponha que cada
estado possa acomodar até q partı́culas, de modo que q = 1 corresponde a férmions
e q = ∞ a bósons.

(a) Calcule a ocupação média hnp i do estado com energia p ; recupere os limites
q → 1 e q → ∞.
(b) Discuta o comportamento de hnp i a T = 0.
(c) Se 1 < q < ∞ você deve esperar que este sistema apresente comportamento
semelhante a bósons ou férmions? Por quê?

[Para uma discussão recente sobre a chamada estatı́stica de Gentile, ver WS Dai and
M Xie, Ann.Phys. (N.Y.) 309, 295 (2004), e referências lá contidas.]
Chapter 5

Applications of Ideal Quantum


Systems
Refs.: Huang, Landau & Lifshitz, Pathria

5.1 Introduction
Neste capı́tulo estudaremos algumas aplicações simples de sistemas ideais quânticos. Ini-
cialmente discutiremos o cálculo de valores médios para sistemas fermiônicos utilizando
a densidade de estados de uma partı́cula. Em seguida, veremos o comportamento mag-
nético de um gás de Fermi – incluindo tópicos como paramagnetismo de Pauli e diamag-
netismo de Landau –, o gás de fótons e, finalmente, fônons.

5.2 Density of States for Fermionic Systems


Vamos agora generalizar a passagem para o contı́nuo das integrais fermiônicas estudadas
na Seção 4.4. Isto nos permitirá obter resultados bastante gerais em termos da densi-
dade de estados de uma partı́cula, que é uma grandeza utilizada para descrever tanto
sistemas não-interagentes quanto, ao menos de modo aproximado, sistemas interagentes.
É importante frisar que, na maioria dos casos, a presença de interações faz com que se
perca a individualidade das partı́culas; isto é, os autoestados da Hamiltoniana com in-
teração não podem ser escritos como produtos sobre estados de uma partı́cula. Apesar
disto, pode-se obter uma densidade de estados em que as interações sejam introduzidas
através de aproximações sistemáticas.
Seja V o volume espacial (= Ld , para um hipercubo d-dimensional de lado L) ao qual
as partı́culas estão confinadas. No limite termodinâmico, o espaçamento entre os nı́veis
de energia diminui, até formarem praticamente um contı́nuo de estados. O número de
estados com energia entre ε e ε + dε é, então, dado por D(ε)dε, definindo a densidade
de estados de uma partı́cula D(ε). Por exemplo, para uma partı́cula livre com spin-1/2
em três dimensões, com εp = p2 /2m, já vimos que

8πV √ 3 1/2
D(ε) = 2m ε , (5.2.1)
h3

103
104 CHAPTER 5. APPLICATIONS OF IDEAL QUANTUM SYSTEMS

enquanto que em d dimensões, D(ε) ∼ ε(d−2)/2 (mostre!).


Assim, introduzindo o número médio de ocupação do nı́vel de energia ε (veja a
Fig. 4.2),
1
f (ε) = β(ε−µ) (5.2.2)
e +1
[supõe-se que a degenerescência esteja incluı́da em D(ε)], a média termodinâmica de
qualquer função da energia, Q(ε), fica
Z
hQi = dε D(ε)f (ε)Q(ε). (5.2.3)

Em particular, Z
hEi = dε D(ε)f (ε)ε, (5.2.4)

e Z
hN i = dε D(ε)f (ε). (5.2.5)

A partir destes exemplos fica claro que frequentemente encontraremos integrais do tipo
Z ∞
I= dε G(ε)f (ε), (5.2.6)
ε0

onde ε0 é a menor energia dos estados de uma partı́cula, e G é uma função de ε.


De particular interesse é o comportamento destas integrais a baixas temperaturas.
Para obtê-lo, suponhamos inicialmente que G seja uma função contı́nua e infinitamente
diferenciável em ε = µ, e que seja lentamente variável num intervalo da ordem de kB T
em torno deste ponto. Seja ψ(ε) a primitiva de G(ε), isto é, ψ 0 (ε) = G(ε), de modo que
a integração por partes de (5.2.6) fornece
∞ ∞ ∞
dψ df
Z Z
I= dε f (ε) = f (ε)ψ(ε) − dε ψ(ε) , (5.2.7)
ε0 dε ε0 ε0 dε

onde o primeiro termo no lado direito de (5.2.7) se anula porque f (∞) = 0 e porque
também supõe-se que ψ(ε0 ) = 0.1
É fácil ver que, especialmente a baixas temperaturas, a função df /dε assume valores
muito pequenos, a não ser num intervalo da ordem de kB T perto de ε = µ; veja a Fig. 4.2.
Logo, podemos levar a expansão de ψ(ε),

1
ψ(ε) = ψ(µ) + (ε − µ)ψ 0 (µ) + (ε − µ)2 ψ 00 (ε) + . . . , (5.2.8)
2
na Eq. (5.2.7), para ser integrada termo a termo.
1
For most cases of interest, with ε ∼ ps , we have D(ε) ∼ (ε − ε0 )(d−s)/s , and Q(ε) ∼ (ε − ε0 )λ ;
therefore, ψ(ε) ∼ (ε − ε0 )(d+sλ)/s , so that one must have λ > −d/s for the assumption to hold.
5.2. DENSITY OF STATES FOR FERMIONIC SYSTEMS 105

Estendendo o limite inferior das integrais para −∞ (o que não causa alterações sig-
nificativas, pois os integrandos se anulam neste limite), e usando os seguintes resultados
Z ∞
df
dε = −1, (5.2.9)
−∞ dε
Z ∞
df
dε (ε − µ)n = 0 (n impar), (5.2.10)
−∞ dε

∞ ∞
df xn ex
Z Z
dε (ε − µ) n
= − (kB T )n dx =
−∞ dε −∞ (ex + 1)2
= −2 (kB T )n n! 1 − 21−n ζ(n) (n par),

(5.2.11)

obtemos

X
2 1 − 21−2r ζ(2r) (kB T )2r ψ (2r) (µ).

I = ψ(µ) + (5.2.12)
r=1
P∞ −n
Nas equações acima, ζ(n) ≡ l=1 l é a função ζ de Riemann, cuja relação com os
números de Bernoulli, Br , é
π 2r
ζ(2r) = 22r−1 Br , (5.2.13)
(2r)!
com
1 1 1 1 5
B1 = , B 2 = , B 3 = , B 4 = , B 5 = . (5.2.14)
6 30 42 30 66
Substituindo-se ψ 0 (ε) por G(ε) temos
Z ∞ Z µ
π2 7π 4
dε G(ε)f (ε) = dε G(ε) + (kB T )2 G0 (µ) + (kB T )4 G000 (µ) + . . . (5.2.15)
ε0 ε0 6 360

Lembrando que a baixas temperaturas a diferença entre o potencial quimico e a energia


de Fermi é muito pequena, da ordem de (εF /kB T )2 , podemos efetuar a aproximação
Z µ Z εF
dε G(ε) ' dε G(ε) + (µ − εF ) G(εF ). (5.2.16)
ε0 ε0

Com isto, a Eq. (5.2.15) pode finalmente ser escrita de uma forma que separa a con-
tribuição do estado fundamental (como uma integral até εF ) dos efeitos de temperatura
não-nula:
Z ∞ Z εF
π2
I≡ dε G(ε)f (ε) = dε G(ε) + (µ − εF )G(εF ) + (kB T )2 G0 (µ) + . . . (5.2.17)
ε0 ε0 6

A partir daı́ o leitor deve deduzir os seguintes resultados:


 
∂I 1
= π 2 kB 2
T G0 (εF ) + O(T 3 ), (5.2.18)
∂T µ 3
106 CHAPTER 5. APPLICATIONS OF IDEAL QUANTUM SYSTEMS
 
∂I
= G(εF ) + O(T 2 ), (5.2.19)
∂µ T

e
 
∂I 1
= π 2 kB
2
T φ0 (εF )D(εF ) + O(T 3 ), (5.2.20)
∂T N 3

onde φ = G/D.
Em particular, pode-se mostrar (veja o Exercı́cio 5.2) que o potencial quı́mico a
baixas temperaturas é dado por
" 2 #
π2 d ln D(ε)
  
kB T
µ ' εF 1− , (5.2.21)
6 d ln ε ε=εF εF

e que o calor especı́fico (a volume constante) e a entropia são aproximadamente iguais


entre si:
π2 2
CV ' S ' D(εF ) kB T. (5.2.22)
3

É importante notar que o comportamento dominante do calor especı́fico com a


temperatura pode ser obtido a partir de um argumento bem simples, com um pequeno
erro nos pré-fatores numéricos. O princı́pio de exclusão de Pauli impõe que apenas os
férmions com energias próximas à energia de Fermi possam ser excitados termicamente;
são apenas estes, portanto, que contribuem para a variação da energia interna com a
temperatura e daı́ para o calor especı́fico. O número de férmions num intervalo da ordem
de kB T em torno da energia de Fermi é

δN ∼ D(εF ) × kB T, (5.2.23)

pois D fornece o número de estados por intervalo de energia, e já inclui a degenerescência
de spin. A variação na energia interna pode então ser estimada como

δE ∼ δN × kB T = (kB T )2 D(εF ), (5.2.24)

o que nos dá


2
CV ∼ D(εF )kB T; (5.2.25)

este resultado deve ser comparado com (5.2.22). Este argumento também explica porque,
no regime degenerado, o calor especı́fico de um gás de férmions tem um comportamento
linear com a temperatura, para qualquer dimensão espacial e para qualquer dispersão, já
que estas duas grandezas entram apenas na densidade de estados.
O procedimento adotado aqui, em termos da densidade de estados, será utilizado na
próxima seção.
5.3. MAGNETIC BEHAVIOUR OF AN IDEAL FERMI GAS 107

5.3 Magnetic Behaviour of an Ideal Fermi Gas


Metais apresentam um comportamento paramagnético bastante diferente de isolantes
(estes foram discutidos na Seção 3.3). Em particular, veremos que a baixas temperaturas
não há saturação do momento magnético resultante, e que a suscetibilidade não depende
da temperatura. Para isolantes, ao contrário, existe saturação do momento magnético
e a suscetibilidade diverge como 1/T a baixas temperaturas. A sugestão de Pauli, em
1927, de que os elétrons de condução em metais alcalinos deveriam ser tratados como um
gás de férmions degenerado, possibilitou a compreensão deste fenômeno, hoje conhecido
como paramagnetismo de Pauli.
Enquanto o paramagnetismo é proveniente do acoplamento do momento magnético
intrı́nseco dos elétrons com o campo, a quantização de suas órbitas helicoidais, em pre-
sença do mesmo campo, dá origem ao diamagnetismo, fenômeno que não tem análogo
clássico. Este efeito, que foi previsto primeiramente por Landau em 1930, é caracteri-
zado por uma suscetibilidade negativa. A altas temperaturas a suscetibilidade tem um
comportamento do tipo lei de Curie; quando T → 0 ela independe de T , mas depende
da densidade de partı́culas. Mais ainda, para campos fortes, a suscetibilidade a baixas
temperaturas é oscilatória, com perı́odo da ordem de 1/H, onde H é o campo aplicado.
Este comportamento é conhecido como efeito de Haas-van Alphen em homenagem a
quem o observou pela primeira vez, em 1930; sua explicação, todavia, só foi dada por
Peierls em 1933.
Mais recentemente (c. 1980), o confinamento de elétrons a uma região bastante estrei-
ta, numa das interfaces de uma heteroestrutura semicondutora (i.e., uma justaposição
de camadas de materiais semicondutores), possibilitou o estudo de elétrons (quase) bi-
dimensionais em presença de campo magnético. Descobriu-se que a resistividade Hall,
ao invés de ter um comportamento linear com o campo aplicado, como previsto classi-
camente, apresentava platôs correspondentes a sub-múltiplos de um quantum de resis-
tividade. Este fenômeno ficou conhecido como Efeito Hall Quântico (conhecido pela sua
sigla em inglês, QHE). Medidas subsequentes mostraram que, na realidade, havia dois
tipos de QHE: o inteiro (IQHE) e o fracionário (FQHE). O FQHE ainda é, hoje, objeto
de intensa investigação: uma das mais promissoras explicações para sua ocorrência lança
mão de concepções intrigantes como a de partı́culas compostas e de fracionalização da
carga.
A seguir, discutiremos o paramagnetismo e o diamagnetismo de Landau separada-
mente; basicamente, nosso objetivo será calcular a magnetização e a suscetibilidade em
cada caso. Em sequência, faremos uma discussão elementar do QHE, apresentando
algumas das novas ideias.

5.3.1 Pauli Paramagnetism


Consideremos inicialmente N férmions sem carga, com massa m e momento magnético
µ, em presença de um campo externo H. A Hamiltoniana de cada partı́cula é
p2
H= − µ · H, (5.3.1)
2m
108 CHAPTER 5. APPLICATIONS OF IDEAL QUANTUM SYSTEMS

(a) H = 0 (b) H =/ 0

F F

+µB H

D( ) D( ) D( ) µB H D( )

Figure 5.1: Schematic density of states for each spin channel, σ =↑, ↓, for the three-dimensional Fermi gas: (a)
zero field; (b) non-zero field.

representando o acoplamento de seu momento magnético intrı́nseco com o campo. Ana-


lisaremos aqui o caso de spin-1/2, de modo que o momento magnético tem apenas duas
orientações possı́veis com relação a H: µ = ±µB , onde µB é o magneton de Bohr.
Este sistema pode ser imaginado como se fossem dois gases coexistindo em equilı́brio:
um, composto de partı́culas com spin paralelo ao campo, e outro, com spin antiparalelo
ao campo.2 A Fig. 5.1(a) mostra a densidade de estados (no eixo horizontal; a energia
aparece no eixo vertical) para estas duas espécies de partı́culas com H = 0. Quando
o campo é aplicado, todos os nı́veis de energia para as partı́culas com spin paralelo
[antiparalelo] ao campo sofrem o mesmo deslocamento de −µB H [+µB H]. Portanto,
como indicado na Fig. 5.1(b), a densidade de estados associada ao ‘canal’ de spin σ
(σ = ↑ ↔ σ = +1; σ = ↓ ↔ σ = −1) corresponde à densidade de estados sem campo,
transladada de σµB H:
1
Dσ (ε) = D(ε + σµB H), (5.3.2)
2
onde D é dado por (5.2.1) no caso tri-dimensional com dispersão quadrática; o fator 1/2
se deve ao fato de os estados que contribuem para Dσ têm agora degenerescência g = 1.
O nı́vel de Fermi é o mesmo para as duas espécies e é determinado pela posição
em que a soma das áreas das duas curvas é igual ao número total de partı́culas. Fica
também aparente da figura que a maioria das partı́culas tem spin paralelo ao campo,
dando origem a uma magnetização resultante, ao contrário do caso em que H = 0.
Para obter a magnetização e a suscetibilidade devemos calcular N↑ e N↓ , o que é
feito adaptando-se as expressões da Seção 5.2. Assim,
Z ∞ Z ∞
1
Nσ = dε Dσ (ε) f (ε) = dε D(ε + σµB H) f (ε). (5.3.3)
−∞ −∞ 2
2
De agora em diante usaremos a expressão ‘spin paralelo ao campo’ como sinônimo de ‘momento
magnético paralelo ao campo’, mas sempre tendo em mente que, para elétrons, µ ∝ −S.
5.3. MAGNETIC BEHAVIOUR OF AN IDEAL FERMI GAS 109

Consideremos inicialmente T = 0, quando a função de Fermi, f (ε), restringe os


limites superiores das integrais acima:
εF εF +σµB H
1 1
Z Z
Nσ = dε D(ε + σµB H) = dε D(ε), (5.3.4)
−σµB H 2 0 2

onde se supôs, como na Fig. 5.1, que a menor energia possı́vel para os férmions é −σµB H.
No caso da densidade de estados (5.2.1), a integração em (5.3.4) é imediata, e obtemos
a magnetização como

4πV (2m)3/2 n 3/2 3/2


o
M = µB (N+ − N− ) = µB (ε F + µ B H) − (ε F − µ B H) . (5.3.5)
3h3
Como µB H  εF , temos

4πV (2m)3/2 1/2 3 N µ2B H


M' µ B ε F (3µ B H) = , (5.3.6)
3h3 2 εF

onde N é o número total de partı́culas e εF é dado por (4.4.7) com g = 2, de modo que

1 ∂M 3 µ2B
χ0 ≡ = . (5.3.7)
N ∂H 2 εF
Estes últimos resultados são muito importantes, e devem ser comentados. A magne-
tização por partı́cula é pequena – o termo µB vem multiplicado por um fator da ordem
de µB H/εF –, quando comparada com a obtida em isolantes que, a T = 0, atinge a
saturação; isto é M = M/N = µB . Esta ausência de saturação é devido à apreciável
energia de ponto zero que ocorre no gás de Fermi, de modo que flutuações quânticas
perturbam o alinhamento total. Assim, um pequeno campo não é capaz de aumentar a
magnetização significativamente, o que se reflete na suscetibilidade finita a T = 0. No
caso dos isolantes, a suscetibilidade diverge a T = 0 porque um pequeno campo consegue
um alinhamento considerável.
A temperaturas finitas procedemos de modo análogo. A magnetização fica

1
Z
M = µB (N↑ − N↓ ) = µB dε {D(ε + µB H) − D(ε − µB H)} f (ε). (5.3.8)
2
Supondo µB H  εF podemos expandir D, obtendo
Z ∞
M µ2
χ= = B dε D0 (ε)f (ε), (5.3.9)
H N 0

onde D0 (ε) ≡ dD/dε.


A baixas temperaturas usamos a Eq. (5.2.20), com φ = µ2B D0 /D, para obter

π2 2 2 d2 ln D
   
∂χ
= µ k T D(εF ) . (5.3.10)
∂T N 3N B B dε2 ε=εF
110 CHAPTER 5. APPLICATIONS OF IDEAL QUANTUM SYSTEMS

Integrando com relação à temperatura vem, finalmente,


( )
µ2B D(εF )
 2
D

1 2 d ln
χ= 1 + π (kB T )2 + ... . (5.3.11)
N 6 dε2 ε=εF

É interessante notar que a suscetibilidade a T = 0 traz a assinatura da densidade de


estados no nı́vel de Fermi. Este aspecto se torna particularmente importante porque
muitas vezes a interação entre as partı́culas é incorporada – de modo aproximado, é
claro – como uma modificação na densidade de estados. Logo, medidas experimentais
da suscetibilidade a baixas temperaturas revelam, por exemplo, se a densidade de estados
no nı́vel de Fermi é grande ou pequena.
Especializando para elétrons livres em três dimensões, i.e., com D(ε) dado por (5.2.1),
obtemos "  #
3 µ2B π 2 kB T 2

M' H 1− , (5.3.12)
2 εF 12 εF
e "  #
3 µ2B π 2 kB T 2

χ' 1− . (5.3.13)
2 εF 12 εF

No limite de altas temperaturas, kB T  εF , podemos tomar f (ε) ' e−β(ε−µ) na


Eq. (5.3.9) que, integrada por partes, fornece

µ2B
χ' . (5.3.14)
kB T
Como esperado, este resultado independe da densidade de estados e é semelhante ao
comportamento paramagnético de isolantes, do tipo lei de Curie.

5.3.2 Landau Diamagnetism


Na sub-seção anterior exploramos a interação do momento magnético intrı́nseco de um
férmion com um campo magnético, dando origem ao paramagnetismo. Todavia, uma
partı́cula carregada em presença de um campo magnético, H = H ẑ, tem uma trajetória
helicoidal, com eixo na direção z do campo; isto é, o movimento no plano xy é circular,
e na direção z é o de uma partı́cula livre. Poderı́amos pensar que o movimento circular
dá origem a um outro momento magnético (não intrı́nseco), que tende a se alinhar
antiparalelamente ao campo. Apesar de atraente, esta imagem clássica não é suficiente
para explicar o diamagnetismo, como previsto pelo Teorema de van Leeuwen: o fenômeno
do diamagnetismo não existe na Fı́sica Clássica; a demonstração deste teorema é pedida
no Exercı́cio 5.3.
Consideremos, portanto, o problema sob o ponto de vista quântico, partindo de
um gás de elétrons independentes; não levaremos em conta nesta discussão o spin do
elétron, pois queremos enfatizar as alterações no movimento orbital. O problema de
uma partı́cula carregada em presença de campo uniforme é exatamente solúvel (veja,
5.3. MAGNETIC BEHAVIOUR OF AN IDEAL FERMI GAS 111

p.ex., a Ref. [14]): os movimentos nas direções perpendicular e paralela ao campo são
separáveis, sendo que o primeiro contribui com a energia de um oscilador harmônico
uni-dimensional, e o segundo com a de uma partı́cula livre. Os nı́veis de uma partı́cula
são, portanto, dados por
p2
 
1
ε= j+ ~ω + z , j = 0, 1, 2, . . . , (5.3.15)
2 2m
onde ω é a frequência de revolução
eH
. ω= (5.3.16)
mc
A contribuição tipo oscilador harmônico para este espectro corresponde aos chamados
nı́veis de Landau. Para um gás tri-dimensional, a cada um dos nı́veis de Landau se soma
um espectro contı́nuo devido ao movimento livre ao longo da direção z; é um espectro
sem gaps. Se, por outro lado, o gás está confinado às duas dimensões perpendiculares
ao campo, o espectro corresponde apenas aos nı́veis de Landau, e apresenta gaps.
A Fig. 5.2 mostra esquematicamente os espectros dos movimentos bi-dimensionais,
sem campo magnético e em presença deste. Pode-se imaginar que vários nı́veis do sistema
sem campo colapsam em um único nı́vel quando o campo é ligado. Assim, todos os g
estados do quase-contı́nuo, cujas energias estiverem numa faixa de largura ~ω, estarão
associados ao estado quantizado mais próximo. Quantitativamente, g é dado pela área
do espaço de fase correspondendo à energia naquela faixa:
L2 L2 L2 eH
Z Z Z
g= 2 dpx dpy = 2 2πp dp = . (5.3.17)
h h hc
p2 2
x +py p2
j~ω< <(j+1)~ω j~ω< 2m <(j+1)~ω
2m

Note que g/L2 representa o número de órbitas, por nı́vel de Landau, que podem ser
acomodadas em cada cm2 ; isto é, fornece uma medida quântica da incerteza na locali-
zação da órbita circular do elétron. Vê-se, portanto, que quanto maior for H, maior é a
degenerescência de cada nı́vel de Landau.
Os bons números quânticos para férmions sem spin em presença de campo magnético
são, portanto, λ ≡ {pz , j, α}, com α = 1, 2, . . . , g. Assim como no caso sem campo, é
mais conveniente trabalhar no ensemble gran-canônico, no qual a função de partição é
fatorada como um produto sobre estados de uma partı́cula:
Y 
Z= 1 + ze−βελ . (5.3.18)
λ

Tomando o logaritmo, vem


X   g X
X ∞ X  
−βελ
ln Z = ln 1 + ze = ln 1 + ze−βε(α,j,pz ) =
λ α=1 j=0 pz
1/3 ∞ ∞
gV
Z X  
= dp ln 1 + ze−βελ , (5.3.19)
h −∞ j=0
112 CHAPTER 5. APPLICATIONS OF IDEAL QUANTUM SYSTEMS

(a) H = 0 (b) H =/ 0

j= 3
h
j= 2
h
j= 1
h
h j= 0

Figure 5.2: Planar contribution to the single-particle energy levels (schematic): (a) H = 0, and (b) H 6= 0.

e, lembrando que
∂ X
hN i = z ln Z = hnλ i, (5.3.20)
∂z
λ

obtemos
∞ ∞
gV 1/3 1
Z X
hN i = dp . (5.3.21)
h −∞ z −1 eβε + 1
j=0

Analisemos agora os casos limites. A altas temperaturas devemos ter o comporta-


mento clássico com z  1, e podemos expandir (5.3.19) e (5.3.21) em potências de z,
mantendo apenas o termo em ordem mais baixa,
 
∞ ∞ p2 −1
zgV 1/3

zV eH 1
Z X −β 2m
+~ω(j+1/2) ~ω
ln Z ' dp e = 2 sinh , (5.3.22)
h −∞ hc Λ 2kB T
j=0

e, portanto,
zV x
hN i ' ln Z ' , (5.3.23)
Λ3 sinh x
com
µ0 H
x≡ , (5.3.24)
kB T
onde
eh
µ0 ≡ (5.3.25)
4πmc
é o momento magnético induzido.
A magnetização é obtida da maneira usual, isto é,
   
1 ∂ z 1 x cosh x
M = kB T ln Z = 3 µ0 − 2 = −nµ0 L(x), (5.3.26)
V ∂H z,V,T Λ sinh x sinh x
5.3. MAGNETIC BEHAVIOUR OF AN IDEAL FERMI GAS 113

onde n ≡ hN i/V e a função de Langevin é definida por


1
L(x) ≡ coth x − . (5.3.27)
x
O resultado (5.3.26) é muito semelhante ao obtido pela Teoria de Langevin para dipolos
clássicos, sendo que a diferença fundamental está no sinal de M que, sendo negativo (i.e.,
magnetização contrária ao campo), caracteriza o diamagnetismo. Outra observação
importante diz respeito ao aspecto puramente quântico deste efeito: µ0 → 0 quando
h → 0, concordando com a demonstração mais formal do Teorema de van Leeuwen (veja
Exercı́cio 5.3).
Fazendo a hipótese adicional de que µ0 H  kB T , temos que
L(x) ' x/3, (5.3.28)
de modo que
nµ02 H
M'− , (5.3.29)
3kB T
e
nµ02
χ'− , (5.3.30)
3kB T
evidenciando que o caráter diamagnético não depende do sinal da carga da partı́cula.
Ademais, a suscetibilidade total é obtida somando-se as contribuições (5.3.14) e (5.3.30)
onde, nesta última, a massa da partı́cula que aparece na definição de µ0 deve ser entendida
como sua massa efetiva no sistema (p.ex., em um cristal):
 
n 1 02
χ' 2
µB − µ ; µ0 H  kB T. (5.3.31)
kB T 3
Se µ0 = µB , note que a contribuição diamagnética para elétrons é 1/3 da paramagnética,
a altas temperaturas.
Vejamos agora o outro extremo, isto é, o comportamento a baixas temperaturas,
kB T  εF . Suponhamos que µ0 H  kB T , de modo que a soma em j na Eq. (5.3.19)
possa ser feita com o auxı́lio da fórmula de Euler,
∞ Z ∞
X 1
f (j + 1/2) ' f (x) dx + f 0 (0), (5.3.32)
0 24
j=0

com o resultado
"Z #
∞ Z ∞   0H Z ∞
eV H 0 p2 1 µ 1
ln Z = 2 dx dp ln 1 + ze−β(2µ Hx+ 2m ) − dp p2
.
h c 0 −∞ 12 kB T −∞ z −1 eβ 2m +1
(5.3.33)
Os cálculos de ambas as integrais são simplificados neste limite (veja Ref. [4], Seção 8.2,
para detalhes), de modo que a correção em ordem mais baixa, devido à quantização das
órbitas, fornece para a suscetibilidade a baixas temperaturas
1 nµ02
χ'− , (5.3.34)
2 εF
114 CHAPTER 5. APPLICATIONS OF IDEAL QUANTUM SYSTEMS

H V VH
I
w

t
Figure 5.3: Esquema de medida das tensões longitudinal, V , e transversa (Hall), VH , em uma amostra de largura
w e espessura t, percorrida por uma corrente I, em presença de um campo magnético perpendicular H.

que, mais uma vez, traz a assinatura do diamagnetismo, independentemente do sinal


da carga da partı́cula. Note também que, ao contrário da contribuição paramagnética
[Eq. (5.3.7)], a suscetibilidade diamagnética a T = 0 depende da densidade de partı́culas.
Supondo agora que µ0 H ' kB T  εF , pode-se mostrar (veja Ref. [4], Seção 8.2) que
a suscetibilidade contém termos oscilatórios em H:
1/2
3nµ02 kB T εF sin(πεF /µ0 H − π/4)
χ'π . (5.3.35)
2εF (µ0 H)3/2 sinh(π 2 /βµ0 H)

Este efeito, conhecido como ‘de Haas-van Alphen’, permite a determinação experimental
da energia de Fermi do sistema através da medida do perı́odo da suscetibilidade, 2µ0 /εF .

5.3.3 The Quantum Hall Effect


Imagine uma corrente I passando por uma amostra. Ao aplicarmos um campo magné-
tico, H, perpendicular à corrente (veja a Fig. 5.3), as cargas serão defletidas em direção
à extremidade anterior, devido à força de Lorentz. Esta acumulação de cargas gera um
campo elétrico transverso, E⊥ , cujo sentido depende do sinal dos transportadores. Uma
nova situação de equilı́brio ocorre quando a força de Lorentz fôr contrabalançada por
esta força eletrostática; isto é, a corrente volta a fluir quando
v
E⊥ = H (CGS), (5.3.36)
c
onde v é a velocidade dos transportadores, determinada pela corrente I ou, equivalente-
mente, pela densidade de corrente j:
j I
v= = . (5.3.37)
nq n wt q
5.3. MAGNETIC BEHAVIOUR OF AN IDEAL FERMI GAS 115

Figure 5.4: Medidas tı́pricas de resistência como função do campo magnético. A curva com platôs corresponde à
resistência Hall, RH , em undidades do quantum de resistência, h/e2 ; as setas indicam o valor de ν na Eq. (5.3.39).
A resistência longitudinal exibe máximos entre os platôs de RH e se anula nos platôs. [Segundo HL Stormer,
Rev.Mod.Phys.71, 875 (1999)].

Nesta equação, n é a densidade de transportadores com carga q, e w e t são, respec-


tivamente, a largura e a espessura da seção reta da amostra; como veremos adiante, é
conveniente definir a densidade superficial de transportadores como ns = n t.
Medindo-se a voltagem, V , ao longo da corrente (veja a Fig. 5.3), obtemos a mag-
netorresistência R = V /I. Podemos também definir a resistência Hall como a razão
entre a voltagem perpendicular, VH , e a corrente: RH = VH /I. Expressando VH em
termos de E⊥ , I em termos de j, e usando (5.3.36) e (5.3.37), obtemos, finalmente, que
a resistência Hall depende linearmente do campo magnético,

1
RH = H, (5.3.38)
ns qc

conforme observado por Edwin Hall, em 1879. Este resultado é notável, já que um único
parâmetro caracterı́stico do material – a densidade eletrônica superficial, ns – define a
proporcionalidade entre RH e H, independentemente da forma da amostra.
O desenvolvimento de técnicas de deposição bastante apuradas, a partir de 1980,
permitiu a fabricação de heteroestruturas semicondutoras com alto grau de pureza, como
MOSFET’s (Metal-oxide-semiconductor field-effect transistors) de Silı́cio, compostos de
uma camada de Si em contato com uma de SiO2 .3 Estes dispositivos são capazes de
3
Para uma discussão mais detalhada, veja, p.ex., H. L. Stormer, Rev. Mod. Phys. 71, 875 (1999).
116 CHAPTER 5. APPLICATIONS OF IDEAL QUANTUM SYSTEMS

Figure 5.5: Densidade de estados para um gás de elétrons bi-dimensional em um campo magnético: (a) na
ausência de impurezas, e (b) na presença de impurezas. As impurezas causam um alargamento dos nı́veis de
Landau, que se tornam bandas de estados deslocalizados (regiões hachuradas), ao mesmo tempo em que introduz
estados localizados entre sucessivos nı́veis de Landau.

confinar elétrons à interface entre as camadas, formando, essencialmente, um gás bi-


dimensional. A restrição a duas dimensões inibe a imersão do espectro da Fig. 5.2(b) em
um contı́nuo de estados associados ao movimento livre na direção z; e, como veremos a
seguir, a presença de gaps é crucial para os efeitos interessantes que surgem.
Quando submetidos a temperaturas de 4K e a campos magnéticos da ordem de
20 T, estes dispositivos entram num regime no qual espera-se que o efeito Hall seja
dominado por efeitos quânticos, já que os gaps no espectro se tornam comparáveis à
energia térmica. Os resultados obtidos4 e mostrados na Fig. 5.4, foram surpreendentes.
Em primeiro lugar, o crescimento de RH com H se dá através de platôs, ao invés do
comportamento linear previsto classicamente; veja a Eq. (5.3.38). Em segundo lugar, da
mesma figura se nota que o valor de RH nestes platôs é quantizado,
1 h
RH = , ν = 1, 2, . . . , (5.3.39)
ν e2
definindo o que passou a ser conhecido como o quantum de resistência, h/e2 ' 25.8
kΩ. E, finalmente, a magnetorresistência apresenta valores extremamente baixos nos
intervalos de H correspondentes aos platôs na resistência Hall.
A compreensão destes resultados é obtida por etapas. Em primeiro lugar, para
entender a existência de uma região de magnetorresistência nula, lembremos que a re-
sistividade se deve a algum mecanismo de espalhamento (por vibrações da rede, por
impurezas, ou por outros elétrons), que leva elétrons com energias perto da energia de
Fermi a estados finais com energias também próximas a εF . Imagine agora que algum
efeito coletivo no sistema cause a abertura de um um gap em torno de εF , de modo que
4
K. von Klitzing et al., Phys. Rev. Lett. 45, 494 (1980)
5.3. MAGNETIC BEHAVIOUR OF AN IDEAL FERMI GAS 117

os estados finais possı́veis estão agora separados dos estados iniciais por um limiar de
energia. Nestes processos de espalhamento as energias disponı́veis para os elétrons não
são suficientes para vencer o gap, de modo que a transição entre estados eletrônicos não
ocorre, e o transporte se dá sem resistência. Isto sugere que os gaps entre os nı́veis de
Landau, presentes no movimento bi-dimensional (perpendicular a H) sejam a fonte de
queda na magnetorresistência.
Para ver como isto ocorre, consideremos inicialmente um sistema totalmente puro,
para o qual a densidade de estados corresponde a funções-δ igualmente espaçadas, loca-
lizadas nos nı́veis de Landau; veja a Fig. 5.5(a). A razão entre o número de elétrons, N ,
e a degenerescência de cada nı́vel de Landau define o fator de preenchimento,
N ns hc 1
ν= = , (5.3.40)
g e H
cujo inverso mede a ‘disponibilidade’ do nı́vel. É importante notar a dependência de
1/ν com H, para uma densidade de elétrons fixa: se H = H1 ≡ ns hc/e, só o nı́vel de
Landau de mais baixa energia estará (totalmente) preenchido. À medida em que H
diminui a partir deste valor, o nı́vel mais baixo passa a não acomodar todos os elétrons
e inicia-se uma ‘migração’ para o segundo nı́vel. Quando H = H1 /2, os dois nı́veis de
Landau mais baixos estão totalmente preenchidos; uma diminuição maior de H leva a
uma migração em direção ao terceiro nı́vel, e assim por diante. Pode-se se pensar que,
para H diminuindo entre H1 e H1 /2, o nı́vel de Fermi permanece ‘grudado’ no segundo
nı́vel de Landau; quando H < H1 /2, εF salta para o terceiro nı́vel de Landau, ficando
grudado até que H < H1 /3, etc.
Vemos então que valores do campo H = H1 /ν são especiais por representarem
preenchimento completo de ν nı́veis de Landau. Levando estes valores na Eq. (5.3.38),
obtemos a quantização de RH , descrita pela Eq. (5.3.39). Como para estes campos (ou
valores de ν) os gaps de Landau separam estados totalmente ocupados de estados total-
mente desocupados, a resistência é nula.
A discussão acima, no entanto, não explica a presença de platôs nem o fato da mag-
netorresistência não se anular em torno dos ν inteiros. A origem destes efeitos está no
fato de que, por mais cuidadoso que seja o processo de crescimento, o sistema sempre
apresenta impurezas, as quais causam dois efeitos importantes. Em primeiro lugar, os
nı́veis de Landau se alargam, virando mini-bandas de estados deslocalizados (i.e., elétrons
nestes estados podem conduzir corrente quando submetidos a um campo elétrico), rep-
resentadas na Fig. 5.5(b) pelas regiões hachuradas. Em segundo lugar, as impurezas
aprisionam alguns elétrons, que ficam em estados localizados, não participando, por-
tanto, da condução; estes estados ocupam as regiões entre as bandas de Landau, como
mostra a Fig. 5.5(b). Suponha agora que, para um dado valor de H, o nı́vel de Fermi
esteja no meio de uma das bandas de Landau; neste caso a magnetorresistência não é
nula, e RH não está em um platô. À medida em que H diminui, o nı́vel de Fermi agora
aumenta continuamente, passando pela região de estados localizados, como indicado pela
reta pontilhada na Fig. 5.5(b). Nesta região, os elétrons deslocalizados sentem um gap
efetivo e, como no caso puro, não apresentam resistência; ademais, como as bandas de
Landau permanecem totalmente preenchidas, RH se mantém nos valores quantizados.
118 CHAPTER 5. APPLICATIONS OF IDEAL QUANTUM SYSTEMS

Figure 5.6: FQHE: Resistência Hall (RH ) e Magnetorresistência (R) como funções do campo magnético aplicado,
agora no caso de heteroestruturas de GaAs/AlGaAs. Deve ser notado o aparecimento de mais platôs em RH e
de mais quedas em R do que na Fig. 5.4. [Segundo HL Stormer, Rev.Mod.Phys.71, 875 (1999)].

Posteriormente, os MOSFET’s de Si foram substituı́dos por heteroestruturas de


GaAs/AlGaAs, com um ganho significativo na mobilidade dos elétrons; isto é, dimi-
nuı́ram significativamente a presença de impurezas e a rugosidade nas interfaces [veja
HL Stormer, op. cit.]. Isto, aliado à disponibilidade de campos magnéticos mais intensos,
permitiu estabelecer a presença de platôs também para valores racionais não-inteiros de
ν, dando origem ao Efeito Hall Quântico Fracionário (FQHE); veja a Fig. 5.6.
A origem do FQHE reside na interação entre os elétrons, sendo, portanto, um efeito
de muitos corpos. Todavia, a análise pode ser reduzida, de modo engenhoso, a um outro
problema de partı́culas não interagentes. Para ver isto, devemos notar inicialmente que
um campo magnético H, cujo fluxo é dado por Φ = HL2 (L2 é a área), aplicado a
uma distribuição uniforme de carga produz vórtices, cada um dos quais associado a
um quantum de fluxo magnético Φ0 = hc/e. A Eq. (5.3.17) nos permite escrever a
degenerescência de cada nı́vel em termos de uma razão entre fluxos como
Φ
g= , (5.3.41)
Φ0
de modo que a Eq. (5.3.40) fornece

N
Φ= Φ0 . (5.3.42)
ν
5.4. THERMODYNAMICS OF BLACKBODY RADIATION 119

O efeito das interações entre os elétrons pode ser levada em conta, de modo efetivo,
ao ‘fixarmos’ quanta de fluxo nos elétrons, criando as chamadas partı́culas compostas
(PC’s). Isto leva a uma transmutação estatı́stica, pois ao trocarmos duas PC’s, a função
de onda fica multiplicada por um fator de fase (−1)1+Φ/Φ0 . Assim, elétrons com um
número par de quanta de fluxo são férmions compostos, enquanto que elétrons com
um número ı́mpar de fluxos se tornam bósons compostos. A partir destas idéias pode-se
compreender uma boa parte dos platôs e das correspondentes magnetorresistências nulas
[veja HL Stormer, op. cit., RB Laughlin, Rev. Mod. Phys. 71, 863 (1998), e referências
lá citadas].

5.4 Thermodynamics of Blackbody Radiation


Uma das mais importantes aplicações da estatı́stica de Bose-Einstein é na descrição de
radiação eletromagnética em equilı́brio termodinâmico, chamada de radiação de corpo
negro. Ela pode ser pensada como um ‘gás’ de fótons. A linearidade das equações da
eletrodinâmica implica na ausência de interações entre os fótons, de modo que este gás
é, de fato, ideal.
Para tratar a radiação em um meio material – e não no vácuo – ainda como um
gás ideal, a interação entre os fótons e a matéria deve ser pequena. Para gases, esta
condição é satisfeita para todo o espectro, com exceção de frequências próximas dos
picos de absorção; para meios materiais mais densos, a interação só pode ser considerada
pequena a altas temperaturas. Por outro lado, deve-se ter em mente que a matéria deve
sempre estar presente, pois é ela que fornece o mecanismo – através da emissão e absorção
de fótons – para a radiação atingir o equilı́brio termodinâmico. Por esta razão, o número
de fótons N não é definido, ao contrário do que ocorre em um gás material. Assim, para
radiação em equilı́brio em uma cavidade de volume V , à temperatura T (fixos), N deve
ser determinado a partir das condições de equilı́brio do sistema; a condição de mı́nimo
da energia livre do gás de fótons fornece
 
∂A
= µ = 0, (5.4.1)
∂N T,V

ou seja, o potencial quı́mico do gás de fótons é zero. É importante notar que esta
condição ocorre sempre que as partı́culas em estudo corresponderem a excitações de
algum sistema como, por exemplo, fônons, mágnons, etc.
Os fótons se distribuem entre os diferentes modos normais, caracterizados por vetores
de onda k, com energias εk = ~ωk e relação de dispersão ω = c|k|; os valores possı́veis
de k dependem das condições de contorno impostas à cavidade. Consideraremos sempre
condições de contorno periódicas em uma caixa cúbica de volume V , que fornecem


kα = nα , nα = 0, ±1, ±2, . . . , (5.4.2)
V 1/3
onde α = x, y, z. O número médio de fótons com vetor de onda k é dado pela Eq. (4.3.2)
120 CHAPTER 5. APPLICATIONS OF IDEAL QUANTUM SYSTEMS

com µ = 0,
1
hnk i = , (5.4.3)
eβ~ωk −1
que é a conhecida distribuição de Planck.
Supondo o volume grande o suficiente, podemos passar para uma distribuição con-
tı́nua de modos normais. O número de modos com vetores de onda no intervalo dk
centrado em k é [V /(2π)3 ]dk, que, devido à isotropia da relação de dispersão, deve ser o
mesmo que o número de modos com módulo do vetor de onda no intervalo dk centrado
em k. Temos então, para a densidade de modos (isto é, o número de modos por intervalo)
V
g(k) = 4πk 2 . (5.4.4)
(2π)3
Para relacionar g(k) com g(ω), usamos a relação de dispersão e notemos que o campo
eletromagnético tem apenas duas direções de polarização (denotadas por ê1 e ê2 , de
modo que a densidade de modos com frequência entre ω e ω + dω fica, finalmente,
V
g(ω) = 2 × ω2. (5.4.5)
2π 2 c2
O número de fótons com frequência neste intervalo é obtido multiplicando-se a
Eq. (5.4.3) por g(ω)dω:
V ω 2 dω
dNω = 2 3 β~ω . (5.4.6)
π c e −1
A energia irradiada nesta faixa do espectro é obtida como ~ω · dNω , ou
V ~ ω 3 dω
dEω = , (5.4.7)
π 2 c3 eβ~ω − 1
que é conhecida como a fórmula de Planck para a radiação de corpo negro; veja a Fig. 5.7.
A baixas frequências (~ω  kB T ), recupera-se o resultado de Rayleigh-Jeans,
V ω2
dEω = kB T dω, (5.4.8)
π 2 c3
enquanto que a altas frequências obtemos a lei de Wien,
V ~ 3 −β~ω
dEω = ω e dω. (5.4.9)
π 2 c3
Para o cálculo de outras grandezas termodinâmicas necessitamos da função de par-
tição,

X P 1
e−β
YX Y
Z= k,ê ~ωk nk,ê
= e−β~ωk n = , (5.4.10)
1 − e−β~ωk
{nk },ê k,ê n=0 k,ê

cujo logaritmo nos dá


X X
ln Z = − ln(1 − e−β~ωk ) = −2 ln(1 − e−β~ωk ). (5.4.11)
k,ê k
5.4. THERMODYNAMICS OF BLACKBODY RADIATION 121

Figure 5.7: Distribuição espectral da energia [u0 ≡ dEω /dω, Eq. (5.4.7)] na radiação de corpo negro, mostrando
os resultados de Planck, Rayleigh-Jeans e Wien; x ≡ ~ω/kB T .

A energia interna é dada por


∂ X 2~ωk e−β~ωk X
E=− ln Z = = 2~ωk hnk i, (5.4.12)
∂β 1 − e−β~ωk
k k

onde hnk i é dado pela Eq. (5.4.3) e não inclui a degenerescência devida aos dois modos
transversos de polarização. De modo análogo, a pressão fica
1 ∂ 1 X
P = ln Z = 2~ωk hnk i, (5.4.13)
β ∂V 3V
k

onde deve-se lembrar que a dependência em V vem através de ωk = ck, com k dado pela
Eq. (5.4.2). Comparando as Eqs. (5.4.12) e (5.4.13), obtemos a equação de estado,
1
PV = E, (5.4.14)
3
que é um resultado bastante conhecido para a pressão da radiação de corpo negro. Deve-
se notar que o fator 1/3 representa, na realidade, a razão entre o expoente s da relação
de dispersão (εp ∼ ps ) e a dimensão espacial d.
Tomando agora V → ∞, as somas em k podem ser substituı́das por integrais, e
Z ∞
V V~ ω3
Z
2 ~ck
E= 3
dk 4πk β~ck
= 2 3
dω β~ω , (5.4.15)
(2π) e −1 π c 0 e −1
ou
E π 2 (kB T )4
= . (5.4.16)
V 15 (~c)3
122 CHAPTER 5. APPLICATIONS OF IDEAL QUANTUM SYSTEMS

O calor especı́fico do gás de fótons fica sendo


4
4πkB
CV = T 3, (5.4.17)
15(~c)3
Devemos comparar as diferentes contribuições do calor especı́fico a baixas temperat-
uras. Para o gás de bósons materiais a 3 dimensões, temos CV ∼ T 3/2 e para o gás de
fótons também a 3 dimensões, CV ∼ T 3 . Estes resultados podem ser generalizados da
seguinte forma: CV ∼ T d/s para um gás de bósons. Esta dependência com o expoente
da relação de dispersão e com a dimensionalidade do sistema deve ser contrastada com
o comportamento de um gás de férmions, CV ∼ T , para quaisquer s e d.

5.5 Phonons
O problema de modos vibracionais de um sólido pode ser estudado considerando o
sistema tanto como um conjunto de osciladores harmônicos, quanto como um gás de
quanta de som, os chamados fônons. Para ilustrar isto, consideremos a Hamiltoniana
de um sólido clássico de N átomos, cujas posições no espaço são especificadas pelas
coordenadas (x1 , x2 , x3 , . . . x3N ). As vibrações dos átomos em torno de suas posições
de equilı́brio (x̄1 , x̄2 , x̄3 , . . . x̄3N ) são descritas pelos deslocamentos ξi = (xi − x̄i ), onde
i = 1, . . . 3N . A energia cinética do sistema na configuração {xi } é, então, dada por
3N
1 X 2 1 X ˙2
Ec = m ẋi = m ξi , (5.5.1)
2 2
i=1 i

e a energia potencial por


X  ∂Φ  X 1  ∂2Φ 
Φ = Φ(xi ) = Φ(x̄i ) + ξi + ξi ξj + . . . (5.5.2)
∂xi {xi }={x̄i } 2 ∂xi ∂xj {xi }={x̄i }
i i,j

O termo Φ(x̄i ) representa a energia (mı́nima) do sólido, Φ0 , quando todos os N átomos


estão em repouso em suas posições de equilı́brio. O termo seguinte é identicamente
nulo porque Φ deve ter um mı́nimo em (x̄i ). Os termos de segunda ordem represen-
tam, então, a componente harmônica das vibrações atômicas. Trabalharemos aqui na
aproximação harmônica, baseada na hipótese de que as vibrações têm pequenas ampli-
tudes, permitindo-nos desprezar termos de ordem mais alta. Podemos então escrever a
Hamiltoniana como  
X 1 
mξ˙i2 +
X
H = Φ0 + αij ξi ξj , (5.5.3)
 2 
i i,j

onde
∂2Φ
 
1
αij = , (5.5.4)
2 ∂xi ∂xj
inclui também o acoplamento entre vibrações em torno de diferentes sı́tios.
5.5. PHONONS 123

Agora introduzimos uma transformação linear, das coordenadas ξi para as chamadas


coordenadas normais, qi , de modo que a nova expressão para a Hamiltoniana não contém
termos cruzados,
X1
H = Φ0 + m(q̇i2 + ωi2 qi2 ), (5.5.5)
2
i

onde os ωi , i = 1, 2, . . . , 3N são as frequências caracterı́sticas dos chamados modos


normais do sistema. Elas são determinadas, essencialmente, pelos αij , que refletem
detalhes do potencial de interação Φ(xi ). Ademais, a Eq. (5.5.5) sugere que o sólido se
comporta como um conjunto de 3N osciladores harmônicos não-interagentes com um
espectro de frequências naturais, ωi .
Classicamente, então, cada um dos 3N modos normais corresponde a uma distorção
dos pontos da rede; isto é, a uma onda sonora. Quanticamente, estes modos dão origem
a quanta, chamados de fônons, em analogia com os modos do campo eletromagnético
dando origem a fótons. Uma diferença importante entre estes dois casos é que, enquanto
o número de modos normais no caso do campo eletromagnético é indefinido, o número de
modos normais no caso de sólidos é especificado pelo número de sı́tios da rede. Todavia,
o número de fônons, bem como o número de fótons, é também indefinido, resultando num
potencial quı́mico identicamente nulo; veja a Seção 5.4. Estas diferenças se manifestam
apenas nos comportamentos termodinâmicos envolvendo modos de altas frequências,
como pode ser verificado pelos resultados que serão deduzidos nesta seção.
A contribuição dos fônons para a termodinâmica do sólido pode então ser obtida
da maneira usual, lembrando, em primeiro lugar, que os autovalores da Hamiltoniana
quântica são dados por
X 1

E{ni } = Φ0 + ni + ~ωi , (5.5.6)
2
i

onde os números ni definem o estado de excitação dos diversos osciladores; equivalen-


temente, estes números definem as ocupações dos vários nı́veis dos fônons. A energia
interna do sistema é, então,
( )
X1 X ~ωi
E(T ) = Φ0 + ~ωi + /k
. (5.5.7)
2 e ~ω i BT − 1
i i

A expressão entre colchetes é a energia do sólido no zero absoluto e determina a energia


de ligação da rede. O último termo é que determina o calor especı́fico,

∂E
 X (~ωi /kB T )2 e~ωi /kB T
CV (T ) = = kB (5.5.8)
∂T V i
(e~ωi /kB T − 1)2

Para prosseguirmos além deste ponto necessitarı́amos de informações sobre o espectro


de frequências, o qual não é simples de ser obtido a partir de primeiros princı́pios. Alter-
nativamente, lança-se mão de espectros obtidos experimentalmente, ou faz-se hipóteses
124 CHAPTER 5. APPLICATIONS OF IDEAL QUANTUM SYSTEMS

simplificadoras a seu respeito. No modelo de Einstein (1907), supõe-se que todas as


frequências têm o mesmo valor: ωi = ωE ∀i . O calor especı́fico é, então, dado por

CV (T ) = 3N kB E(x), (5.5.9)

onde a função de Einstein é

x2 ex ~ωE ΘE
E(x) = , com x= ≡ ; (5.5.10)
(ex − 1)2 kB T T

a última expressão define a temperatura de Einstein ΘE . A altas temperaturas, T  ΘE ,


obtemos CV ∼ 3N kB , que é o resultado clássico (c.f., o teorema da equipartição da
energia) como deveria ser. Já a baixas temperaturas, T  ΘE , temos CV ∼ e−x , que
decai muito mais rápido que o previsto experimentalmente (em 3 dimensões) ∼ T 3 .
Como vimos anteriormente, o comportamento exponencial do calor especı́fico sinaliza a
presença de um gap de energia que, neste caso, é atribuı́do à artificialidade do modelo.
No modelo de Debye (1912) considera-se um espectro contı́nuo, até uma determinada
frequência de corte, ωD , a qual é determinada impondo que o número total de modos de
vibração seja igual a 3N ; isto é,
Z ωD
g(ω) dω = 3N, (5.5.11)
0

onde g(ω)dω fornece o número de modos normais entre ω e ω + dω. Para g(ω) podemos
usar a expressão (5.4.5), desde que adaptada para levar em conta os seguintes aspectos:
(1) os modos de vibração podem ser longitudinais e transversais (estes últimos são du-
plamente degenerados); (2) as velocidades de propagação dos modos longitudinais (cL )
e transversais (cT ) podem ser diferentes. Assim,

V ω2 V ω2
g(ω) = + , (5.5.12)
2π 2 c3L π 2 c3T

que, levado em (5.5.11), fornece


 −1
3 N
2 1 2
ωD = 18π 3 + 3 . (5.5.13)
V cL cT

Finalmente, o espectro de frequências de Debye é dado por


(
(9N/ωD3 ) ω 2 , se ω ≤ ω
D
g(ω) = (5.5.14)
0, se ω > ωD .

Neste ponto devemos fazer duas observações. Em primeiro lugar, o espectro de


freqüências de Debye é, claramente, uma idealização, como fica aparente ao ser com-
parado com um espectro real tı́pico; veja a Fig. 5.8. Se para os modos de baixa frequência
– os chamados fônons acústicos – a aproximação de Debye é razoável, para os modos de
5.5. PHONONS 125

Figure 5.8: Distribuição de frequências, g(ω), para o Al. A linha cheia é obtida por espalhamento de raios-X [C
B Walker, Phys. Rev. 103 547, (1956)] e a linha tracejada corresponde à aproximação de Debye.

alta frequência – fônons óticos – as discrepâncias são aparentes. Felizmente, para quanti-
dades médias como a energia interna e, por conseguinte, para o calor especı́fico, detalhes
finos do espectro não são muito importantes. Em segundo lugar, os modos longitudinais
e transversais têm suas próprias frequências de corte, ωD,L e ωD,T , ao invés de um valor
comum, ωD , simplesmente porque há 2N modos transversos e N longitudinais. Todavia,
ambas as frequências de corte correspondem a um mesmo comprimento de onda mı́nimo,
λmin = (4πV /3N )1/3 , que é da ordem da distância interatômica no sólido.
Retomando os cálculos na aproximação de Debye, e lembrando que na Eq. (5.5.8) a
passagem para o contı́nuo contribui com g(ω) ∝ ω 2 , obtemos
CV (T ) = 3N kB D(x0 ), (5.5.15)
onde D(x0 ) é a função de Debye,
x0
3 x4 e x
Z
D(x0 ) = 3 dx , (5.5.16)
x0 0 (ex − 1)2
com
~ωD ΘD
≡x0 = , (5.5.17)
kB T T
o que define a temperatura de Debye para o sólido. Fazendo a integral em (5.5.16) por
partes, obtemos
3x0 12 x0 x3
Z
D(x0 ) = − x0 + 3 dx x . (5.5.18)
e − 1 x0 0 e −1
Para T  ΘD , a função D(x0 ) pode ser expressa em uma série de potências em x0 :
x20
D(x0 ) ' 1 − , (5.5.19)
20
126 CHAPTER 5. APPLICATIONS OF IDEAL QUANTUM SYSTEMS

e o calor especı́fico neste limite fica

CV ' 3N kB , (5.5.20)

que é o resultado clássico. A baixas temperaturas, T  ΘD , podemos estender o limite


superior de integração para ∞ em (5.5.18),

12 x3
Z
D(x0 ) = dx + O(e−x0 ), (5.5.21)
x30 0 ex − 1

recaindo nas conhecidas integrais bosônicas, gn (z); veja Eq. (4.5.1). Logo,
3
4π 4

12 T
D(x0 ) ' 3 Γ(4)g4 (1) = , (5.5.22)
x0 5 ΘD

e, portanto,
3
12π 4

T
C V ' N kB , (5.5.23)
5 ΘD
reproduzindo o comportamento conhecido como a Lei-T 3 de Debye, indicando a ausência
de um gap, contrariamente ao previsto pelo modelo de Einstein. Deve-se notar que a
dependência de CV com T a baixas temperaturas pode ser extraı́da sem nos referirmos
às integrais bosônicas: com efeito, a integral em (5.5.21) contribui com um número,
enquanto que a dependência com T já está contida em x−3 0 que, por sua vez, resultou de
uma mudança de variável de integração.
Medidas experimentais do calor especı́fico de sólidos a baixas temperaturas servem de
teste para o modelo de Debye, através de estimativas para ΘD , que devem ser comparadas
com as obtidas a partir de constantes elásticas; o resultado favorece a teoria de Debye.
Valores tı́picos de ΘD cobrem o intervalo de 100 a 1000K.
Finalizando, esta análise indica que se o calor especı́fico a baixas temperaturas de
um dado sistema obedece à lei-T 3 , então suas excitações térmicas são explicadas apenas
por fônons.

5.6 Exercises
1. Obtenha os resultados (5.2.18), (5.2.19) e (5.2.20).

2. Mostre que, para um gás de férmions a baixas temperaturas temos, de uma maneira
geral,
"  #
π 2 d ln g(ε) kB T 2 π2 2
  
µ ' εF 1 − e CV ' S ' k T g(εF ),
6 d ln ε ε=εF εF 3 B

onde g(ε) é a densidade de estados de uma partı́cula. Discuta estes resultados para
um gás com espectro de energia εp = apn em um espaço d-dimensional.
5.6. EXERCISES 127

3. Mostre que o diamagnetismo não existe na Fı́sica Clássica. [Sugestão: A Hamiltoniana


para partı́culas carregadas em presença de um campo magnético B = ∇ × A é uma
função de pj + (ej /c)A(rj ). Deve-se mostrar, então, que a função de partição do
sistema é independente do campo aplicado.]

4. Considere um gás ideal de elétrons bi-dimensional, cuja densidade (número de elétrons


pela área do sistema) é n. Obtenha a contribuição dos momentos magnéticos intrı́n-
secos para a suscetibilidade deste sistema a T = 0.

5. Considere elétrons não interagentes em 3 dimensões, em presença de um campo


magnético uniforme H; a Hamiltoniana de uma partı́cula é dada pela Eq. (5.3.1).

(a) Mostre que a energia de uma dada configuração de spins pode ser escrita como
X
E= Ep (np↑ , np↓ ),
p

onde npσ (= 0 ou 1) é o número de partı́culas com spin σ = ±1 (ou ↑, ↓) e


momento p, e
p2
Ep (np↑ , np↓ ) = np − mp µB H,
2m
com np ≡ np↑ + np↓ e mp ≡ np↑ − np↓ .
(b) Mostre que a gran-função de partição pode ser escrita como

Z = Z0 (µ + µB H) Z0 (µ − µB H),

onde Yh i
2
Z0 (ν) = 1 + eβ(ν−p /2m) .
p

(c) Mostre que o gran-potencial pode ser expresso como


V h βµB H −βµB H
i
J = kB T f5/2 (ze ) + f5/2 (ze ) ,
Λ3
onde as integrais fermiônicas f5/2 (w) foram definidas na Eq. (4.4.11).
(d) Denotando por Nσ o número médio de partı́culas com spin σ, mostre que o número
total de elétrons e a magnetização são dados por
V h i
N = N↑ + N↓ = 3 f3/2 (zeβµB H ) + f3/2 (ze−βµB H ) ,
Λ
e
V h i
M = µB (N↑ − N↓ ) = µB 3 f3/2 (zeβµB H ) − f3/2 (ze−βµB H ) ,
Λ
respectivamente.
(e) Discuta os limites de altas e baixas temperaturas, comparando com os resultados
da Seção 5.3.1.
128 CHAPTER 5. APPLICATIONS OF IDEAL QUANTUM SYSTEMS

6. Considere um gás ideal de férmions de massa m e spin-1/2, com um espectro de uma


partı́cula ε(k).

(a) Qual a probabilidade de ocupação, p(n; ε), à temperatura T (ou sua inversa,
β ≡ 1/kB T ) de um estado arbitrário com energia ε, sendo n = 0, 1 a ocupação
do estado? Certifique-se de que esta probabilidade está normalizada.
(b) Mostre que a probabilidade do estado com energia µ+δ (δ é uma energia constante
arbitrária) estar ocupado é igual à probabilidade do estado com energia µ−δ estar
desocupado. Comente.

Suponha, de agora em diante, que o espectro destes férmions admita energias


positivas e negativas, com dispersão
p
ε± (k) = ± m2 c4 + ~2 c2 k 2 ,

onde c é uma constante.


(c) À temperatura nula, todos os estados de energia negativa estão ocupados, en-
quanto que os de energia positiva estão desocupados; logo, µ(T = 0) = 0. Baseado
no resultado do item (b), o que se pode afirmar sobre µ(T > 0)?
(d) Mostre que a energia média de excitação deste sistema, à temperatura T > 0, é
dada por
4V ε+ (k)
Z
E(T ) − E(0) = 3
d3 k βε (k) ,
(2π) e + +1
onde V é o volume a três dimensões.
(e) Suponha que estes férmions não tenham massa; obtenha a dependência com a
temperatura da capacidade calorı́fica deste gás. Como este resultado se compara
com o caso em que o espectro é limitado inferiormente? Discuta.
(f) Suponha agora férmions massivos a baixas temperaturas; obtenha a dependência
com a temperatura da capacidade calorı́fica deste gás. Comente.

7. Ondas de spin são perturbações a baixas temperaturas sobre um estado com spins
(clássicos) totalmente alinhados [parte (a) da figura abaixo]. Elas correspondem,
essencialmente, a um desvio transversal sendo compartilhado por todos os spins; veja
a parte (b) da figura abaixo. Mágnons são os quanta destas excitações, que têm
relação de dispersão ω = Ak 2 , onde A é uma constante.

(a) Faça esboços das densidades de estados de mágnons, D(ε), como funções da
energia ε, para dimensões espaciais d = 1, 2 e 3. Coloque no mesmo gráfico o
número médio de mágnons com energia ε.
(b) Obtenha o número médio total de mágnons em um sistema de dimensão d.
(c) Discuta cuidadosamente seus resultados. Comente, em particular, as consequên-
cias para o alinhamento quando d ≤ 2.
5.6. EXERCISES 129

Figure 5.9: Problema 6

(d) Suponha agora que limε→0 g(ε) = ∆, onde ∆ é uma constante positiva. Como
isto alteraria as conclusões do ı́tem anterior?

8. Supondo que a relação de dispersão para vibrações em sólidos seja ω = Ak s , mostre


que a respectiva contribuição para o calor especı́fico a baixas temperaturas é propor-
cional a T 3/s . Generalize este resultado para d dimensões. (Obs.: s = 1 corresponde
a fônons, e s = 2 corresponde a mágnons.)

9. Um gás ideal de bósons se movimenta em bloco com velocidade v em relação a um


referencial inercial.

(a) Mostre que o número médio de ocupação hnp i de um estado com energia εp é
dado por
1
hnp i = β(ε −µ−v·p) ,
e p −1
onde µ é o potencial quı́mico.
(b) Mostre, a partir daı́, que a densidade de ‘massa inercial’ de um gás de fônons,
com relação de dispersão ω = ck, movendo-se em bloco com velocidade v é

16π 5 (kB T )4 1
ρ= .
45h c 3 5
(1 − v 2 /c2 )3
130 CHAPTER 5. APPLICATIONS OF IDEAL QUANTUM SYSTEMS
Chapter 6

Approximation Methods
Refs.: Landau & Lifshitz, Reichl e Koonin

6.1 Introduction
Nos Capı́tulos anteriores, as interações entre as partı́culas foram totalmente desprezadas.
Mesmo assim, pudemos ver exemplos em que esta descrição aproximada fornecia resul-
tados bastante satisfatórios. Por outro lado, há muitos fenômenos, tais como desvios do
gás ideal na dependência da pressão com a densidade de partı́culas, e transições de fase
em sistemas fluidos, magnéticos, supercondutores, etc., nas quais o papel das interações
é crucial para explicar o comportamento observado.
Neste Capı́tulo e no próximo, apresentaremos algumas maneiras aproximadas de se
tratar sistemas interagentes. Não poderı́amos, de forma alguma, fazer uma revisão de
todos os métodos disponı́veis, pois há muitos deles; cada um reflete as peculiaridades
de cada sistema e das diferentes situações fı́sicas. Podemos dividir as aproximações em,
basicamente, duas categorias: métodos perturbativos e não-perturbativos. Na primeira,
explora-se a presença de algum parâmetro que seja pequeno, em certo sentido. Por
exemplo, expansões na densidade de partı́culas (Seção 6.2) ou na parte atrativa do po-
tencial de interação (Seção 6.3); ou, ainda, expansões da suscetibilidade em altas e baixas
temperaturas, que são muito úteis no estudo de transições de fase, mas que não serão
abordadas neste curso. Entre os métodos não-perturbativos podemos incluir simulações
numéricas como Monte Carlo (Seção 6.4) e Dinâmica Molecular; no Capı́tulo 7 discutire-
mos outros, como teorias de Campo Médio e Grupo de Renormalização. Claramente, esta
divisão tem suas imprecisões, já que vários métodos são frequentemente combinados.

6.2 The Virial Expansion


6.2.1 Deviation of gases from the ideal state
A equação de estado de um gás ideal, quando aplicada a gases reais fornece, na maioria
dos casos, resultados bastante precisos. Como mencionado acima, esta aproximação
pode não ser adequada em algumas situações. Veremos agora como surgem os desvios
do comportamento ideal a partir da incorporação das interações entre as moléculas.

131
132 CHAPTER 6. APPROXIMATION METHODS

Façamos, inicialmente, a hipótese de que o gás seja tão rarefeito que colisões múltiplas
– isto é, colisões envolvendo mais do que dois corpos simultaneamente – possam ser
desprezadas. Também por simplicidade, consideraremos um gás monoatômico. O movi-
mento das partı́culas pode ser tratado classicamente, de modo que a energia tem a forma
N
X p2i
H= + U (r1 , r2 , . . . , rN ), (6.2.1)
2m
i=1

onde U (r1 , r2 , . . . , rN ) é a energia de interação mútua que, num gás monoatômico, é


função apenas das distâncias entre os átomos.
A função de partição pode ser escrita como

1
Z
ZN (T, V ) = d3N r d3N p e−βH . (6.2.2)
N !h3N

A integração em p é trivial por ser Gaussiana, e reproduz os resultados obtidos anteri-


ormente,
3N Z ∞ p 3N
2
Y
dp e−βp /2m = 2πmkB T = h3N Λ−3N . (6.2.3)
i=1 −∞

Definindo a integral de configuração,


Z
QN (T, V ) ≡ d3N r e−βU (r1 ,r2 ,...,rN ) , (6.2.4)

podemos escrever
1
ZN (T, V ) = QN (T, V ). (6.2.5)
N !Λ3N
Fazendo U = 0, a integral de configuração se reduz a V N , recuperando a já conhecida
função de partição para o gás ideal,
 N
(0) 1 V
ZN = , (6.2.6)
N! Λ3

bem como a energia livre de Helmholtz,

A(0) = −N kB T ln V /Λ3 + kB T ln N !.

(6.2.7)

É então conveniente escrever a Eq. (6.2.5) como

(0) QN (T, V )
ZN (T, V ) = ZN (T, V ) , (6.2.8)
VN
para que a energia livre tome a forma

A = A(0) − kB T ln QN /V N .

(6.2.9)
6.2. THE VIRIAL EXPANSION 133

d3N r =
R
Somando e subtraindo 1 no integrando da Eq. (6.2.4), e usando o fato de que
V N , temos  
1
Z  
(0) 3N −βU
A = A − kB T ln d r e −1 +1 . (6.2.10)
VN
A interação entre um par de átomos é muito pequena, a não ser quando eles estão
muito próximos; isto é, prestes a colidir. Façamos agora mais uma hipótese simplifi-
cadora:1 além de rarefeito, há tão poucos átomos que, dificilmente, mais de um par
deles esteja colidindo a cada instante. Assim, para N átomos este par pode ser escolhido
de 12 N (N − 1) maneiras, e podemos fazer a seguinte aproximação para a integral em
(6.2.10):
Z h i 1 Z h i
−βU N −2
3N
d r e − 1 ' N (N − 1)V d3 r1 d3 r2 e−βu(r12 ) − 1 , (6.2.11)
2
onde u(r12 ) é a energia de interação entre dois átomos quaisquer, e depende apenas de
suas coordenadas; isto nos permitiu fazer a integração nas outras 3(N − 2) coordenadas,
dando o fator V N −2 . Expandindo o logaritmo e tomando N (N − 1) ∼ N 2 , temos

1 N2
 Z h i
(0) 3 3 −βu(r12 )
A = A − kB T ln 1 + d r1 d r2 e −1 '
2 V2
1 N2
Z h i
' A(0) − kB T 2 d3 r1 d3 r2 e−βu(r12 ) − 1 (6.2.12)
2 V
Lembrando que u é função apenas das coordenadas relativas, r, a integral dupla pode
ser expressa em termos das coordenadas do centro de massa, R, e de r, o que nos permite
fazer a integral em d3 R dando origem a mais um fator V . Assim,

1 N2
Z h i
(0) 3 −βu(r)
A ' A − kB T d r e −1 , (6.2.13)
2 V
que pode ser escrita como

N2
A ' A(0) + kB T B2 (T ), (6.2.14)
V
onde
1
Z  
B2 (T ) ≡ d3 r 1 − e−βu(r) (6.2.15)
2
tem dimensão de volume. The reader should note that the factor N multiplying n ≡ N/V
in (6.2.14) is in line with the extensive character of A(T, V, N ).
A pressão é dada em termos do coeficiente B2 (T ),
   
∂A N kB T N
P =− = 1+ B2 (T ) ; (6.2.16)
∂V T,N V V
1
Esta hipótese será dispensada na próxima sub-seção, onde a expansão do virial será deduzida de
modo mais formal.
134 CHAPTER 6. APPROXIMATION METHODS

r
2r0
u0

Figure 6.1: Energia potencial de interação em função da distância interatômica; r0 é o ‘raio atômico’ e −u0 é o
mı́nimo de energia.

ou seja, a primeira correção à equação de estado do gás ideal é proporcional à densidade


de partı́culas.
Algumas observações sobre os resultados acima devem ser feitas. Em primeiro lugar,
eles se aplicam a gases monoatômicos; a extensão para gases poliatômicos é feita levando-
se em conta que a energia de interação entre um par de moléculas depende não apenas
da distância entre seus respectivos centros de massa, mas também da orientação relativa
entre elas. Uma outra extensão possı́vel pode ser feita para incluir a interação entre os
spins das partı́culas; neste caso, além da integração nas coordenadas espaciais, deve-se
incluir também uma soma sobre os números quânticos de spin. Em segundo lugar, os
potenciais devem cair rapidamente com a distância, para que a integral na Eq. (6.2.15)
convirja; ou seja, devemos ter u(r) ∼ r−n , com n > 3. Esta condição é geralmente
satisfeita para gases monoatômicos e moleculares, pois os potenciais de interação entre
átomos e entre moléculas neutras (incluindo dipolos), quando tomados em média sobre
as direções relativas, dão origem a potenciais com u ∼ 1/r6 .
We should now discuss the behaviour of the pressure at high and low temperatures
based on a typical interatomic potential, such as the one displayed in Fig. 6.1. Apart
from specific details, these potentials should display: (1) a ‘hard core’ reflecting the
‘impenetrability’ of the atoms for distances r . 2r0 , where r0 is the atomic radius, so
that this can be considered as the repulsive region of the potential; and (2) a minimum
of the well at r∗ , such that u(r∗ ) = −u0 , corresponding to stable equilibrium, so that
the region r & 2r0 will then be referred to as the attractive region of the potential. We
can then think in terms of three energy scales: the thermal energy, kB T , the attractive
energy, u0 , and the hard core energy, call it uhc , with uhc  u0 . Then, in this context
high temperatures means uhc  kB T  u0 , since the thermal energy is still small to
overcome the nuclear repulsion; and low temperatures means uhc  u0  kB T .
It is therefore illustrative to break the integral in (6.2.15) into separate contributions
from the repulsive, Ir , and attractive, Ia , regions: B2 (T ) = Ir + Ia . The dominant
6.2. THE VIRIAL EXPANSION 135

contribution to the integrand in Ir is


1 − e−βu(r) ' 1 − e−βuhc ≈ 1, (6.2.17)
either at high or low temperatures. For the attractive region, the integrand is typically
1 − e−βu(r) ' 1 − eβu0 . (6.2.18)
At high temperatures,
1 − eβu0 ≈ −βu0 , with |βu0 |  1, (6.2.19)
so that Ir  |Ia |, and B2 ≈ Ir > 0: the pressure is larger than that of the non-
interacting gas. By contrast, at low temperatures,
1 − eβu0 ≈ −eβu0 , with |βu0 |  1, (6.2.20)
so that Ir  |Ia |, so that B2 ≈ Ia < 0: the pressure is smaller than that of the ideal
gas.
Na próxima sub-seção a expansão em densidades será reobtida, desta vez de uma
forma mais sistemática, que permite o cálculo até ordens mais altas.

6.2.2 The virial expansion


Como vimos, a Eq. (6.2.16) corresponde aos dois primeiros termos de uma expansão da
pressão em potências da densidade n ≡ N/V ,
"  2 #
N kB T N N
P = 1+ B2 (T ) + B3 (T ) + · · · , (6.2.21)
V V V
onde os coeficientes Bj (T ) são conhecidos como os coeficientes do virial. Para uma
dedução sistemática desta expansão, é conveniente tratar o problema no ensemble gran-
canônico, no qual a pressão é obtida a partir de

1 µN/kB T
X Z
e P V /kB T
= e dΓN e−βHN (p,q) , (6.2.22)
N!
N =0
onde o volume no espaço de fases é
1 3 3
dΓN = d r1 d r2 . . . d3 pN , (6.2.23)
h3N
e os HN são, por exemplo,
N = 0 ⇒ H0 = 0 (6.2.24)
p2
N = 1 ⇒ H1 = (6.2.25)
2m
2
X p2i
N = 2 ⇒ H2 = + u(r12 ) (6.2.26)
2m
i=1
3
X p2i X
N = 3 ⇒ H3 = + u(rij ), (6.2.27)
2m
i=1 1≤i<j≤3
136 CHAPTER 6. APPROXIMATION METHODS

pois levamos em conta apenas interações a dois corpos.


Como a integral nos momentos pode ser feita independentemente, chamemos

eµ/kB T z
Z
2 /2m
ξ≡ d3 p e−βp = , (6.2.28)
h3 Λ3

com z = exp(µ/kB T ), de modo que a Eq. (6.2.22) fornece

ξ2 ξ3
 
P V = kB T ln 1 + ξV + I2 + I3 + · · · , (6.2.29)
2! 3!
com Z
I2 = d3 r1 d3 r2 e−βu(r12 ) , (6.2.30)
e Z P
I3 = d3 r1 d3 r2 d3 r3 e−β 1≤i<j≤3 u(rij )
. (6.2.31)

Expandindo o logaritmo em potências de ξ, obtemos



X Jn
P = kB T ξn, (6.2.32)
n!
n=1

onde, até 3a ordem,

J1 =1, (6.2.33)
1
I2 − V 2 , e

J2 = (6.2.34)
V
1
I3 − 3V I2 + 2V 3 .

J3 = (6.2.35)
V
As integrais I2 e I3 podem ser simplificadas introduzindo as coordenadas relativas
r = r2 − r1 , r0 = r3 − r2 , r31 = r − r0 , e as coordenadas do centro de massa do sistema,
R = (r1 + r2 + r3 )/3; note que r31 não é independente. Assim,
Z Z
I2 = d3 R d3 r e−βu(r) , (6.2.36)

e Z Z
0 0
I3 = 3
d R d3 r d3 r0 e−βu(r) e−βu(r ) e−βu(|r−r |) . (6.2.37)

As integrais em d3 R contribuem com V , de modo que


Z  
J2 = d3 r e−βu(r) − 1 , (6.2.38)

e Z  
0 0
J3 = d3 r d3 r0 e−βu(r) e−βu(r ) e−βu(|r−r |) − 3e−βu(r) + 2 . (6.2.39)
6.2. THE VIRIAL EXPANSION 137

É interessante notar que os Jn só são apreciavelmente diferentes de zero se os n


átomos estiverem próximos. Por esta razão, expansões deste tipo são também chamadas
de expansões em aglomerados (clusters).
Para eliminar o potencial quı́mico, devemos também calcular o número médio de
partı́culas,
        
∂ ∂P ∂P ∂ξ ∂P ξ
N= PV =V =V =V , (6.2.40)
∂µ T,V ∂µ T,V ∂ξ ∂µ ∂ξ kB T

ou

X Jn
N =V ξn. (6.2.41)
(n − 1)!
n=1

Resolvendo (6.2.41) para ξ(N, V ), e levando em (6.2.32), podemos obter P (T, V, N )


por aproximações sucessivas:

N kB T
1a aprox.: P = kB T ξ, N = V ξ ⇒ P = = P (0) (6.2.42)
  V  
a 1 N kB T 1N
2 aprox.: P = kB T ξ 1 + J2 ξ , N = V ξ(1 + J2 ξ) ⇒ P = 1− J2 ,
2 V 2V
(6.2.43)

que reproduz o resultado (6.2.16), com (6.2.15).

6.2.3 The Van der Waals Equation


Em gases a interação entre as moléculas é muito fraca. À medida em que esta interação
cresce em intensidade, as propriedades do gás se distanciam cada vez mais de um gás
ideal até que o fluido condensa em uma fase lı́quida. Nesta, o fluido é caracterizado por
uma forte interação entre as moléculas, fazendo com que suas propriedades dependam
consideravelmente do lı́quido em estudo. Por esta razão, uma descrição quantitativa de
lı́quidos é muito difı́cil de ser obtida.
Todavia, pode-se obter uma fórmula que descreve qualitativamente a transição entre
lı́quidos e gases, a chamada equação de van der Waals. De fato, no limite de gases
rarefeitos ela se reduz ao resultado conhecido do gás ideal; à medida em que a densidade
aumenta, atingimos um limite de compressibilidade, sinalizando a chegada à fase lı́quida.
Para obter a equação de van der Waals, consideremos interações como as descritas
na Seção 6.2.1 (veja a Fig. 6.1) , e suponhamos que u0  kB T . A integral em (6.2.15)
pode ser dividida nas mesmas regiões (até 2r0 e daı́ até ∞):

1 a
Z
B2 (T ) = d3 r (1 − e−βu(r) ) ≡ b − , (6.2.44)
2 kB T
com Z 2r0  
b = 2π r2 dr 1 − e−βu(r) , (6.2.45)
0
138 CHAPTER 6. APPROXIMATION METHODS

e ∞
a
Z
− = 2π r2 dr (1 − e−βu(r) ). (6.2.46)
kB T 2r0

Note that b and a have dimensions of volume and [energy · volume], respectively. In
the hard core region the exponential is much smaller than 1, and the integral does not
depend on the interaction potential; we therefore obtain,
16 3
b' πr0 = 4v0 , (6.2.47)
3
where v0 is the atomic volume. In the attractive region, the argument in the exponencial
is −βu(r) = β|u(r)|  1, o que fornece 1 − exp β|u(r)| ' β|u(r)|], e
Z ∞
a |u(r)|
− ' 2π dr r2 . (6.2.48)
kB T 2r0 kB T

Taking the definition of B2 (T ) in terms of a and b [(6.2.44)], into (6.2.16), the pressure
can be written as
N N2 N2
P = kB T + 2 kB T b − 2 a, (6.2.49)
V V V
or, rearranging terms, as
−1
N2
 
N N
P+ 2a 1+ b = kB T. (6.2.50)
V V V

Assuming the gas to be sufficiently rarefied, such that we can neglect triple (and higher
order) collisions, the molecules are very far apart, and we may take V  N b; this implies
 −1  
N N
1+ b ' 1− b , (6.2.51)
V V

and we arrive at the usual form of the van der Waals equation of state,

N 2a
 
P + 2 (V − N b) = N kB T, (6.2.52)
V

We see that for rarefied gases, N 2 a/V 2  P and N b  V , we recover the ideal gas
result. Most importantly, we see that as result of the interactions, the gas cannot be
compressed indefinitely, since the second term in brackets would become negative, while
both other terms are positive. There is therefore a minimum volume for the gas, namely
Vmin ≡ N b; this can be interpreted as an indication that below this volume threshold
the gas becomes a liquid, as discussed in Sec. 7.3.1.
Uma outra grandeza que ilustra a diferença com relação ao gás ideal é a entropia,
dada por

N 2 kB b
   
∂A (0) Nb
S=− = S − N kB ln 1 − ' S (0) + ; (6.2.53)
∂T V V V
6.3. DENSE FLUIDS: PERTURBATION THEORY 139

ou seja, a entropia do gás de van der Waals é maior que a do gás ideal. A energia interna
fica, então,
N 2a
E = A + T S = E (0) − , (6.2.54)
V
e o calor especı́fico a volume constante,
!
∂E (0)
 
∂E (0) 3
CV = = = CV = N kB , (6.2.55)
∂T V ∂T 2

é igual ao do gás ideal. Já o calor especı́fico a pressão constante pode ser calculado
usando os resultados do Exercı́cio 2.7, fornecendo
 ∂P
 2 −1
N a(V − N b)2

∂T V
CP − CV = −T ∂P
= N kB 1 − 2 (6.2.56)
kB T V 3

∂V T

(0) (0) (0)


que difere do gás ideal, CP − CV = N kB , pelo fato de que CP > CP .
Em resumo, o gás de van der Waals fornece uma interpolação entre os comporta-
mentos de gás ideal de um fluido. No Capı́tulo 7 utilizaremos este modelo para discutir
alguns aspectos da transição lı́quido-gás em sistemas fluidos.

6.3 Dense Fluids: Perturbation Theory


É possı́vel fazer uma expansão em clusters também para fluidos densos, sendo que a
diferença entre esta e a expansão do virial consiste, basicamente, no modo com que os
termos são somados.
Um método mais preciso consiste em uma teoria de perturbação no potencial de
interação. Este método foi introduzido por Zwanzig [J. Chem. Phys. 22 1420 (1954)] e
parte da constatação de que o comportamento qualitativo de fluidos densos é determi-
nado pela parte repulsiva (‘caroço duro’) do potencial de interação, e que a parte atrativa
do potencial contribui apenas com correções ao comportamento de carôço duro. Deste
modo podemos tratar a atração entre as moléculas perturbativamente.
Para sistemas clássicos a contribuição de energia cinética para a energia livre é fa-
torada da contribuição de interações (configurações). Suponhamos que a energia poten-
cial possa ser escrita como
V = V0 + V 0 , (6.3.1)

onde V0 é o caroço duro e V 0 a contribuição da parte atrativa; ambos envolvem, em


princı́pio, N partı́culas. A energia livre de configuração, Ā, pode, então, ser obtida
através de
QN 1
Z
e−β Ā ≡ = d3 r1 . . . d3 rN e−βV , (6.3.2)
N! N!
onde QN é a integral de configuração definida pela Eq. (6.2.4).
140 CHAPTER 6. APPROXIMATION METHODS

Definamos, de maneira análoga, a contribuição do caroço duro, A0 , através de


(0)
Q 1
Z
−βA0
e ≡ N = d3 r1 . . . d3 rN e−βV0 , (6.3.3)
N! N!
de modo que a densidade de probabilidade de encontrarmos o sistema de caroço duro na
configuração (r1 , r2 , . . . rN ) é

e−βV0
ρN
0 (r1 , r2 , . . . rN ) ≡ (0)
. (6.3.4)
QN

Assim, a energia livre de configurações pode ser calculada como


Z
−β Ā −βA0 0
e =e d3 r1 . . . d3 rN ρ0 (r1 , . . . rN ) e−βV (6.3.5)
0
= e−βA0 he−βV i0 , (6.3.6)

onde h. . .i0 corresponde à média de configurações cuja distribuição é a de caroço duro.


Expandindo h. . .i0 , temos
0 1
he−βV i0 = h1 − βV 0 + (βV 0 )2 + · · · i0 = (6.3.7)
2
1
0
= 1 − βhV i0 + β 2 hV 0 2 i0 + · · · (6.3.8)
2
Tomando o logaritmo, temos, para a energia livre,
 
1 0 1 2 02
Ā = A0 − ln 1 − βhV i0 + β hV i0 ' (6.3.9)
β 2
β
' A0 + hV 0 i0 − [hV 0 2 i0 − hV 0 i20 ], (6.3.10)
2
que é conhecida como expansão em cumulantes.
Esta teoria de perturbação tem sido bastante bem sucedida no tratamento de fluidos
densos, desde que efeitos quânticos sejam desprezı́veis.

6.4 Monte Carlo Simulations


6.4.1 Introduction
Frequentemente métodos perturbativos não são convenientes para calcular funções de
partição e valores médios; por exemplo, a altas densidades, a escolha de um parâmetro
‘pequeno’ é, geralmente, arbitrária, o que compromete o controle das expansões. Uma
alternativa é fazer estes cálculos numericamente.
Considere, por exemplo, a integral de configuração, Eq. (6.2.4). O cálculo desta
integral usando métodos numéricos tradicionais de quadratura (tais como método do
trapézio ou regra de Simpson) é impraticável, a não ser para N pequeno. Para entender
6.4. MONTE CARLO SIMULATIONS 141

isto, suponha que cada um dos 3N ‘eixos coordenados’ seja particionado em 10 divisões
– o que, convenhamos, não é muito! –, de modo que o integrando deve ser calculado
em 103N pontos. Tomando N = 20 em um computador rápido – capaz de calcular o
integrando da ordem de 107 vezes por segundo – obterı́amos uma estimativa para QN
em 1053 s, que é da ordem de 1034 vezes a idade do Universo! Evidentemente, devemos
procurar outros métodos para calcular estas integrais.
O Método de Monte Carlo (MC) que discutiremos aqui é um dos modos mais efi-
cientes para calcular integrais multi-dimensionais, ou, principalmente, somas discretas
sobre configurações. O nome ‘Monte Carlo’ vem do caráter aleatório do método e sua
semelhança com o famoso cassino em Mônaco.
A idéia essencial não é calcular o integrando em cada um de um grande número de
pontos da quadratura, mas, ao contrário, apenas numa amostragem representativa das
abscissas. Veremos aqui como selecionar esta amostragem, e suas consequências.
In order to illustrate the power of MC simulations, we will focus on spin models,
since the interactions are usually short-ranged, and the number of states is finite and
discrete: 2N , since there are 2 states for each of the N spins (sites). To this end, in the
next section we discuss some aspects of the basic interaction between spins.

6.4.2 Exchange interaction


It is instructive to consider a system composed of spins-1/2 siting on the N sites of a
lattice. We may adopt the following simplifying assumptions:

(1) Each spin only interacts with its nearest neighbours. This can be justified since the
dominant coupling is due to the exchange interaction, which involves the overlap
between wave functions centred at the lattice sites, and they decay exponentially
with the distance. With i and j being nearest neighbour (nn) sites, this effective
exchange coupling usually takes the form2
(
−J/4, if Si + Sj add to a triplet state
Eij = −J Si · Sj = (6.4.1)
+3J/4, if Si + Sj add to a singlet state,

where Si and Sj are spin-1/2 operators, and J is the exchange constant. This
rotationally invariant coupling involving the three spin components is known as the
Heisenberg interaction. It should be noted that if J < 0 the ground state of these
two coupled spins is the singlet, Stotal = 0.

(2) The interaction only involves the z-component of the spin operator. While this in
fact occurs in crystals with strong uniaxial anisotropy, it may also be used as defining
the simplest non-trivial instance of an interacting system whose partition function
can be calculated exactly in one- (see Sec. 7.4) and two spatial dimensions. Equation
2
We set ~ = 1, which is equivalent to incorporating ~2 into J, which then acquires dimension of
energy.
142 CHAPTER 6. APPROXIMATION METHODS

(6.4.1) then simplifies to


(
−J/4, if Siz = Sjz , i.e., parallel, or ferromagnetic
Eij = −J Siz Sjz =
+J/4, if Siz = −Sjz , i.e., antiparallel, or antiferromagnetic,
(6.4.2)
This coupling involving just one spin component is known as the Ising interaction;
note that the energy is not invariant under an arbitrary rotation; it is only invariant
by a rotation of π on both spins around either the x or y directions, i.e., Siz → −Siz
and Sjz → −Sjz . Further, if J < 0 the ground state of these two coupled spins
corresponds to the antiferromagnetic alignment, ↑↓ or ↓↑.

Generalising these assumptions to a set of N spins-1/2 on a lattice, and including the


coupling to an external magnetic field, B = B ẑ, the Ising Hamiltonian can be written
as X X
H = −J σi σj − B σi , (6.4.3)
hi,ji i

where σi = ±1 are the eigenvalues of the Pauli spin operator σiz , and hiji stands for
nearest neighbour sites on a lattice. Also, we have incorporated all the physical constants
(such as those relating the magnetic moment to the spin, and the ~/2 relating Siz to σiz )
into J and B, both of which now acquire dimension of energy. A ferromagnetically
ordered state then corresponds to having σi = σ, ∀i .

6.4.3 The Basic Strategy


Since σi = ±1 on each site, the number of possible configurations of this system is
2N . In order to calculate the partition function and averages one would have to sum
the contributions from all these states, which is a formidable task for N  1.3 Let us
assume, for definiteness, we wish to calculate the thermodynamic average of a quantity
A, which depends on the spin configuration S ≡ |σ1 , σ2 , . . . , σN i;4 also, for convenience
we ascribe a label n = 1, 2, . . . , 2N to each configuration, Sn . We may then write,

2 N
X
hAi = w(Sn ) A(Sn ), (6.4.4)
n=1

where
1 −βH(Sn )
w(Sn ) =
e (6.4.5)
Z
is the Boltzmann weight for the spin configuration, with H(Sn ) being the energy eigen-
value for the configuration.
3
The available exact solutions to the two-dimensional case resort to very specialised mathematical
tools, and so far no exact solutions have been proposed in three dimensions.
4
Note that the use of a single site label in S ≡ {σ1 , σ2 , . . . , σN } implies, for simplicity, that the
lattice has been ‘rectified’: for instance, on a square lattice of L × L sites, the site coordinate (1, 1) → 1,
(1, 2) → 2, . . . , (1, L) → L, (2, 1) → L + 1, . . . , (L, L) → N = L2 .
6.4. MONTE CARLO SIMULATIONS 143

Given that the number of configurations is very large, one would like to sample over
a smaller set of configurations, M  2N . However, not all configurations are equally
probable, so we should sample through the most probable ones, for a given choice of
external parameters such as temperature and magnetic field. This importance sampling
is the basic Monte Carlo strategy. In order to implement this strategy, we imagine our
aim is to generate a sequence of configurations, S1 , S2 , S3 , . . . , SM .
Let us then assume for definiteness that S1 corresponds to a completely random
configuration, say S1 = | ↑, ↓, ↓, ↑, ↓, ↓, ↑, . . . , ↑i. Then we generate another configuration,
St (t stands for trial, or temporary), by, say flipping one spin (e.g., the first spin) relative
to S1 ,
St = | ↓, ↓, ↓, ↑, ↓, ↓, ↑, . . . , ↑i. (6.4.6)
One of the most widely used implementations of the importance sampling is the so-
called Metropolis algorithm, which proceeds as follows: one calculates the ratio between
the probabilities of occurrence of St and S1 , as given by the corresponding Boltzmann
factors,
w(St )
r= = e−β[H(St )−H(S1 )] . (6.4.7)
w(S1 )
Note that if St has an energy smaller than that of S1 , then r > 1, so the new configuration
is more probable than the previous one; St is therefore accepted as the second member of
the sequence, St → S2 . On the other hand, if r < 1 one cannot discard St outright, since
the system must be able to visit less probable configurations as a result of fluctuations,
especially if the difference in energies is small; therefore, if r < 1, St is accepted (St → S2 )
with probability r. One then tries to flip the second spin in S2 , to obtain a new St , from
which we calculate a new r, and so forth. When reaching the last site, one can return
to the first site, and continue attempting to flip spins. By the end of the process, a
sequence of M configurations will have been generated which, as shown in Sec. 6.4.4, is
distributed according to w(S).5

6.4.4 The Metropolis Algorithm


Suponha que se queira gerar um conjunto de pontos num espaço multi-dimensional de
variáveis X, distribuı́dos com uma densidade de probabilidade w(X). O algoritmo de
Metropolis gera uma sequência de pontos X0 , X1 , . . . que define um caminho aleatório
percorrido por um ‘andarilho’ (random walker) naquele espaço. À medida em que o
caminho fica mais longo, ele se aproxima da distribuição desejada.
As regras de geração deste caminho aleatório são as seguintes. Suponha que o andar-
ilho se encontre no ponto Xn da sequência. Para gerar Xn+1 ele tenta ir para um novo
ponto Xt (t significa temporário), que pode ser escolhido, por exemplo, uniformemente
ao acaso dentro de um hipercubo de lado δ (pequeno) centrado em Xn . Definindo a
razão
w(Xt )
r≡ , (6.4.8)
w(Xn )
5
On a first reading, one can simply accept this statement and skip straight to Sec. 6.4.5 without loss
of continuity.
144 CHAPTER 6. APPROXIMATION METHODS

este passo para Xt é aceito se r > 1; se r < 1 ele é aceito com probabilidade r.
Em aplicações numéricas esta última condição é reproduzida comparando-se r com um
número aleatório ζ distribuı́do uniformemente no intervalo [0,1]: o passo é aceito (re-
jeitado) se ζ < r (ζ > r). Assim Xn+1 = Xt se o passo foi aceito, ou Xn+1 = Xn , se o
passo foi rejeitado. Este procedimento é, então, repetido um número grande de vezes. É
importante frisar que a possibilidade do passo ser aceito, mesmo quando representa uma
configuração menos provável, simula o papel de flutuações térmicas, que torna acessı́veis
estados com energias livres diferentes de um mı́nimo global. Deve-se notar também que
qualquer ponto inicial, X0 , pode, em princı́pio, ser escolhido mas, como veremos abaixo,
uma escolha conveniente em geral acelera o processo de convergência.
Para mostrar que este algoritmo efetivamente gera uma sequência de pontos dis-
tribuı́dos de acordo com w, considere um grande número de andarilhos partindo de
diferentes pontos iniciais, e se movendo independentemente no espaço-X. Seja Nn (X) a
densidade de andarilhos no ponto X após n passos; o número resultante de andarilhos
que se movem de X para Y no próximo passo é
∆N (X) = Nn (X) P (X → Y) − Nn (Y) P (Y → X) = (6.4.9)
Nn (X) P (Y → X)
 
= Nn (Y) P (X → Y) − , (6.4.10)
Nn (Y) P (X → Y)
onde P (X → Y) é a probabilidade do andarilho transicionar para Y se ele estiver em
X. A condição de equilı́brio, correspondente a não haver alteração na população de X,
∆N (X) = 0, é
Neq (X) Nn (X) P (Y → X)
≡ = . (6.4.11)
Neq (Y) Nn (Y) P (X → Y)
Quando o sistema não está em equilı́brio, as mudanças em N (X) ocorrem no sen-
tido de levá-lo a esta condição. Por exemplo, se houver excesso de andarilhos em X,
Nn (X)/Nn (Y) é maior que o valor de equilı́brio, e ∆N (X) > 0; ou seja, há uma ‘fuga’
de X para Y. É, portanto, plausı́vel que, após um grande número de passos, a população
de andarilhos se estabilize no valor de equilı́brio Neq (X).
Por outro lado, a probabilidade de efetuar a transição de X para Y pode ser escrita
como
P (X → Y) = T (X → Y) A(X → Y), (6.4.12)
onde T é a probabilidade de dar um passo de X para Y e A a probabilidade do passo
ser aceito. Se X e Y estão separados por apenas um passo, então
T (X → Y) = T (Y → X), (6.4.13)
e a distribuição de equilı́brio para andarilhos de Metropolis satisfaz
Neq (X) A(Y → X)
= . (6.4.14)
Neq (Y) A(X → Y)
Se w(X) > w(Y), o passo de Y para X é aceito (A(Y → X) = 1) e
w(Y)
A(X → Y) = , (6.4.15)
w(X)
6.4. MONTE CARLO SIMULATIONS 145

de acordo com (6.4.15)(6.4.8); da mesma forma, se w(X) < w(Y), A(X → Y) = 1 e

w(X)
A(Y → X) = , (6.4.16)
w(Y)

Em qualquer caso, portanto, a população de equilı́brio satisfaz

Neq (X) w(X)


= , (6.4.17)
Neq (Y) w(Y)

mostrando que os andarilhos são, de fato, distribuı́dos de acordo com w(X).


Sabendo, então, que as tentativas de passo são feitas numa vizinhança de Xn , como
se deve escolher o tamanho do passo δ? Suponha que Xn esteja num máximo de w,
correspondendo ao valor mais provável. Se δ é grande w(Xt ) deve ser muito menor
que w(Xn ) e a maioria dos passos deve ser rejeitada, representando uma amostragem
ineficiente de w. Por outro lado, se δ é muito pequeno a maioria dos passos é aceita,
mas o andarilho nunca irá muito longe, o que também é um processo ineficiente. Logo,
o tamanho adequado do passo é quando aproximadamente a metade dos passos é aceita.

6.4.5 Thermalization and Averaging


Visto como o algoritmo de Metropolis leva o sistema ao equilı́brio, podemos discutir
agora o cálculo de médias no ensemble de X. Seja f (X) uma grandeza qualquer; sua
média é dada por R
dX w(X) f (X)
hf i = R , (6.4.18)
dX w(X)
onde admitimos que w(X) possa ser normalizada a posteriori. Claramente estas integrais
podem ser calculadas pela quadratura de Monte Carlo, mas queremos chamar a atenção
aqui de alguns detalhes técnicos.
Os pontos X0 , X1 , . . . não são independentes entre si devido, simplesmente, ao fato
de que eles foram gerados em vizinhanças sucessivas. Logo, os valores fi ≡ f (Xi )
não são variáveis aleatórias independentes, e o erro dado por (6.4.4) tem sua validade
questionada. Para verificar isto de modo quantitativo, calcula-se a função de auto-
correlação
hfi fi+k i − hfi i2
C(k) ≡ , (6.4.19)
hfi2 i − hfi i2
onde as médias são tomadas no caminho aleatório, isto é,
M
1 X
hfi i = f (Xi ) (6.4.20)
M
i=1

e
M −k
1 X
hfi fi+k i = f (Xi ) f (Xi+k ). (6.4.21)
M −k
i=1
146 CHAPTER 6. APPROXIMATION METHODS

Se as medidas não são independentes C(k) é diferente de zero (excluı́do, é claro, o


caso trivial k = 0). Na prática, o que se faz é calcular estas médias usando pontos do
caminho aleatório separados por um intervalo fixo; este intervalo é tomado de modo a
ter C(k) . 0.1.
Como mencionado anteriormente, o caminho aleatório pode partir de qualquer ponto
do espaço X. Após decorridos um certo número de passos o sistema ‘termaliza’, e perde
a memória de que ponto partiu. Claramente, as médias não devem ser consideradas até
que o sistema termalize.

6.4.6 An Example: The 2D Ising Model


Considere spins-1/2 fixos nos sı́tios de uma rede quadrada, de tamanho N = L × L.
Sob determinadas condições, as propriedades magnéticas deste sistema são descritas,
aproximadamente, pela Hamiltoniana de Ising,
X X
H = −J σi σj − B σi , (6.4.22)
hi,ji i

onde J é a constante de acoplamento, B é o campo magnético aplicado (em unidades


apropriadas), σi = ±1 e hiji corresponde a primeiros vizinhos. O estado ordenado
ferromagnético corresponde a ter todos os σi = σ, ∀i .
Este sistema tem 2N configurações, S, possı́veis, distribuı́das de acordo com o fator
de Boltzmann
1
w(S) = e−βH(S) (6.4.23)
Z
onde X
Z= e−βH(S) . (6.4.24)
S

As grandezas de interesse são a magnetização por sı́tio,

1 ∂ X 1
hM i = − [−kB T ln Z] = w(S)M = hMi, (6.4.25)
N ∂B N
S

onde X
M≡ σi , (6.4.26)
i

a suscetibilidade magnética,

∂M β 
χ= = hM2 i − hMi2 , (6.4.27)
∂B N
a energia interna
∂ X
E = hHi = − ln Z = w(S) H(S), (6.4.28)
∂β
S
6.4. MONTE CARLO SIMULATIONS 147

e a capacidade calorı́fica
( )
X
2 2 2
CB = kB β w(S) H (S) − E (6.4.29)
S

Para implementar o algoritmo de Metropolis, um passo de S para St poderia corre-


sponder a mudar todos os spins ao acaso; mas a nova configuração seria muito diferente
da anterior e, portanto, com alta taxa de rejeição. O passo pequeno, neste caso corre-
sponde a virar um spin de cada vez, varrendo sistematicamente toda a rede. O novo
passo é então aceito dependendo da razão
w(St )
r= = e−β[H(St )−H(S)] (6.4.30)
w(S)
como vimos anteriormente.
Como numa rede quadrada cada spin interage com apenas 4 outros, podemos escrever

r = e−2βσxy (Jf +B) , (6.4.31)

ao tentarmos virar o spin localizado no sı́tio de coordenadas (x, y), com

f = σx+1,y + σx−1,y + σx,y+1 + σx,y−1 . (6.4.32)

Logo, como σ = ±1, f só pode assumir 5 valores distintos, f = 0, ±2, ±4, dando
origem a apenas 10 valores distintos de r. Numa simulação longa é conveniente calcular
estes valores e armazená-los, evitando chamadas frequentes da função exponencial que
ralentariam a execução.
Now we present some results of MC simulations on a square lattice, extracted from
a review by Jacques Kotze,
https://arxiv.org/pdf/0803.0217.pdf
to which the reader is referred for technical details.
We start with the internal energy, as given by Eq. (6.4.28). The ground state cor-
responds to all spins being parallel, so the total ground energy can be easily seen to
be
1
E0 = − zN J = −2N J, (6.4.33)
2
since there are z = 4 neighbouring spins to each spin, and the factor 1/2 corrects for
double counting. The ground state energy per spin is therefore −2J. Figure 6.2 shows
the energy per spin for finite temperatures, which illustrates the importance of displaying
intensive quantities: data for different system sizes can be compared on the same scale,
thus highlighting the influence of the finiteness of the lattices. Indeed, the figure suggests
that the data for L = 8 and 16 appear to be closer to some convergence than those for
L = 2 and L = 4; as we will see below, this is only qualitatively apparent.
The specific heat, as calculated through Eq. (6.4.29), is shown in Fig. 6.3. Since
CH = (∂E/∂T )H , the figure reflects the increasing slope in E × T near Tc = 2.3 as the
system size increases: a pronounced peak evolves around this temperature.
This realization is only significant for the initial configuration and the problem is
avoided by the program in the future by using small temperature steps and the
configuration of the lattice at the previous temperature. A very small number
of mcs are thus required for the system to stabilize its configuration to the new
temperature.

2 Results
2 RESULTS 12
2.1 Energy Results
148 CHAPTER 6. APPROXIMATION METHODS
Energy per spin (E/N) vs Temperature (T) Specific Heat Capacity per spin (C/N) vs Temperature (T)
-0.4 1.6
L=2 L=2
L=4 L=4
-0.6 1.4 L=8
L=8

Heat Capacity per spin (C/N)


L=16 L=16
-0.8 1.2
Energy per spin (E/N)

-1 1

-1.2 0.8

-1.4 0.6

-1.6 0.4

-1.8 0.2

-2 0
0.5 1 1.5 2 2.5 3 3.5 4 4.5 5 0.5 1 1.5 2 2.5 3 3.5 4 4.5 5
Temperature (T) Temperature (T)

Figure 7: This plot shows the differing results of the Energy for varying lattice
Figure 8: This plot shows the differing results of Specific Heat Capacity for
× L. 6.2: Average energy × temperature (in units
sizes, LFigure varyingFigure L × L. heat × temperature (in units of
6.3: Specific
lattice sizes,
of J/kB ) for the Ising model on a square lattice. The J/kB ) for the Ising model on a square lattice. The
plots are
In Figure 7 thefor L × per
energy L lattices,
spin as awith L =of2,temperature
function 4, 8, and 16.
can beIn seen.
plots are
Figure 8 thefor L × heat
specific L lattices,
capacitywith L=
per spin is 2, 4, 8,asand
shown 16. of tem-
a function
The curve of the graph becomes more pronounced as the lattice sizeperature.increasesWe concluded previously that a divergence would occur at a phase
but there isn’t a marked difference between the L = 8 and L = 16 lattices. The
transition and thus should be looking for such a divergence on the graph. It is
steep gradient in the larger lattices points towards a possible phasehowever
transition
clear that there is no such divergence but merely a progressive steep-
In order
but isn’t clearly to acquire
illustrated. The energyaper physical intuition
spin for higher ofof what
temperatures
ening the peakisashappening,
is we calculate
the lattice size increases. The point the (ab-
at which the plot is
relatively high which is in keeping with our expectation 6 of having a random
solutewhile
value of the) peaked should be noted as a possible point of divergence. The reason for not
configuration it stabilizes to amagnetisation,
E/N = −2J = −2 at low temperatures.
explicitly finding a divergence will be discussed in Section 2.4.
This indicates that the spins are all aligned in parallel.
X
h|M |i = 2.2 w(S)|M|,
Magnetization Results (6.4.34)
SFigure 9 of the magnetization results shows very beautifully that the shape
of the gradient becomes more distinct as the lattice size is increased. Fur-
thermore, as opposed to Figure 7, there is a far more apparent difference that
and a modified susceptibility, the larger lattices produce in the curves and this illustrates a more apparent
continuous phase transition. The behaviour of the magnetization at high and
0 hMlow2 itemperature
− h|M |iare 2 as the theory prescribes (random to stable parallel aligned
χ ≡ configuration). , (6.4.35)
kBthis
At T juncture it is prudent to point out that the susceptibility cannot be
calculated using the ordinary technique in equation (20) given in the discussion
plotted in Figs. 6.4 and 6.5, respectively. on the calculation of observables. The reason is focused around a subtle fact
that has drastic implications. To comprehend the problem at work we have to
From a mental extrapolation of the consider
magnetisation data towards
one of the constraints → ∞,
of our model,Lnamely we nature
the finite see of our
lattice. This manifests in the fact that spontaneous magnetization can occur
that two physically distinct regimes become apparent: at low temperatures the system
for a finite sized lattice. In this instance the effect is of particular interest below
displays a finite magnetisation, while at high temperatures
the critical temperature. the magnetisation vanishes.
This can be illustrated by considering the following example of collected
Indeed, a careful extrapolation of the magnetisation
data in Figure 10. This datawould
data is taken also show that
at a temperature that is hM i
considerably
less
drops to zero continuously at Tc ≈ 2.3. nature than
Further, the Curie temperature and we
also close to Tc = 2.3thatthewould thus expect
(modified) a stable
it to have
and yet it clearly displays a fluctuation is uncharacteristic, resulting
susceptibility develops a pronounced peak; note that this is the same Tc as for the
specific heat. Therefore, a phase transition does indeed take place at Tc , separating
an ordered low-temperature phase from a disordered high-temperature phase. Further,
several quantities display a non-analytic behaviour at Tc , which will be explored in the
next chapter.
In conclusion, Monte Carlo simulations can indeed provide a deep insight into the
behaviour of interacting systems. But one should be warned that this is not a simple
brute force method: data mining and analyses require very careful considerations. In
particular, extrapolations from finite-sized systems to the thermodynamic limit are based
6
Due to large fluctuations on finite-sized lattices, regions of opposite magnetisations are formed so the
actual magnetisation is underestimated; therefore the absolute magnetisation is plotted here. Further,
since the magnetisation fluctuations are used in the calculation of the susceptibility, one calculates a
modified susceptibility, χ0 [Eq. (6.4.35)]. As discussed in Kotze’s review, h|M |i and χ0 approach hM i and
χ for sufficiently large lattices.
2 RESULTS 17

2 RESULTS 13
6.5. EXERCISES 149
Absolute Magnetisation per spin (<|M|>/N) vs Temperature (T) Magnetic Susceptability per spin (X/N) vs Temperature (T)
1 7
L=2 L=2

Magnetic Susceptability per spin (X/N)


0.9 L=4 L=4
Absolute Magnetisation (<|M|>/N)

L=8 6 L=8
0.8 L=16 L=16
0.7 5

0.6
4
0.5
3
0.4
0.3 2
0.2
1
0.1
0 0
0.5 1 1.5 2 2.5 3 3.5 4 4.5 5 0.5 1 1.5 2 2.5 3 3.5 4 4.5 5
Temperature (T) Temperature (T)

Figure 9: This plot shows the differing results of the MagnetizationFigure 14: This plot shows the differing results
for varying 0 of the susceptibility for varying
lattice Figure L. Absolute magnetisation × temperature
6.4:
sizes, L × lattice Figure
sizes, L × L. ‘Susceptibility’ χ (see footnote) × tem-
6.5:
(in units of J/kB ) for the Ising model on a square perature (in units of J/kB ) for the Ising model on a
lattice. The plots are for L × L lattices, with L = square lattice. The plots are for L × L lattices, with
in a complete flip of16.
2, 4, 8, and the magnetization. It has already been highlightedLthat
= 2, 4, 8, and 16.
because we are dealing with a limited lattice size there is finite probability for
this kind of behaviour to take place. This probability is directly proportional
to the number of mcs used and inversely proportional to the lattice size, this is
on thebycompetition
compounded the preiodic boundarybetween
conditionstwo
used.length scales, namely the linear size of the system, L,
Figure 11 schematically depicts this fact. The valley shown linking the two Magnetic Susceptability per spin (X/N) vs Temperature (T)
and the spatial range of correlations, ξ. Proper 100
peaks of the probability will thus be dropped for lower temperatures and bigger
consideration of quantum effects in MC
L=2
simulations adds
shouldextra
be noteddifficulties,
that even thoughstarting from maythe fact that the density operator L=4 is the
Magnetic Susceptability per spin (X/N)

lattice configurations. It the probability 90


L=8
be less it does always exist and this has to be accounted for in data collection or80 L=16
it mayexponential of aWeHamiltonian
corrupt the results. involving
expect the configuration non-commuting
to be relatively stable terms.
70
at the peaks but if its magnetization has slipped down (fluctuated) to the center
of the valley then it has an equal probability of climbing up either side of the60
peaks, this is the crux of the spontaneous flipping. This aspect of symmetry50
6.5 Exercises
proves to also be the seed for a possible solution to this problem. 40
As an example of what has just been mentioned we note from Figure 10
where a fluctuation occurs just before 5000 mcs and the magnetization peaks30
1. Obtenha os termos de correção ao gás ideal, em ordem mais baixa na densidade, para
at 0 from −1. The configuration is now in the middle of the valley and happens20
to go back asto seguintes grandezas:
its previous state. energias
The same phenomenon livres
occurs de 5000
just after Helmholtz
10 e de Gibbs, entropia, energia
mcs but in this instance chooses to flip to an opposite, but equally probable, 0
interna e
magnetization, from -1 to 1.calor especı́fico a volume constante. 0.5 1 1.5 2 2.5 3 3.5 4 4.5 5
If we now were to think of the implications of this spontaneous flipping Temperature (T)
2. As
we come to themoléculas
realization thatdeit um
wouldgás
causeinteragem
an averaging out deofFigure
acordo
the mean com um potencial de dois corpos u(r).
15: This plot shows the differing results of the susceptibility for varying
magnetization, ⟨M ⟩. This of course has a detrimental effect on calculating the
variance ofObtenha as correções
the magnetization and thus the ao gás ideal para assizes,
susceptibility.
lattice energias
L × L. livres de Helmholtz e de Gibbs,
2
This can be illustrated in the Figure 12 where the plot shows that ⟨M ⟩
para a equação de estado, e para a entropia, a energia interna e os calores especı́ficos
remains zero for an extended period at low temperatures. This would cause
a volume
the variance to peak at elower
a pressão constantes,
temperatures. As the latticenos seguintes
size increases the casos:
spontaneous magnetization is less likely to occur and the critical point moves
progressively
(a)to higher temperatures, this implies that the peak for the suscepti-
u(r) = α/rn , n > 0;
(b) 
∞
 se r < a
u(r) = −u0 se a < r < b

0 se r > b,

onde α, u0 , a e b são constantes.


Discuta seus resultados!
3. Mostre que a equação de van der Waals dá origem à lei dos estados correspondentes,
 
3
p̄ + 2 (3V̄ − 1) = 8T̄ .

150 CHAPTER 6. APPROXIMATION METHODS

Determine p̄, V̄ , T̄ e interprete seus resultados. Explique o que são “estados corre-
spondentes”.

4. Mostre que a curva de pressão de vapor para um gás em equilibrio com um liquido é
dada aproximadamente [explicite suas aproximações] por:

p = p0 e−`/RT

com ` ≡ calor latente de vaporização (por mol); p0 = constante.

5. Calcule a integral
1
dx
Z
I= ,
0 1 + x2
usando simulações de Monte Carlo. Utilize os seguintes pesos: (a) w1 (x) = 1 e
(b) w2 (x) = (4 − 2x)/3. Faça uma tabela que contenha as estimativas de I e do
desvio padrão σI nos dois casos (a) e (b), para amostragens cada vez maiores. O
valor exato de I é 0.78540.
Chapter 7

Phase Transitions
Refs.: Landau & Lifshitz, Reichl e Stanley

7.1 Introduction
Neste Capı́tulo continuaremos estudando sistemas interagentes em equilı́brio, mas enfa-
tizando um aspecto muito importante, que são as transições de fase.
A matéria existe em muitas fases, que podem ser classificadas, por exemplo, em
função de sua estrutura – isto é, do grau de ordenamento atômico – como sólidas,
lı́quidas ou gasosas. Cada uma destas, por sua vez, admite sub-divisões; por exemplo,
um sólido pode sofrer transições de fase estruturais, passando de um arranjo tetragonal
para ortorrômbico. Superposto a isto, outras propriedades macroscópicas podem se
manifestar. Um sistema pode transicionar de paramagnético para ferromagnético, ou de
um metal normal para um supercondutor; 4 He e 3 He se tornam superfluidos a baixas
temperaturas. Novamente, é possı́vel subdividir muitas destas fases, ilustrando a riqueza
deste assunto.
Os exemplos acima sugerem que a noção de ordem desempenha um papel funda-
mental. Assim, as fases gasosa, lı́quida, paramagnética, metal normal e fluido nor-
mal são consideradas desordenadas, em contraposição, respectivamente, às fases lı́quida,
sólida, ferromagnética, supercondutora e superfluida, ditas ordenadas. Note que, em
alguns casos, a classificação em fases ordenada e desordenada é relativa: a fase lı́quida
é mais ordenada que a gasosa, porém mais desordenada que a sólida. Cada uma destas
transições de fase pode ocorrer pela mudança da temperatura e dos parâmetros externos
relevantes em cada caso, como a pressão ou campo magnético. Além destes, muitos
outros parâmetros, como a concentração de impurezas, anisotropias, etc., podem oca-
sionar mudanças de fase. Para fixar idéias, pensaremos, na maioria dos casos, que a
temperatura é o parâmetro que varia, mantendo os demais fixos. É bastante intuitivo
o fato de que quanto mais baixa fôr a temperatura, mais ordenado fica o sistema. Isto
porque as interações entre os constituintes do sistema determinam a natureza do estado
ordenado, que sempre é perturbado pela agitação térmica.
Deve-se notar que a fase ordenada é menos simétrica que a fase desordenada. Por
exemplo, na fase ferromagnética existe uma magnetização macroscópica privilegiando
uma direção espacial, enquanto que na fase paramagnética o sistema é isotrópico. Diz-

151
152 CHAPTER 7. PHASE TRANSITIONS

se, portanto, que uma transição de fase vem acompanhada de uma quebra espontânea de
simetria.
Apesar de muitos sistemas sofrerem diferentes transições de fase, verificou-se experi-
mentalmente ao longo dos anos que diversas grandezas macroscópicas – como as funções-
resposta – apresentavam essencialmente os mesmos comportamentos singulares perto da
transição de fase. Por exemplo, o calor especı́fico perto da transição superfluida em 4 He
é quantitativamente semelhante ao de alguns sistemas magnéticos. (Isto será colocado
de modo mais preciso no decorrer deste Capı́tulo). Este aspecto de universalidade em
transições de fase só foi compreendido em toda sua profundidade com as idéias de scaling
desenvolvidas a partir de 1965 por Widom, Kadanoff, Wilson e Fisher.
Para chegarmos a estas idéias, discutiremos na Seção 7.2 a termodinâmica de tran-
sições de fase. Na Seção 7.3 apresentaremos três versões de teorias de campo médio: de
van der Waals, de Weiss e de Landau. Como ilustração das limitações de teorias deste
tipo, a solução exata do modelo de Ising em uma dimensão será apresentada na Seção
7.4 e confrontada com as previsões da teoria de Weiss na Seção 7.5, que faz então uma
crı́tica às assim chamadas teorias de um corpo (one-body physics). Uma introdução às
teorias de escala (scaling) é feita na Seção 7.6, e o Grupo de Renormalização é discutido
nas Seções 7.7 a 7.9.

7.2 Thermodynamics of Phase Transitions


Nesta seção faremos uma descrição puramente termodinâmica, isto é, apenas em termos
de variáveis macroscópicas, deixando a descrição microscópica para as seções seguintes.

7.2.1 Phase Coexistence: Gibbs Phase Rule


O primeiro passo para compreender as mudanças de fase que ocorrem em um sistema é
mapear um diagrama de fases. A Fig. 7.1 mostra um diagrama de fases tı́pico para um
fluido – também chamado de sistema P V T ; as fases sólida (S), lı́quida (L) e gasosa (G)
ocorrem nas regiões assinaladas. Isto significa que se calculássemos a energia livre de
Gibbs admitindo o sistema em cada uma destas fases, GS , GL e GG , elas corresponderiam
a mı́nimos nas regiões S, L e G, respectivamente.
A Figura 7.1 mostra também diversas regiões onde ocorre coexistência de duas fases;
o termo vapor (V) é usado para descrever a fase gasosa quando esta coexiste com a fase
lı́quida ou sólida. Note que as três fases V, L e S coexistem na linha tripla, a qual,
quando projetada num diagrama P T , colapsa em um único ponto, o chamado ponto
triplo; ao projetar, o volume fica indeterminado. Logo, para um dado conjunto das
variáveis independentes, duas ou mais fases podem coexistir. A chamada regra de fases
de Gibbs fornece o número de fases que coexistem, baseada nas condições de equilı́brio.
Para um sistema P V T puro – isto é, composto de apenas um tipo de partı́culas – se
duas fases I e II coexistem, elas estão em equilı́brio térmico (TI = TII = T ), mecânico
(PI = PII = P ) e quı́mico:
µI (P, T ) = µII (P, T ). (7.2.1)
Line abcdef in Fig. 18.26 represents constant-pressure heating, with melting
along bc and vaporization along de. Note the volume changes that occur as T
increases along this line. Line ghjklm corresponds to an isothermal (constant tem-
perature) compression, with liquefaction along hj and solidification along kl.
Between these, segments gh and jk represent isothermal compression with
increase in pressure; the pressure increases are much greater in the liquid region
7.2. THERMODYNAMICS OF PHASE TRANSITIONS 153

-surface for a substance p


melting. Projections of the
he surface onto the pT- and m Solid
Solid-Liquid
so shown. p

Critical Liquid
point
Solid f
uid

T Critical
Liq

m point
Vapor q
l Li
P
k
O vapquid
Liquid So or Gas
a g R lid
E Solid -Va
Critical po

Solid-Liquid
S f r
O S d point
U L
b c i
R va quid e
E a j por
Tri Ga V
ple h s
p line Va
So po
lid r
-Va g
po T4
r o
VO
LU n T3Tc
M T2 RE
E T1 A TU
R
PE
E M
T

Figure 7.1: Diagrama de fases tı́pico para um fluido puro, expresso em termos da pressão, P , do volume, V , e da
temperatura, T . As fases sólida, lı́quida e gasosa estão assinaladas, bem como as regiões de coexistência de cada
par destas fases. Note a presença de um ponto crı́tico e de uma linha tripla, na qual as três fases coexistem em
equilı́brio. Estão também assinaladas as projeções do diagrama nos planos P T (esquerda) e P V (direita). (Figure
taken from Ref. [15].)

A Eq. (7.2.1) pode ser resolvida para P , fornecendo a curva de coexistência num diagrama
PT,
P = Pcoex. (T ). (7.2.2)
Se o sistema puro tem 3 fases, então

µI (P, T ) = µII (P, T ) = µIII (P, T ), (7.2.3)

e a coexistência entre elas só é possı́vel em apenas um ponto: o ponto triplo (o ponto
de interseção entre as duas curvas no diagrama projetado PT da Fig. 7.1). Para uma
mistura de ` tipos diferentes de partı́culas, há ` + 1 variáveis independentes para cada
fase, a saber, (P, T, x1 , . . . , x`−1 ), onde xi é a fração molar de partı́culas do tipo i. Uma
argumentação análoga à anterior pode ser usada para mostrar que, neste caso, ` + 2 fases
diferentes podem coexistir para T e P dados.

7.2.2 Classification of Phase Transitions


Considerando ainda um sistema P V T puro, a discussão acima não impõe quaisquer
restrições às derivadas de G com relação a T e a P . Na realidade, os comportamentos
destas derivadas são usados para classificar as transições de fase. Se S ≡ −(∂G/∂T )P,N
154 CHAPTER 7. PHASE TRANSITIONS

Figure 7.3: Comportamento


Figure 7.2: Comportamento tı́pico da energia livre de Gibbs e de suas
tı́pico da energia livre de
derivadas numa transição de primeira ordem.
Gibbs e de suas derivadas
numa transição de segunda
ordem.

ou V ≡ (∂G/∂P )T,N são descontı́nuas no ponto de transição, esta é dita de primeira


ordem. Já se S e V são contı́nuas na transição, mas suas derivadas de ordem mais alta
são descontı́nuas, a transição é chamada de contı́nua (ou de na. ordem).
A Fig. 7.2 mostra a energia livre de Gibbs, G, e suas derivadas para um sistema P V T ,
perto de uma transição de primeira ordem, isto é, perto de um ponto de coexistência de
fases. Note que, de acordo com a discussão da Sec. 2.8.3, G é uma função côncava de T e
de P . A descontinuidade em (∂G/∂P )T implica no volume ser diferente nas duas fases,
   
∂GII ∂GI
∆V = VII − VI = − ; (7.2.4)
∂P T ∂P T

analogamente, a descontinuidade em (∂G/∂T )P implica na entropia ser diferente nas


duas fases,     
∂GII ∂GI
∆S = SII − SI = − − . (7.2.5)
∂T V ∂T V
As descontinuidades se manifestam, respectivamente, no comportamento singular da
compressibilidade e na presença de calor latente. Este último é definido como a diferença
de entalpia nas duas fases,

∆H = ∆(G + T S) = T ∆S = HII − HI , (7.2.6)

onde a segunda igualdade decorre do fato da energia livre de Gibbs e a temperatura


serem as mesmas na transição.
7.2. THERMODYNAMICS OF PHASE TRANSITIONS 155

Mais ainda, as descontinuidades definem a forma da curva de coexistência. Como a


energia livre de Gibbs deve ser a mesma em fases coexistentes, se nos movermos para
um outro ponto ao longo da curva de coexistência, variando P e T , as energias livres
das duas fases devem variar igualmente, isto é,

dGI = dGII ⇒ VI dP − SI dT = VII dP − SII dT. (7.2.7)

Logo,  
dP ∆S ∆H
= = , (7.2.8)
dT coex ∆V T ∆V
que é a conhecida equação de Clausius-Clapeyron, onde
 ∆H
 é o calor
 absorvido para ir
∂GI ∂GII
da fase I para a fase II. Da Fig. 7.2(d) , vemos que ∂T > ∂T , de modo que

SI < SII ⇒ ∆S ≡ SII − SI > 0 ⇒ ∆H > 0, (7.2.9)

e o sistema absorve calor para ir da fase de baixa temperatura para a fase de alta
temperatura.
A Fig. 7.3(a) mostra a energia livre de Gibbs como função da temperatura na vizi-
nhança de uma transição de segunda ordem. Mesmo sendo contı́nua na transição, isto
é,    
∂G ∂G
SI = − = SII = − , (7.2.10)
∂T I ∂T II
sua derivada com relação à temperatura muda rapidamente, dando origem a um pico
acentuado no calor especı́fico [Fig. 7.3(b) e (c)]. Neste caso não há calor latente.
A situação é análoga para as derivadas com relação à pressão. O volume não é
descontı́nuo,    
∂G ∂G
VI = = VII = , (7.2.11)
∂P I ∂P II
mas a compressibilidade diverge em Tc , sinalizando a transição de fase.
Na próxima sub-seção analisaremos sistemas fluidos com mais detalhes.

7.2.3 Pure Fluid Systems


Quando um fluido (ou sistema P V T ) é composto de um único tipo de moléculas dizemos
que ele é puro. Como já vimos, sistemas deste tipo se apresentam em diversas fases –
sólida, lı́quida e gasosa – como resultado das interações entre as moléculas. As Figs. 7.4
e 7.5 mostram, respectivamente, as projeções do diagrama de fases nos planos P T e P V ,
como indicadas na Fig. 7.1.
O ponto C é um ponto crı́tico, onde termina a curva de pressão de vapor. A presença
de um ponto crı́tico indica que, escolhendo um caminho conveniente, pode-se mudar
continuamente lı́quido em gás (e vice-versa) sem passar por uma transição de fase; isto
é, o gás muito denso fica indistinguı́vel do lı́quido. O mesmo não ocorre na curva de
fusão, indicando que as diferenças entre sólido (S) e lı́quido (L) são muito maiores do que
entre lı́quidos e gases (G). Ao contrário destes, sólidos exibem ordenamento espacial.
156 CHAPTER 7. PHASE TRANSITIONS

Figure 7.4: Curvas de coexistência para um sistema


P V T tı́pico. A é o ponto triplo e C é o ponto crı́tico. Figure 7.5: Regiões de coexistência para um sis-
A curva tracejada é um exemplo de curva de fusão tema P V T tı́pico. As transições são todas de
com coeficiente angular negativo. primeira ordem. As linhas tracejadas representam
isotermas.

Figure 7.6: Critical opalescence. A laser beam shining through a test tube becomes more and more scattered and
the fluid becomes more and more opaque, as the critical point is approached from higher temperatures. From
https://inspirehep.net/record/838172/plots. Or from clique aqui

As transições G-L, L-S e G-S são todas de 1a. ordem, e são acompanhadas de calor
latente e mudança de volume. A Fig. 7.5 mostra o diagrama de fases no plano P -V .
Note que os coeficientes angulares das isotermas (linhas tracejadas) são negativos, de
acordo com a condição de estabilidade KT > 0 [c.f. Eq. (2.8.11)]. As linhas cheias
delimitam regiões de coexistência de fases, nas quais as isotermas são sempre horizontais
(KT = ∞) indicando que há mudança de volume para P e T constantes. A divergência
na compressibilidade está associada a flutuações de densidade, fazendo com que luz
visı́vel sofra um forte espalhamento ao passar por um fluido na temperatura crı́tica da
transição G-L; este fenômeno é conhecido como opalescência crı́tica (veja a Figura 7.6
e Stanley, Seções 1.1, 7.2 e 7.3).
Analisemos agora a transição lı́quido-gás com mais detalhes. Ao contrário das dis-
cussões anteriores, usaremos a densidade ρ que, por ser intensiva, é mais apropriada
do que o volume V ∼ ρ−1 . Note, primeiramente, que lı́quido e gás são indistinguı́veis
no ponto crı́tico, caracterizado por Tc e pela densidade crı́tica, ρc . Podemos expressar
este fato dizendo que as respectivas densidades se igualam neste ponto: ρL = ρG = ρc .
Como os valores de Tc e de ρc dependem da substância em estudo, é mais conveniente
introduzirmos as grandezas reduzidas T /Tc e ρ/ρc , que medem a distância do ponto
7.2. THERMODYNAMICS OF PHASE TRANSITIONS 157

Figure 7.7: Curva experimental de coexistência lı́quido-vapor para diferentes substâncias.

crı́tico para cada substância. A Fig. 7.7 mostra os resultados experimentais das curvas
de coexistência obtidos por E. A. Guggenheim (J. Chem. Phys. 13, 253 (1945)) para
diversas substâncias; veja também a Tabela 3.5 do livro do Stanley para os valores dos
parâmetros crı́ticos. Os dados colapsam em uma única curva, satisfazendo a lei dos
estados correspondentes, segundo a qual todos os fluidos clássicos puros satisfazem a
mesma equação de estado, quando expressa em termos de quantidades reduzidas. Em
particular, temos
T β
 
7
ρL − ρG = ρc 1 − , (7.2.12)
2 Tc
onde
β = 1/3 (7.2.13)
é um expoente crı́tico; outros destes expoentes serão introduzidos ao longo da Seção 7.3.
Eles desempenham um papel fundamental no estudo de transições de fase, pois definem
as chamadas classes de universalidade: as transições de fase podem ser agrupadas de
acordo com os valores destes expoentes. A diferença ∆ρ ≡ ρL −ρG , por ser nula acima da
transição e crescer até um valor de saturação à medida em que a temperatura diminui, é
chamada de parâmetro de ordem da transição. Como ∆ρ cresce continuamente de zero,
a transição no ponto C é de segunda ordem.
Outras grandezas, como, por exemplo, o calor especı́fico a volume constante dentro
da região de coexistência, podem ser obtidas através da equação de Clausius-Clapeyron;
158 CHAPTER 7. PHASE TRANSITIONS

Figure 7.8: Projeções do diagrama de fases para um sistema magnético nos planos H-T (a), H-M (b), e M -T . A
seta tracejada em (a) representa o caminho termodinâmico que leva continuamente uma fase na outra.

veja Reichl, seção 4.D.3. A descontinuidade da entropia na transição se manifesta pelo


calor especı́fico a pressão constante ser infinito na região de coexistência.
Vejamos agora como a discussão sobre fluidos é modificada no caso magnético.

7.2.4 Magnetic Systems


Como vimos anteriormente, a analogia entre fluidos e magnetos é feita a partir da
seguinte associação:
− P → H V → M T → T. (7.2.14)
A Fig. 7.8 mostra o análogo das Figs. 7.4, 7.5, e 7.7 para um magneto simples. As
fases que coexistem correspondem a spins ‘para cima’ e ‘para baixo’ (com relação a uma
certa direção espacial), que são estabilizadas pelo campo H. Ou seja, imaginando-se
uma experiência em que o sistema seja resfriado a campo nulo, ele sofrerá uma transição
em Tc , mas não haverá uma magnetização resultante. Isto porque diferentes regiões
macroscópicas (porém ainda muito menores que o tamanho da amostra) terão magne-
tizações em diferentes sentidos que se cancelam em média. Na Fig. 7.8 (c), a curva da
magnetização com H = 0 só será realizada experimentalmente se o resfriamento fôr feito
em presença de um campo infinitesimal; isto é, a rigor devemos ter H = 0± . Note
também que as transições para a fase sólida, no caso do fluido, não têm correspondente
nos casos magnéticos mais simples.
Sob o ponto de vista microscópico, os sistemas magnéticos são muito mais simples
de serem estudados, já que, em geral, parte-se de uma Hamiltoniana com interações de
curto alcance. As Hamiltonianas magnéticas mais representativas são as seguintes:
X
Ising: H = −J Siz Sjz (7.2.15)
hi,ji

(Six Sjx + Siy Sjy )


X
XY: H = −J (7.2.16)
hi,ji
X
Heisenberg: H = −J Si · Sj (7.2.17)
hi,ji
7.2. THERMODYNAMICS OF PHASE TRANSITIONS 159

onde os J representam as integrais de exchange, hiji indica que as somas são sobre sı́tios
primeiros vizinhos em uma rede d-dimensional, e os S são os operadores usuais de spin-S.
Se J > 0, o estado fundamental dos modelos acima é ferromagnético, correspondendo a
spins alinhados paralelamente entre si.
Deve-se notar aqui que o modelo de Ising é invariante por uma rotação de π em
todos os spins; isto é, através da transformação discreta Siz ↔ −Siz , ∀i, a Hamiltoniana
não se altera. Já os modelos de Heisenberg e XY, por conterem produtos escalares, são
invariantes por rotações contı́nuas, ou por qualquer ângulo. Como veremos no decorrer
do capı́tulo, esta diferença se manifesta em diversas propriedades dos modelos.
A partir de uma Hamiltoniana microscópica, diversas aproximações podem ser feitas
de modo sistemático. No caso de fluidos, as interações são mais difı́ceis de serem incor-
poradas, o que explica o fato dos avanços conseguidos no estudo de transições de fase
nos últimos anos ter sido baseado, em grande parte, em sistemas magnéticos.

7.2.5 Percolation
Let us now discuss a purely geometrical problem: consider a d-dimensional (d > 1)
lattice of linear size L, in which only a fraction, p, of the sites are randomly occupied;
that is, p = Nocc /Ntotal , where Nocc is the number of occupied sites, and Ntotal is the
total number of sites. If p  1, there is no way the lattice can be spanned from one
edge to another1 by a path made up of occupied nearest-neighbour sites. In the opposite
limit, p ≈ 1, one can certainly go from one edge to another, and one says the occupied
sites percolate.2 Therefore, there must exist a critical concentration, pc , separating two
regimes: one, for p < pc , in which an arbitrary number of finite clusters of nearest
neighbour occupied sites are formed; and another, for p > pc , in which there is at least
one ‘infinite cluster’, by which one means a cluster of typical size ∼ L  a, where a
is the nearest-neighbour distance. Figure 7.9 illustrates these two regimes on a square
lattice.
We can then devise several cluster properties which bear the signature of pc . One
important quantity is P (p), the probability that an occupied site belongs to the infinite
spanning cluster [16]: it is zero for p < pc , since there is no spanning cluster, and it grows
from 0 to 1, as p grows from pc to 1; see Fig. 7.10. The similarity with the temperature
behaviour of both the magnetisation in magnetic systems, and the density difference in
the case of fluids should be evident: P (p) therefore plays the role of an order parameter
for this phase transition. The lack of a discontinuity in P (p) indicates that the transition
is of second order, or continuous.
In order to complete the analogy with thermal phase transitions, we may introduce
in percolation problems the analogue of the magnetic field and of the pressure. Imagine
a ‘ghost site’, lying outside the lattice, so that each lattice site has a probability h of
being connected to it, and 1 − h of not being connected to it; see Fig. 7.11. Then, if
1
This applies to a lattice with free boundaries; for a lattice with periodic boundary conditions, this
is understood as the completion of one ‘turn’ around the lattice.
2
When water is poured onto a heap of ground coffee it wets the grains in such way that holes of
dried regions are hardly formed; the liquid thus obtained is percolated coffee.
160 CHAPTER 7. PHASE TRANSITIONS

Figure 7.9: Site percolation. Computer-generated square lattice with 60 × 50 sites, for two different concentrations
of occupied sites (denoted by ∗; unoccupied sites are not shown): p = 0.5 on the left panel, and p = 0.6 on the right
panel. Some clusters of occupied sites are highlighted by lines joining nearest-neighbour sites. The percolation
threshold is pc = 0.5928, and we see that for p < pc the two largest clusters are highlighted, none of which spans
the whole lattice. By contrast, for p > pc a single cluster (the highlighted one) spans the whole lattice. (Figures
taken from Ref. [16].)

Figure 7.10: Schematic plot of P (p), the probability Figure 7.11: The ‘ghost-site’ is a site outside the lat-
that a site taken at random belongs to the percolating tice, which has a probability h of being connected to
cluster. P (p) plays the role of an order parameter for a given site.
the percolation phase transition.

h 6= 0, the connectivity of the lattice is enhanced since even sites far apart from each
other may become connected; for h ≈ 1 all occupied sites are connected, thus forming
a spanning cluster. This is similar to the effect a magnetic field has in an interacting
spin system: it helps the spins to become ordered. By the same token, applying pressure
to a gas brings the molecules together, favouring the formation of a liquid state. The
analogy between fluids, magnets and percolation can then be read as

− P → H → h, V → M → P, T → T → (1 − p). (7.2.18)

Instead of sites randomly occupying a lattice, one may think of a concentration p


of bonds being randomly attached to nearest-neighbour sites (all of which are assumed
occupied): this is now the bond-percolation problem, to distinguish from the previous
site-percolation problem; the above analogy with fluids and magnets is preserved. Fur-
ther, if these bonds are resistors one may then study the conductance of this random
7.3. MEAN-FIELD THEORIES 161

resistor network as a function of p; see, e.g. Ref. [16]. One may also consider the situation
in which each site is occupied either by a magnetic atom (that is, an atom with a total
angular momentum S 6= 0) or by a non-magnetic atom (S = 0). In this situation, if all
neighbouring magnetic atoms are exchange-coupled, the percolating cluster for p > pc
will be magnetically ordered at temperatures T ≤ Tc (p), such that Tc (1) is the critical
temperature for the clean magnetic system; for reviews, see, e.g. Refs. [17, 18].

7.3 Mean-Field Theories


Nesta seção veremos uma classe de teorias (ou aproximações) bastante simples, utilizadas
para descrever transições de fase. Apesar de aparentemente diferentes, todas têm em
comum o fato de não tratarem as flutuações de modo adequado; as conseqüências deste
fato serão discutidas na Seção 7.5.

7.3.1 The van der Waals equation


Na Sub-seção 6.2.3, a equação de van der Waals foi deduzida no contexto da expansão do
virial. Alternativamente, ela pode ser obtida da seguinte maneira (veja, p.ex., F. Reif,
Fundamentals of Statistical and Thermal Physics). Suponha que, ao invés de tratar a
interação entre pares de partı́culas, cada uma se movimente independentemente em um
potencial efetivo devido a todas as outras:
(
∞ se r < 2r0
U (r) = (7.3.1)
Ū se r ≥ 2r0 ,

onde Ū < 0 é uma grandeza a ser determinada; deve-se notar que, neste caso, trata-
se de um potencial de alcance infinito. Para estimar Ū notemos, primeiramente, que a
energia potencial total do sistema é N Ū , resultante da interação entre 21 N (N −1) ' 21 N 2
pares, cada um dos quais contribuindo com ū0 . Esta pode ser tomada como uma média
(esférica) da parte atrativa do potencial intermolecular, u(r), sobre o volume do sistema,

1 R 2a
Z
ū0 = 4πr2 dr u(r) ≡ − , (7.3.2)
V 2r0 V

o que define a constante a, e onde supusemos que u(r) decaia a zero rapidamente quando
r → R ∼ V 1/3 . Dado que N Ū = (1/2)N 2 ū0 , devemos ter, portanto,
1 N
Ū = N ū0 = −a , (7.3.3)
2 V
mostrando que Ū é intensiva.
A função de partição fica, então,

1 V − V0 βaN/V N
 
1 N
ZN = Z = e , (7.3.4)
N! 1 N! Λ3
162 CHAPTER 7. PHASE TRANSITIONS

Figure 7.13: Energia livre molar como função da


pressão para a isoterma com T < Tc . Os pontos
Figure 7.12: Isoterma tı́pica do gás de van der
assinalados aqui coincidem com os da Fig. 7.12.
Waals. O trecho DF corresponde a estados mecani-
camente instáveis. A área sob a curva ṽ(P ), entre
dois pontos quaisquer, é igual à diferença entre as
energias livres molares nos respectivos pontos.

onde V0 é o volume excluı́do, por molécula, devido ao carôço duro. Como o volume
excluı́do por par é 43 π(2r0 )3 ≡ 2b [veja Eq. (6.2.47)], devemos ter

V0 = bN. (7.3.5)

Finalmente, a pressão é calculada da maneira usual, recuperando a equação de van


der Waals,
N 2a
 
P + 2 (V − N b) = N kB T. (7.3.6)
V
Introduzindo o número de moles ν ≡ N/NA , onde NA é o número de Avogadro, e a
constante dos gases R = kB NA , a Eq. (7.3.6) pode ser reescrita, em termos do volume
molar ṽ ≡ V /ν, como  a
P + 2 (ṽ − b) = RT, (7.3.7)

ou, ainda, como uma equação cúbica em ṽ,
 
3 RT a ab
ṽ − b + ṽ 2 + ṽ − = 0. (7.3.8)
P P P
A Fig. 7.12 mostra uma isoterma obtida a partir da equação de van der Waals; veja
também a Fig. 7.5. A temperaturas suficientemente baixas, a equação cúbica admite
três soluções reais para ṽ. À medida em que T cresce, estas três soluções se aproximam
até coincidirem em Tc . Para T > Tc existe apenas uma raiz real que, para T → ∞,
corresponde à solução do gás ideal.
Um aspecto insatisfatório da equação de van der Waals é a previsão de um coefi-
ciente angular, (∂P/∂ṽ)T , positivo no trecho DF da Fig. 7.12, pois isto implica em uma
7.3. MEAN-FIELD THEORIES 163

compressibilidade negativa. De acordo com a discussão da Seção 2.8, os estados corres-


pondentes são termodinâmicamente instáveis por corresponderem a uma energia livre
de Gibbs convexa. Esta região não-fı́sica pode ser removida pela chamada construção de
Maxwell. Para isto, lembremos que, numa isoterma, a variação na energia livre molar
de um sistema quimicamente isolado é dada por

dg̃ = ṽ dP, (7.3.9)

de modo que a diferença em energias livres de dois pontos quaisquer 1 e 2 é dada pela
área da curva ṽ(P ) entre eles, ou
Z P2
g̃2 − g̃1 = ṽ(P ) dP. (7.3.10)
P1

Com isto, a energia livre molar ao longo do trecho AI da Fig. 7.12 é apresentada
na Fig. 7.13. Entre D e F os estados são instáveis porque a energia livre aparece como
uma função convexa de P e não é mı́nima; nos outros trechos a concavidade garante a
estabilidade. Todavia, para garantir que a evolução de A até I na Fig. 7.12 se faça por
estados de energia livre mı́nima, devemos descartar os estados que vão de C a G. Isto
é feito impondo que a energia livre permaneça constante entre C e G, o que equivale a
traçar uma reta vertical na Fig. 7.12 unindo C a G. Assim, a variação de energia livre
entre estes dois pontos é nula, de modo que
Z PG
0= dP ṽ(P ) =
PC
ZPD Z PE Z PF Z PG
= dP ṽ(P ) + dP ṽ(P ) + dP ṽ(P ) + dP ṽ(P ), (7.3.11)
PC PD PE PF

ou, rearranjando os limites de integração,


Z PD Z PD Z PE Z PG
dP ṽ(P ) − dP ṽ(P ) = dP ṽ(P ) − dP ṽ(P ). (7.3.12)
PC PE PF PF

Cada lado da equação corresponde a uma das áreas hachuradas na Fig. 7.12, indicando
que a reta vertical é traçada de modo a fazer com que aquelas áreas sejam iguais.
Os estados descartados, para os quais a energia livre ainda é côncava, são ditos
metaestáveis. Note que o trecho vertical corresponde a uma compressibilidade infinita,
o que está de acordo com o comportamento na região de coexistência. A construção
de Maxwell é utilizada em outros contextos, quando alguma aproximação dá origem a
energias livres com convexidade insatisfatória.
Examinemos agora o comportamento da equação de van der Waals perto do ponto
crı́tico, o qual é localizado como sendo o ponto onde o coeficiente angular da isoterma
crı́tica é infinito, e por ser também um ponto de inflexão. Ou seja,
   2 
∂P ∂ P
=0 e = 0. (7.3.13)
∂ṽ Tc ∂ṽ 2 Tc
164 CHAPTER 7. PHASE TRANSITIONS

CV / NkB

3/2

T
Figure 7.14: Calor especı́fico a volume constante como função da temperatura (esquemático), conforme previsão
da teoria de van der Waals. Note que, para T > Tc , o calor especı́fico é igual ao do gás ideal.

Assim,
a 8a
Pc =2
, ṽc = 3b e Tc = . (7.3.14)
27b 27bR
Introduzindo as variáveis P̄ ≡ P/Pc , T̄ ≡ T /Tc e V̄ ≡ ṽ/ṽc , a equação de van der Waals
satisfaz uma lei de estados correspondentes,
 
3
P̄ + 2 (3V̄ − 1) = 8T̄ (7.3.15)

cujo significado fı́sico foi discutido em detalhes na Sub-seção 7.2.3.
Na vizinhança do ponto crı́tico de segunda ordem, diversas grandezas apresentam
comportamentos singulares, caracterizados pelos chamados expoentes crı́ticos. Por e-
xemplo, introduzindo as notações ∆ρ ≡ ρL −ρG , de acordo com a discussão da Sub-seção
7.2.3, e ε ≡ (T /Tc ) − 1, temos
∆ρ ∼ (−ε)β . (7.3.16)
A partir da equação de van der Waals, obtém-se (veja o Exercı́cio 2) β = 1/2, que é
diferente do resultado experimental, β ' 1/3, para fluidos reais.
A compressibilidade isotérmica, na vizinhança do ponto crı́tico é dada por
( 0
(−ε)−γ , se T < Tc
KT ∼ (7.3.17)
ε−γ , se T > Tc ,

com γ = γ 0 = 1 pela teoria de van der Waals, enquanto que experimentalmente tem-se
γ ' γ 0 ∼ 1.2.
Experimentalmente, o calor especı́fico também apresenta um comportamento singu-
lar, ( 0
(−ε)−α se T < Tc
CV ∼ (7.3.18)
ε−α se T > Tc ,
7.3. MEAN-FIELD THEORIES 165

com α ' α0 ∼ 0.1 − 0.3. No entanto, a teoria de van der Waals fornece uma descon-
tinuidade (Fig. 7.14), e não uma divergência. Em termos de expoentes, a descontinuidade
é representada por α0 = α = 0(desc.). O comportamento do calor especı́fico a pressão
constante é semelhante ao da compressibilidade.
O expoente δ descreve a variação da pressão com a densidade ao longo da isoterma
crı́tica:
δ
P − Pc ρ
∼± −1 , (7.3.19)
Pc ρc
onde o sinal ± indica ρ maior ou menor que ρc . Pela equação de van der Waals, δ = 3,
enquanto que, experimentalmente, δ ∼ 4.
Podemos definir outros expoentes associados à função de correlação densidade-densi-
dade, Γ(r). Como a discussão é muito extensa (veja Stanley, Cap. 7), só mencionaremos
aqui que, perto de Tc , as correlações decaem exponencialmente com a distância,

Γ(r) ≡ hn(r)n(r0 )i − hn(r)ihn(r0 )i ∼ e−r/ξ(T ) , (7.3.20)

onde n(r) é a densidade no ponto r. O alcance de Γ define um comprimento caracterı́stico


ξ(T ), tal que
( 0
(−ε)−ν se T < Tc
ξ∼ (7.3.21)
εν se T > Tc .

Exatamente no ponto crı́tico, as correlações decaem algebricamente com a distância,

1
Γ(r) ∼ , (7.3.22)
rd−2+η

definindo o expoente η. O tratamento destas correlações, no espı́rito da teoria de van


der Waals, é conhecido como a teoria de Ornstein-Zernicke, a qual fornece ν 0 = ν = 1/2
e η = 0. Há poucas estimativas experimentais para estes expoentes no caso de fluidos,
ao contrário do caso magnético.
Em resumo, a teoria de van der Waals pode ser pensada como uma teoria de campo
médio, em que a interação entre as partı́culas é substituı́da por uma interação efetiva de
alcance infinito. Apesar de drástica, esta aproximação reproduz satisfatoriamente alguns
aspectos qualitativos da transição lı́quido-gás, como a lei de estados correspondentes, o
comportamento singular de diversas grandezas, e a universalidade dos expoentes.3 A
igualdade entre expoentes acima e abaixo da transição é confirmada tanto pela teoria de
scaling (Seção 7.6), quanto pela maioria dos resultados experimentais, de modo que não
mais faremos distinção entre eles. Quantitativamente, todavia, os valores dos expoentes
obtidos nas teorias de campo médio, não concordam com os resultados experimentais;
as razões serão explicitadas na Seção 7.5.
3
Note que as constantes de proporcionalidade, omitidas nas definições dos expoentes, não são uni-
versais.
166 CHAPTER 7. PHASE TRANSITIONS

7.3.2 Weiss Theory


A Teoria de Weiss do campo molecular foi proposta em 1907 para descrever o magnetismo
devido a spins localizados, antes mesmo de Heisenberg propor a interação de exchange
como o mecanismo responsável pelo comportamento cooperativo nestes sistemas.
Comecemos nossa discussão tendo em mente um modelo simplificado, o chamado
modelo de Ising de spin-1/2, definido em (7.2.15) e que já foi objeto de estudo na Seção
6.4.6. A Hamiltoniana é dada por
X X
H = −J σiz szj − H σiz , (7.3.23)
hi,ji i

onde a constante de acoplamento J é suposta homogênea, a primeira soma se estende a


pares de z sı́tios primeiros vizinhos de uma rede d-dimensional, os σ z são as matrizes de
Pauli, e H é um campo externo; note that the physical constants have been incorporated
into J and H, which now Q have dimensions of energy. Claramente H é diagonal numa
base de autoestados de N i σ z , onde N é o número de sı́tios. Logo, podemos substituir
i
os operadores que aparecem em (7.3.23) por autovalores, σ = ±1.
O espı́rito da teoria de Weiss é o mesmo da teoria de van der Waals, discutida na
Sub-seção 7.3.1: substitui-se a interação entre pares por uma interação efetiva. No caso
presente, o alcance é tomado como o mesmo da interação original, restrita a primeiros
vizinhos. Pode-se mostrar, todavia, que se cada spin interagisse com todos os demais –
isto é, se a soma em (7.3.23) se estendesse a todos os pares de spins, a solução de Weiss
seria exata, e não uma aproximação como no caso de alcance restrito; veja, por exemplo,
Stanley, Seção 6.5.
Assim, a hipótese de Weiss consiste em supor que cada spin sente, além do campo
aplicado H, um campo médio proporcional à magnetização de seus primeiros vizinhos.
H é então substituı́da por X
HW = − Hi σi , (7.3.24)
i
onde o campo efetivo no sı́tio i, dado por
X
Hi = Jhσj i + H, (7.3.25)
j

deve ser determinado autoconsistentemente. Em (7.3.25) a soma sobre os sı́tios j se


restringe aos z primeiros vizinhos de i; z é conhecido como o número de coordenação
da rede. Note que, de acordo com a hipótese de Weiss, todos os spins apresentariam
um comportamento igual ao da média. HW tem agora a forma de uma Hamiltoniana de
spins independentes, e o tratamento é semelhante ao do paramagnetismo, discutido na
Seção 3.3.
Se o sistema é homogêneo, devemos esperar que a magnetização média independa do
sı́tio considerado, ou hσj i = hσi, ∀j, e
1
Hi = zJhσi + H ≡ H.
e (7.3.26)
2
7.3. MEAN-FIELD THEORIES 167

1.5
T > Tc
T = Tc
< >
T < Tc
tanh [< >Tc /T]
1.0

0.5

0.0
0.0 0.5 1.0 1.5
< >

Figure 7.15: Solução gráfica da Eq. (7.3.29). O lado direito da equação é mostrado para diversas temperaturas.
Tc é obtida quando as derivadas de ambos os lados da equação se igualam.

A função de partição fica


e e N ≡ (Z1 )N ,
ZW = Tr e−βHW = (eβ H + e−β H )N = (2 cosh β H)
e
(7.3.27)

a partir da qual a energia livre de Gibbs é calculada:

G = −N kB T ln Z1 . (7.3.28)

A magnetização espontânea (i.e., H = 0) é dada sob a forma de uma equação auto-


consistente,  
1 ∂G zJhσi
hσi = − = tanh , (7.3.29)
N ∂H 2kB T
que pode ser resolvida graficamente. Chamemos y ≡ hσi e x ≡ tanh(zJhσi/2kB T ). Para
cada T , hσi é determinado como a interseção y = x, como indica a Fig. 7.15. Note que
para temperaturas muito altas, a derivada de x com relação a hσi na origem é menor que
a de y, que é 1. Como resultado, x fica sempre abaixo de y, e a única solução corresponde
a hσi = 0: é a fase paramagnética. À medida em que a temperatura diminui, a derivada
de x na origem aumenta até que se igualem a uma certa temperatura,
zJ
kB Tc = . (7.3.30)
2
Abaixo de Tc , aparece uma solução com hσi =6 0; é fácil ver graficamente que hσi cresce
à medida em que T decresce. O comportamento de hσi é, então, semelhante ao que
aparece na Fig. 7.8(c), desempenhando o papel de parâmetro de ordem da transição.
Deve-se frisar que para certos sistemas magnéticos (como os chamados vidros de spin)
o parâmetro de ordem não é a magnetização; na Sub-seção 7.3.3 mencionaremos outros
aspectos dos parâmetros de ordem.
168 CHAPTER 7. PHASE TRANSITIONS

A estimativa de Tc obtida na teoria de Weiss merece alguns comentários. Em primeiro


lugar, ela corresponde, essencialmente, à energia térmica necessária para contrabalançar
a energia magnética de um par de spins paralelos. Em segundo lugar, a dimensão da rede
aparece apenas no número de coordenação: a aproximação não distingue, por exemplo,
a rede triangular da rede cúbica simples, ambas com z = 6. Ela também prevê uma
transição de fase a uma temperatura não-nula para o modelo em uma dimensão que,
como veremos na Seção 7.4, é errado. Finalmente, o crescimento da temperatura crı́tica
com o número de coordenação é razoável, já que quanto maior fôr z, mais robusto é
o estado ordenado, necessitando de mais energia térmica para desordenar um estado
alinhado.
Para calcular o expoente β associado à magnetização, notemos que, perto de Tc , hσi
é pequeno; logo, "  2 #
zJhσi 1 zJ
hσi ' 1− hσi , (7.3.31)
2kB T 3 2kB T
que, usando (7.3.30), nos dá

Tc − T

hσi ' , (7.3.32)
Tc
com
1
β= , (7.3.33)
2
idêntico ao fornecido pela teoria de van der Waals para fluidos.
Outros expoentes crı́ticos podem ser definidos no caso magnético, em analogia aos
da Sub-seção 7.3.1. Abaixo citamos também os resultados para estes expoentes, obtidos
pela teoria de Weiss, cujos cálculos explı́citos são pedidos no Exercı́cio 3. Assim, na
isoterma crı́tica temos
hσ z i ∼ H 1/δ , δ = 3, (7.3.34)
onde H é agora um campo aplicado. Para o calor especı́fico a campo constante,

CH ∼ |T − Tc |−α , α = 0(desc.), (7.3.35)

e para a suscetibilidade,
χ ∼ |T − Tc |−γ γ=1 (7.3.36)
Há outra grandeza que não decorre da energia livre diretamente, mas que é muito
importante: a função de correlação entre as flutuações do parâmetro de ordem,

Γ(r) ≡ h[σ0 − hσ0 i][σr − hσr i]i = hσ0 σr i − hσ0 ihσr i, (7.3.37)

que mede o grau de influência entre spins afastados de uma distância r, e desempenha um
papel análogo à função de correlação densidade-densidade nos sistemas fluidos. Assim,
seu comportamento assintótico (isto é, para distâncias muito maiores que o parâmetro
de rede e perto da temperatura crı́tica) é

Γ(r) ∼ e−r/ξ , (7.3.38)


7.3. MEAN-FIELD THEORIES 169

onde
ξ ∼ |T − Tc |−ν (7.3.39)
é o comprimento de correlação, que mede o alcance das correlações e ν é um outro
expoente crı́tico.
Na transição, o decaimento de Γ(r) é mais lento:
1
Γ(r) ∼ , T = Tc , (7.3.40)
rd−2+η
onde d é a dimensão da rede e η é mais um expoente crı́tico.
Como no limr→∞ Γ(r) = 0, o parâmetro de ordem pode ser calculado como

hσi2 = lim hσ0 σr i, (7.3.41)


r→∞

de modo que se hσi2 6= 0 dizemos que o sistema apresenta ordem de longo alcance.
Por corresponder, essencialmente, a um sistema de spins não-interagentes, a aproxi-
mação de campo médio despreza as correlações; isto é,

hσo σr i = hσ0 ihσr i, (7.3.42)

de modo que não há flutuações entre correlações. Nisto reside uma das falhas da Teoria
de Weiss, cujas conseqüências serão exploradas na Seção 7.5.
Mesmo assim, usando-se o fato de que a teoria de Weiss fornece os mesmos expoentes
que a de van der Waals, podemos invocar a aproximação de Ornstein-Zernicke (veja
Stanley, Cap. 7), para citar os valores de ν e de η:

ν = 1/2 η = 0. (7.3.43)

7.3.3 Landau Theory


Um aspecto de transições de fase que aparece implicitamente nas discussões anteriores
é que, em geral, o aparecimento de um parâmetro de ordem está ligado à quebra de
alguma simetria. Isto é, a fase de baixa temperatura (ordenada) tem uma simetria menor
que a fase de alta temperatura. Por exemplo, um sólido é invariante por translações
discretas, enquanto que um gás ou um lı́quido são invariantes pelo conjunto mais amplo
das translações contı́nuas. Em alguns magnetos a simetria global (contı́nua) de rotação
da fase de altas temperaturas é quebrada pelo aparecimento de uma magnetização que
privilegia uma direção espacial. Em outros magnetos, nos quais a direção está definida,
mas não o sentido, a simetria global (discreta) de inversão dos spins é quebrada pela
escolha de um dos sentidos a baixas temperaturas. Estes dois exemplos magnéticos
ilustram casos em que o parâmetro de ordem é um vetor de três componentes e de uma
componente, respectivamente. Pensaremos num parâmetro de ordem como um vetor de
n componentes; algumas transições são descritas por parâmetros de ordem tensoriais,
mas não serão abordadas aqui.
A teoria de Landau parte desta idéia de quebra de simetria para fazer uma descrição
semi-fenomenológica da transição. Ao contrário da teoria de Weiss, a formulação de
170 CHAPTER 7. PHASE TRANSITIONS

Figure 7.16: Energia livre de Helmholtz (ou de Gibbs) como função do parâmetro de ordem: (a) acima de Tc ; (b)
abaixo de Tc .

Landau não pressupõe o conhecimento de uma Hamiltoniana, mas enfatiza o papel da


simetria que é quebrada.
Consideremos, por simplicidade, um parâmetro de ordem escalar, φ; este pode ser a
diferença entre densidades em sistemas fluidos ou a magnetização em sistemas magnéticos
do tipo Ising. A hipótese de Landau consiste em supor que, perto da transição, a energia
livre de Helmholtz possa ser expandida da seguinte forma:
A(T, φ) = A0 (T ) + α2 (T ) φ2 + α4 (T ) φ4 + · · · , (7.3.44)
onde supusemos que os coeficientes das potências ı́mpares se anulem por simetria; isto
é óbvio para sistemas magnéticos, pois estados com magnetizações φ e −φ devem ser
equivalentes, possuindo a mesma energia livre. Os coeficientes α2 e α4 são escolhidos
de modo a satisfazer certas condições que dependem de diversos fatores, como a ordem
da transição. Para transições de segunda ordem suporemos, primeiramente, α4 > 0 para
garantir a convexidade de A na região φ ∼ 1; veja a Fig. 7.16. Se α4 pudesse ser negativo,
terı́amos que manter termos até φ6 na expansão (7.3.44), com α6 > 0; veja o Exercı́cio 5.
Em segundo lugar, α2 deve ser tal que, para T > Tc apenas a solução φ ≡ 0 represente
um mı́nimo de A; para T < Tc a solução mais estável deve corresponder a φ 6= 0, e que
cresça continuamente quando T decresce a partir de Tc . Assim, a condição de mı́nimo
de A fica
∂A 
= 2α2 (T ) + 4α4 (T )φ2 φ = 0,

(7.3.45)
∂φ
que tem como soluções s
1 α2 (T )
φ = 0 ou φ = ± − . (7.3.46)
2 α4 (T )
Se escolhermos α2 > 0 para T > Tc , a segunda solução é imaginária e, portanto,
não-fı́sica. Por outro lado, tomando α2 < 0 para T < Tc , a segunda raiz corresponde às
duas soluções simétricas para o parâmetro de ordem na fase ordenada. Como a transição
é contı́nua, devemos ter α2 (Tc ) = 0. Logo, podemos supor que
α2 (T ) = α0 (T − Tc ), (7.3.47)
7.3. MEAN-FIELD THEORIES 171

onde α0 é uma constante. Supondo ainda que perto de Tc a dependência de α4 com T


seja lenta, e usando (7.3.46) e (7.3.47), podemos escrever
φ(T ) ∼ (Tc − T )β , com β = 1/2. (7.3.48)
Deve-se notar que este resultado para o expoente crı́tico β, associado ao comportamento
do parâmetro de ordem, é idêntico ao das teorias de Weiss e de van der Waals.
Assim, a expansão para a energia livre fica
(
A0 (T ) se T > Tc
A(T, φ) = 2 2
(7.3.49)
A0 (T ) − (α0 /4α4 )(T − Tc ) se T < Tc ,
de onde calculamos o calor especı́fico como C = −T (∂ 2 A/∂T 2 ); este apresenta uma
descontinuidade dada por
α2
∆C = Tc 0 , (7.3.50)
2α4
ou α = 0(desc.), como nas teorias de campo médio anteriores.
Para calcular outros expoentes, pensemos em um sistema magnético. O campo
magnético é dado por uma das relações de Maxwell,
 
∂A
H= , (7.3.51)
∂φ T
ou,
H ' 2α2 (T ) φ + 4α4 (T ) φ3 . (7.3.52)
A suscetibilidade pode ser calculada por
   2 −1
∂φ ∂ A
χT = = , (7.3.53)
∂H T ∂φ2 T
que, até ordem mais baixa em φ na Eq. (7.3.52), nos dá
1
χT ' , (7.3.54)
2α2
ou γ = 1, como anteriormente. Se fizermos agora T = Tc , a Eq. (7.3.52) fornece o
expoente δ = 3.
A teoria de Landau nos dá, como esperado, os mesmos expoentes das teorias de van
der Waals e de Weiss. Aqui, também, as flutuações no parâmetro de ordem não são
incorporadas corretamente. Pode-se criticar esta teoria porque sabemos a priori que a
energia livre não é uma função analı́tica do parâmetro de ordem, mas a expectativa é
de que as singularidades se manifestem em termos de ordem mais alta; veja Stanley,
Cap. 10 para uma análise mais detalhada da teoria de Landau.

7.3.4 The Bethe Lattice


Another way of implementing a mean-field approximation is to consider a lattice with no
loops, such as the Cayley tree shown in Fig. 7.17 for coordination z = 3.4 The branching
4
Since Hans Bethe was the first to solve spin models on these structures, they also became known
as Bethe lattices [16].
172 CHAPTER 7. PHASE TRANSITIONS

Figure 7.18: In a Cayley tree with coordination z =


3, the (central) site leads to z = 3 sites forming
branches. Within each branch one finds z − 1 sub-
branches, and so forth. Figure taken from Ref. [16].
Figure 7.17: A Cayley tree with coordination (i.e.,
the number of nearest neighbour sites of a given
site) z = 3. Figure taken from Ref. [16].

process shown in Fig. 7.17 is assumed to go on forever.


Let us first calculate the site-percolation threshold for these lattices. Any site (but
the origin, call it zeroth generation) has z − 1 bonds in the outward direction, each of
which will reach a new site, belonging to, say the first generation; each new site, in turn,
has a probability p of being occupied. Thus, the average number of paths connecting the
zeroth generation site to a first generation site will be p(z − 1). Carrying on to the next
generation, if p(z − 1) < 1 the average number of paths connecting the zeroth generation
site to a second generation site will decrease by the same factor; each added generation
will lead to a reduction in the average number of paths by the same factor. Therefore,
in order to avoid the steady decrease (thus the absence of a spanning cluster) we must
have p(z − 1) ≥ 1; the equality then defines the percolation threshold,
1
pc =. (7.3.55)
z−1
Note that the threshold decreases as the coordination increases: it is a non-universal
quantity.
Let us now evaluate P (p), the probability that the central site belongs to the perco-
lating cluster. Figure 7.18 highlights the central site (‘site’ in the figure), one ‘neighbour’
and its ‘branch’, as well as its ‘sub-branches’, for a z = 3 tree. Letting K be the proba-
bility that at least one branch is connected to the percolating cluster, we may write
P (p) = p · K
= p · (1 − K)
e (7.3.56)

where K e is the complement of K, namely the probability that none of the z branches
is part of the percolating cluster. With Q being the probability that a branch is not
7.3. MEAN-FIELD THEORIES 173

connected to the infinite cluster, we have

e = Qz .
K (7.3.57)

Now, a branch is not connected to the percolating cluster if ‘neighbour’ is unoccupied


[which occurs with probability (1 − p)], or, if it is occupied, the outward z − 1 branches
are themselves not connected to the percolating cluster [probability p Qz−1 ]. Thus,

Q = (1 − p) + p Qz−1 , (7.3.58)

If we specialise to z = 3, the solutions of (7.3.58) are Q = 1 and Q = (1 − p)/p; the


former yields P (p) ≡ 0, which is only acceptable for p < pc , while the latter yields
"  #
1−p 3

P (p) = p 1 − (7.3.59)
p
∼ (p − pc )β , with β = 1, for p → p+
c . (7.3.60)

One should convince oneself that β is the same for all z.


Let us now define the mean cluster size, S(p), as the average number of sites in the
cluster to which ‘site’ belongs; we consider p < pc . ‘Site’ itself contributes with 1 to
this number, to which we must add T , the contribution from each of the z branches
connected to it; that is,
S(p) = 1 + zT. (7.3.61)
For a given branch, if ‘neighbour’ is unoccupied [probability (1 − p)], it contributes with
size 0 to the average; on the other hand, if ‘neighbour’ is occupied [probability p] it
contributes with its own size, plus with T sites for each of its (z − 1) sub-branches.
Thus,

T = (1 − p) · 0 + p · [1 + (z − 1)T ]
= p + p(z − 1)T. (7.3.62)

Solving for T , and inserting into Eq. (7.3.61) yields

1+p
S(p) =
1 − p(z − 1)
pc (1 + p)
= (7.3.63)
pc − p
∼ (pc − p)−γ , with γ = 1 (7.3.64)

where we have used Eq. (7.3.55). The introduction of the exponent γ to characterise this
singular behaviour stresses that S(p) is the analogue of the magnetic susceptibility (and
the compressibility) in percolation problems. Indeed, this quantity reflects how prone
the system is to develop a percolating cluster when a small ghost field is switched on.
174 CHAPTER 7. PHASE TRANSITIONS

Another quantity of interest is the correlation function, or pair connectivity, g(r):


it probes the probability that two sites, separated by a distance r, belong to the same
cluster. One therefore expects that, asymptotically,

g(r) −−−→ e−r/ξ , (7.3.65)


r→∞

where ξ is the correlation length, which, for p near pc is expected to behave as

ξ ∼ |p − pc |−ν , with ν = 1/2 for the Bethe lattice [16]. (7.3.66)

In closing, we mention that many quantities may be defined in close analogy with
magnetic and fluid systems, while several other quantities characterising cluster prop-
erties and statistics are characterised by critical exponents with no magnetic (or fluid)
counterparts; see Ref. [16] for detailed discussions.
In the next Section we will obtain the exact solution for a one-dimensional interacting
spin system, which is very illustrative in itself and clearly pinpoints some of the difficulties
mean-field theories meet in describing low-dimensional systems; these shortcomings are
discussed in detail in Sec. 7.5.

7.4 Exact Solution for the One-dimensional Ising Model


Considere uma cadeia linear com condições de contorno periódicas; isto é, σNz z
+1 = σ1 .
O sistema pode então ser pensado como um anel; veja a Fig. 7.19. Admitindo que cada
sı́tio esteja ocupado por um spin- 21 , a Hamiltoniana de Ising em presença de um campo
externo é dada por
XN X
H = −J σiz σi+1
z
−H σiz . (7.4.1)
i=1 i
Para calcular a função de partição tomemos por base o conjunto de autoestados em
que σiz é diagonal, σiz |σi i = σi |σi i. Isto permite substituir os operadores em (7.4.1) por
seus autovalores σi = ±1: XY
Z= eKσi σi+1 +Bσi , (7.4.2)
{σi } i

1 N N 1 N 2
2
3 . .
.
4
.
. .

Figure 7.19: Topologia da rede uni-dimensional com condições de contorno periódicas.


7.4. EXACT SOLUTION FOR THE ONE-DIMENSIONAL ISING MODEL 175

com K ≡ J/kB T e B ≡ H/kB T .


A função de partição pode então ser escrita como
XX X
Z= ··· f (σ1 , σ2 ) f (σ2 , σ3 ) · · · f (σN , σ1 ), (7.4.3)
σ1 σ2 σN

onde
1
f (σi , σi+1 ) ≡ eKσi σi+1 + 2 B(σi +σi+1 ) , (7.4.4)
devendo-se notar que o mesmo sı́tio i contribui com 12 B em f (σi−1 , σi ) e em f (σi , σi+1 ),
totalizando B, como na Hamiltoniana, Eq. (7.4.1); o objetivo disto é tornar f (σi , σj )
simétrico na troca σi ↔ σj .
Note que podemos identificar f (σi , σi+1 ) como elementos de uma matriz

e−K
 K+B 
e
T= , (7.4.5)
e−K eK−B

chamada Matriz de Transferência porque relaciona os estados de spin no sı́tio i com os


do sı́tio i + 1. Desta forma,
X
Z= hσ1 |T|σ2 ihσ2 |T|σ3 i · · · hσN |T|σ1 i
{σi }
X
= hσ1 |TN |σ1 i = Tr TN , (7.4.6)
σ1

Como o traço independe da base, podemos usar aquela que diagonaliza T para obter
"  N #
λ<
Z = λN> 1+ , (7.4.7)
λ>

onde
λ > = eK cosh B ± (e2K sinh2 B + e−2K )1/2 , (7.4.8)
<

são os dois autovalores de T. Note that (i) when B = 0, one has λ> = 2 cosh K, e
λ< = 2 sinh K, and (ii) λ> /λ< ≤ 1, where the equality only applies asymptotically, for
B = 0 and K → ∞.
Para N grande, podemos desprezar (λ< /λ> )N em (7.4.7), o que nos dá

ZN ' λN
>. (7.4.9)

A energia livre por spin fica

g(T, H) ' −kB T ln λ> , (7.4.10)

de onde obtemos a magnetização por spin,


∂g sinh B
hσi = − =p . (7.4.11)
∂H 2
cosh B − 2e−2K sinh K
176 CHAPTER 7. PHASE TRANSITIONS

Figure 7.20: Função de correlação hσ0 σr i, como função de r, para uma temperatura fixa e campo nulo, nos casos
ferromagnético (J > 0) e antiferromagnético (J < 0). A linha cheia corresponde ao envelope exponencial.

É importante notar que


lim hσi = 0, (7.4.12)
B→0

de modo que não existe magnetização espontânea em uma dimensão para T 6= 0. Assim,
não há transição de fase a temperatura finita para o modelo de Ising em d = 1, ao
contrário da previsão da teoria de Weiss, Eq. (7.3.30) com z = 2,

(kB Tc )Weiss = J. (7.4.13)

A função de correlação de pares também pode ser calculada exatamente (veja o


Exercı́cio 7), com o resultado
 r
λ<
hσ0 σr i = hσ0 ihσr i + a , (7.4.14)
λ>

onde a é uma constante, o que fornece


 r
λ<
Γ(r) = a = a e−r/ξ , (7.4.15)
λ>
com
1 λ>
= ln . (7.4.16)
ξ λ<
A Fig. 7.20 mostra o comportamento de hσ0 σr i com r nos casos ferro- (J > 0) e anti-
ferromagnético (J < 0); o caráter oscilatório deste último tem origem no alinhamento
alternado dos spins no estado fundamental.
7.4. EXACT SOLUTION FOR THE ONE-DIMENSIONAL ISING MODEL 177

Figure 7.21: Modelo de Ising unidimensional: (a) entropia, (b) calor especı́fico, e (c) inverso da suscetibilidade,
como funções da temperatura, a campo nulo. Em (c) a linha tracejada representa, para efeitos de comparação, a
Lei de Curie, para spins não-interagentes.

A Eq. (7.4.16) nos mostra que ξ → ∞ quando λ> → λ< , o que ocorre apenas em
T = Tc = 0, H = Hc = 0. Therefore, expanding λ> and λ< for H = 0 and kB T  J
yields
ξ ∼ e2J/kB T , (7.4.17)
que, ao contrário da divergência algébrica (i.e., como lei de potência em |T − Tc |) que
ocorre para d > 1, verifica-se aqui uma singularidade essencial; mais sobre isto na Seção
7.5.
É importante enfatizar que a Eq. (7.4.16) é válida para d > 1, desde que λ> e λ<
sejam interpretados como os dois maiores autovalores da matriz de transferência; veja
C. Domb, Adv. Phys. 9, 149 (1960).
Outras grandezas termodinâmicas podem ser calculadas, como a entropia por spin,
∂g
s=− = kB (ln 2 + ln cosh K − K tanh K)
∂T
' 2kB Ke−2K , T → 0, (7.4.18)

com S = N s mostrada na Fig. 7.21(a), e o calor especı́fico [c.f. Eq. (2.7.2)],

CH = kB (K sech K)2 , (7.4.19)

mostrado na Fig. 7.21(b); neste último deve-se notar que a presença do máximo não está
relacionada a alguma transição de fase, mas ao fato de que a cadeia linear se comporta,
efetivamente, como um conjunto de ligações (entre os sı́tios i e i + 1) independentes.
A suscetibilidade é obtida da maneira usual, e é interessante ressaltar que também
apresenta um comportamento exponencial a baixas temperaturas,
1 2J/kB T
χT ∼ e , (7.4.20)
T
mostrado na Fig. 7.21(c). Note que a singularidade é bem mais acentuada do que no
caso de spins não-interagentes, como indicado na Fig. 7.21(c).
Em resumo, o modelo de Ising foi resolvido exatamente numa rede linear. A presença
de condições de contorno periódicas nos permitiu usar a matriz de transferência, que
178 CHAPTER 7. PHASE TRANSITIONS

tem aplicações mais gerais do que esta.5 Vimos que a transição ocorre a T = 0, com as
diversas grandezas termodinâmicas apresentando singularidades essenciais, ao invés de
singularidades algébricas.

7.5 Critique of Mean-Field Theories


Na seção anterior discutimos um modelo exatamente solúvel, cujos resultados estão
em completo desacordo com as previsões de Campo Médio, já que a transição de fase
ocorre apenas em T = 0. Além disto, tanto medidas experimentais em diferentes sis-
temas fı́sicos, quanto a solução de Onsager para o modelo de Ising bi-dimensional – que
apresenta uma transição com Tc 6= 0 – fornecem expoentes crı́ticos diferentes daqueles
previstos pelas Teorias de Campo Médio (TCM’s).
Estas discrepâncias ocorrem porque as TCM’s ignoram correlações entre as flutuações
no parâmetro de ordem. Isto aparece como uma inconsistência nos resultados, como vere-
mos a seguir. O Teorema de Flutuação-Dissipação relaciona as flutuações em um sistema
no equilı́brio com a resposta a um estı́mulo externo (tal como um campo magnético em
sistemas magnéticos ou a pressão em sistemas fluidos; veja o Exercı́cio 10):

1 ∂2G
 
β X
χT = − = h[σi − hσi i][σj − hσj i]i =
N ∂H 2 N
i,j
X
=β Γ(rij ) = β Γ̃(k = 0) (7.5.1)
j

onde rij ≡ ri − rj , e Γ̃(k) é a transformada de Fourier de Γ(rij ), a função de cor-


relação entre as flutuações. Note que na terceira igualdade acima usamos a condição de
invariância translacional; isto é, a função de correlação não depende de onde se toma ri ,
apenas da distância, rij , entre os sı́tios i e j. Por outro lado, na TCM,

hσi σj i = hσi ihσj i; (7.5.2)

já que as correlações são desprezadas porque a Hamiltoniana efetiva é do tipo não-
interagente, apesar de efeitos cooperativos estarem incluı́dos via o campo autoconsis-
tente. Assim, temos
Γ(rij ) = δij Γ(0) = δij [hσi2 i − hσi i2 ], (7.5.3)
e a inconsistência está no fato de que o alcance da função de correlação é nulo, não sendo
possı́vel obter-se o comportamento singular para χT ,

χT ∼ |T − Tc |−γ , (7.5.4)

como previsto pela própria TCM.


5
A cadeia com extremidades livres também pode ser resolvida exatamente; veja, por exemplo, Stan-
ley, Seção 8.2. Os resultados, no limite termodinâmico, são essencialmente os mesmos.
experimentally. The MF prediction for the transition point is too high,
the specific heat shows a finite discontinuity instead of diverging, and is
furthermore characterized by the absence of the characteristic 'high-
temperature tail '. The latter is encountered in all the more sophisticated
models as well as experimentally, and is due to the presence of short-
range interactions above T c t h a t are not taken into account in the MF
theory. Neglect of the short-range order is in fact the reason why the
7.5. CRITIQUE OF MEAN-FIELD THEORIES 179
12 L . J . de Jongh and A. R. Miedema on

4
Fig. 1
Fig. 6
Cm
R 2 3 ME 3 M.F.
Cm
R HEISENBERG
4: 41 47
ISING d=1,2,3
d=1,2,3 S=1/2
S=1/2
7

2
7:

I I I I 0 2
0 r T/O
~- It@
Specific heats of the S = ½ Heisenberg model in 1, 2 and 3 dimensions. The
Theoretical magnetic specific heats Cdo
m of theespecı́co
S = ½ Ising1-d model for
the aresult
1, dimensões
2for
and
702 2

Figure 7.22: Comparação calor curve


(teórico) emisdiversas the antiferromagnetic chain
espaciais, incluindo a obtained by Bonner
aproximação
3-d lattice. The
de campo chain
médio curve
(MF), parahas been obtained
os modelos and
de Ising byFisher
Ising
(painel (1925),
(1964),
esquerdo) fromwhoapproximate
e Heisenberg solutions.
(painel direito). θThe 2-d curve
= zJ/2k B é a
applies
first performed
temperaturacalculations on the
de Curie-Weiss. model
[Extraı́do de that
LJ detobears
the ferromagnetic
Jongh his
and name.
AR Miedema, quadratic
The lattice23,
Adv. Phys. and has been constructed by
1 (1974)].
2-d curve is also an exact result, derived by BloembergenOnsager (1944) (1971for
) fromthethe predictions of spin-wave theory (T~ 0 < O"1),
7

quadratic lattice. The 3-d curve has been calculated from the high-temperature
by B16te and series expansion (T/O>I), and from the
ttuiskamp (1969) and B15te (1972) for the simplediscussedexperimental
cubic lattice data on approximants
from of this model (0"1 < T/O < 1), to be
the curve follows
Voltando à Eq. (7.5.1), vemos, pelo below. que
contrário, The o3-d from series expansions
de χT for the
high and low-temperature series expansions of Cb.c.c, m given by Bakergiven
ferromagnet et al.by Baker et al. (1967singular
comportamento
b). Also included is the
(1963) está
and associado
Sykes et al.ao(1972).
longo alcance da função
For comparison, demolecular
the
molecular correlação: os termos h[σi − hσi i][σj − hσj i]i,
field
field prediction.
prediction (MF) has been included. R denotes the gas constant and
sendo finitos, só poderão acarretar um comportamento singular caso se mantenham
is the Curie-Weiss temperature (O=~zS(S+ 1)J/k), which is the transi-
finitos, mesmo
tion temperature a longas
according to the distâncias,
MF theory. rij .
Assim, as flutuações no parâmetro de ordem são
The enhancement muito
of the importantes
importance of the na região crı́tica.effects
short-range-order
also follows from the fact t h a t in the
Em primeiro lugar, porque são elas que destróem a fase ordenada, e desprezá-las, case of the Heisenbergcomo model a
lowering of the dimensionality to 2 is already sufficient to prevent the
nas teorias de campo médio, significa superestimar
onset of long-range o avalor
order at non-zerode temperature
Tc . Isto é (Mermin
ilustrado andna Wagner
Fig. 7.22, que mostra o calor especı́fico
1966). Thepara os modelosof de
thermodynamics the Ising (painel esquerdo)
2-d Heisenberg e
model will therefore
Heisenberg (painel direito) em todiversas
a certaindimensões
extent resemble the behaviour
espaciais: Tc é semprefound in the chain
menor que models
a ;
to a certain extent because there is a possible difference following from
estimativa de campo médio (Curie-Weiss), θ, e decresce à medida em que d diminui.
the analysis of series expansions of the susceptibility (Stanley and Kaplan
A solução exata para o modelo1966),
de Ising em dindications
in which = 1 mostra wereque estafordiscrepância
found the existenceem of Tnon-zero
c
pode ser drástica a ponto de eliminar a existência
transition points at de fasethe
which ordenada a qualquer
ferromagnetic T > 0. diverges.
susceptibility O
Thus, although the chain models as well as the 2-d Heisenberg model
painel esquerdo da Fig. 7.22 ilustra isto para o modelo de Ising, através da ausência de
cannot sustain a spontaneous magnetization at any finite temperature,
singularidade no calor especı́ficotheem d =would
latter 1; o distinguish
painel direitoitself também
by possessing mostra a ausência
a transition to a phase
de singularidade a temperaturas withfinitas parasusceptibility.
an infinite o modelo deWeHeisenberg will return toem thisdintriguing
= 1 e 2. problem
Portanto, devemos esperar de um modo geral que exista sempre uma dimensão crı́ticamodels
later. At this point we merely remark t h a t since the 2-d XY
have been found to possess similar properties as the 2-d Heisenberg model,
d≤
inferior, di , tal que Tc = 0 parathe di .
anisotropy evidently must be of the Ising form to enable a transition
Para sistemas com simetriatodiscreta,
long-range doorder
tipotoIsing,
occur in um argumento
a 2-d lattice. devido a Peierls
ilustra muito bem que di = 1. A idéia é calcular a diferença em energia livre entre uma
configuração com todos os spins alinhados e uma com todos os spins virados a partir
de um ponto qualquer da rede, ou com um kink; veja a Fig. 7.23. Como o kink pode
ser formado em qualquer um dos N sı́tios da rede, há N modos de fazê-lo; isto dá uma
contribuição ∆S = kB ln N para a variação de entropia. A baixas temperaturas, temos,
portanto,
∆G = ∆E − T ∆S = 2J − kB T ln N, (7.5.5)
de modo que, para qualquer T > 0 o termo de entropia domina por ser macroscópico, e
180 CHAPTER 7. PHASE TRANSITIONS

(a)

(b) L
Figure 7.23: Configurações de uma cadeia de
Figure 7.24: Uma excitação para spins de Ising em uma
Ising com N spins: (a) estado fundamental,
rede quadrada: os spins na região de tamanho linear L
com todos os spins alinhados; (b) um estado
estão opostos aos demais.
excitado (kink) de mais baixa energia, cuja
degenerescência é ∼ N .

teremos sempre ∆G < 0. Isto é, o estado ordenado é instável pela formação de kinks.
Acima de d = 1, excitações tı́picas correspondem a virar os spins dentro de uma
região de dimensão linear L, como ilustra a Fig. 7.24. A diferença de energia é então
proporcional ao número de spins na fronteira ou, equivalentemente, ao perı́metro da
região: ∆E ∼ 2J Ld−1 . A contribuição da entropia não é tão simples de ser calculada
como em uma dimensão, mas é claramente macroscópica. Portanto, o sistema consegue
manter a ordem (isto é, ter a maioria dos spins apontando num dado sentido), ∆G > 0,
pagando o preço de formar ilhas muito grandes com spins opostos, o que só é favorável
até uma temperatura Tc > 0.
Já para sistemas magnéticos com simetria contı́nua, as excitações de baixa energia
correspondem a ondas de spin que, para d ≤ 2, ocorrem em grande número, também
destruindo a fase ordenada. É o que acontece, por exemplo, nos modelos de Heisenberg
e XY (veja o Exercı́cio 5.6); assim, di = 2 para modelos com simetria contı́nua.
É interessante notar também que na dimensão crı́tica inferior as divergências das
diversas grandezas são exponenciais: isto ocorre para o modelo de Ising unidimensional
(Seção 7.4) e para os modelos de Heisenberg e XY em d = 2. Já para d < di , as
divergências quando T → 0 voltam a ser algébricas, p.ex., ξ ∼ T −ν , como no caso do
modelo de Heisenberg unidimensional.6
Uma segunda conseqüência da ausência de flutuações de longo alcance nas teorias
de campo médio é a previsão de expoentes crı́ticos diferentes dos observados experimen-
talmente ou calculados por outros métodos. Neste sentido, as TCM’s fornecem muito
poucas classes de universalidade.
Por outro lado, para dimensões espaciais suficientemente altas, devemos esperar que
as flutuações desempenhem um papel cada vez menos importante. Deve haver, portanto,
6
Para os valores dos expoentes, veja, p.ex., JW Lyklema, Phys Rev B 27, 3108 (1983).
7.6. UNIVERSALITY AND SCALING 181

uma dimensão crı́tica superior, ds , tal que os expoentes de campo médio sejam exatos
para d ≥ ds . Veremos na próxima seção que, para os modelos de Ising, Heisenberg e
XY , temos ds = 4, while for the percolation problem (Section 7.2.5) one has ds = 6.
Visto que identificamos a ausência de flutuações de longo alcance como a falha prin-
cipal das TCM’s, veremos agora como incorporá-las de modo fundamental, explorando
as transformações do sistema sob mudanças de escala.

7.6 Universality and Scaling


Um resultado curioso obtido a partir das TCM’s é que várias propriedades são inde-
pendentes do sistema em estudo. Em particular, notemos que os expoentes crı́ticos são
os mesmos, para todas as Hamiltonianas magnéticas (Ising, Heisenberg e XY ). Além
disto, eles independem do valor do spin e do valor de J. Enquanto a pequena diver-
sidade dos conjuntos de expoentes é uma deficiência das TCM’s, o fato de transições
devidas a mecanismos tão distintos, como, por exemplo, fluidos, magnetos, supercodu-
tores, etc., exibirem, em alguns casos, os mesmos conjuntos de expoentes, permanecem
válidos mesmo abaixo de ds .
O que se verificou, através de experiências e de cálculos teóricos (exatos e expansões
em séries de potência) é que os vários sistemas fı́sicos podem ser associados a classes
de universalidade, determinadas, em sua maioria, pela simetria do parâmetro de ordem
(isto é, por sua dimensionalidade, n) e pela dimensão espacial. Desta forma, o valor de J,
do spin S e a topologia da rede (por exemplo, quadrada, triangular, hexagonal etc.) para
uma dada dimensão espacial, são irrelevantes na determinação dos expoentes crı́ticos.
É interessante lembrar que Tc depende de todos estes fatores, por ser uma propriedade
intimamente ligada à conectividade da rede e ao número de graus de liberdade por spin.
A irrelevância destes fatores ocorre devido ao fato de que, na região crı́tica, eles
representam detalhes de curto alcance, contrastando com o longo alcance das correlações.
Isto é, substituindo-se um bloco de spins por um spin médio, estes detalhes ficam diluı́dos.
Esta mudança de escala, obtida quando se associa uma nova variável a um bloco de spins,
é crucial na formulação da Teoria Moderna de Fenômenos Crı́ticos, que teve inı́cio com
os trabalhos de Widom, Kadanoff, Wilson e Fisher. Veremos que os expoentes crı́ticos
são determinados por estas propriedades de scaling.
Considere uma rede hipercúbica e associemos a cada grupo de bd spins Si = ±1
(Ising), distando a entre si, uma nova variável SI como

1 X
SI = Si , (7.6.1)
Λ
i ∈ bloco

onde o parâmetro de rede agora é ba, e Λ pode ser pensado como um fator de normali-
zação que faz SI ter as mesmas propriedades de Si . Por exemplo, se Si = ±1 devemos
ter SI ± 1; assim, Λ ∼ bd . É claro que esta definição de SI é um pouco vaga, mas será
feita de modo mais preciso na próxima seção. A Fig.7.25 mostra um exemplo para a rede
quadrada, em que b = 2.
182 CHAPTER 7. PHASE TRANSITIONS

a 2a
(a) (b)
Figure 7.25: Exemplo da construção dos blocos de Kadanoff: a cada 4 (= bd , com b = d = 2) spins do sistema
original em (a), associamos 1 spin no sistema escalado (b). O parâmetro de rede passa de a para ba.

Para uma Hamiltoniana inicial


X X
HS = −J Si Sj − H Si , (7.6.2)
hi,ji i

suponhamos que a Hamiltoniana escalada também seja da mesma forma, isto é,
X X
HS 0 = −J 0 SI SJ − H 0 SI , (7.6.3)
hI,Ji I

onde J 0 e H 0 são os novos parâmetros da Hamiltoniana em termos das variáveis de bloco


SI .
At this point, it is worth noticing that in addition to the initial energy scales, J and
H, one has the thermal energy, kB T , and we seek dimensionless ratios between them.
Since in the density operator the Hamiltonian appears in the exponent as exp(−βH), it
is natural to introduce pairs of dimensionless variables such as

K ≡ J/kB T, B ≡ H/kB T, (7.6.4)

at finite temperatures. Moreover, it is convenient to introduce the relative (dimension-


less) distance from the critical temperature as
T − Tc Kc − K Kc − K
ε≡ = ' , (7.6.5)
Tc K Kc
where the last passage follows from the fact that proximity to the critical point is as-
sumed, so that one can set K ' Kc in the denominator.
7.6. UNIVERSALITY AND SCALING 183

With these, the critical point is located at (ε = 0, B = 0), and, going back to the
Kadanoff blocks, we may think that the change in scale corresponds to a transformation
in the coupling constants as
(ε, B) → (ε0 , B 0 ). (7.6.6)
Por serem extensivas, as energias livres dos sistemas original e escalado devem ser as
mesmas; daı́ segue que as energias livres por partı́cula devem estar relacionadas por7

g(ε0 , B 0 ) = bd g(ε, B), (7.6.7)

e os comprimentos de correlação, em unidades de a, por


1
ξ(ε0 , B 0 ) = ξ(ε, B). (7.6.8)
b
Deve-se notar que, pelo fato de se supor que lidamos com um sistema no limite ter-
modinâmico, g e ξ são as mesmas funções dos pares de variáveis, (ε, B) e (ε0 , B 0 ), relativas
aos sistemas original e escalado, respectivamente.
A Eq. (7.6.8) indica que se ε 6= 0, o novo comprimento de correlação é menor que o
original, já que b > 1; isto é, a mudança de escala nos afasta do ponto crı́tico. Devemos
ter, portanto, ε0 > ε, o que sugere a escolha

ε0 = λt ε, (7.6.9)

onde λt independe de ε e de B, e o ı́ndice t significa ‘térmico’. Já que efetuar duas


mudanças de escala sucessivas com fatores b1 e b2 equivale a uma única por um fator
b1 · b2 , λt deve ser da forma
λt = byt , (7.6.10)
com yt a ser determinado. Analogamente,

N N/bd
X XX X
B Si = B Si = BΛ SI , (7.6.11)
i=1 I=1 i∈I I

o que nos leva a supor que


B 0 = ΛB = byh B, (7.6.12)
com yh a ser determinado – o ı́ndice h indica ‘magnético’.
Assim, a transformação da energia livre é

g(byt ε, byh B) = bd g(ε, B), (7.6.13)

refletindo o fato de que ela é uma função homogênea de suas variáveis.


7
A rigor, esta relação é satisfeita pela parte singular da energia livre; veja, por exemplo, Th Niemeijer
e JMJ van Leeuwen, em Phase Transitions and Critical Phenomena, editado por C Domb e MS Green,
vol. 6 (1976).
184 CHAPTER 7. PHASE TRANSITIONS

Dado o papel das flutuações, é importante examinarmos como a função de correlação


se comporta sob mudança de escala. Para o sistema de blocos temos

Γ(r0 , ε0 ) = hSI SJ i − hSI ihSJ i


1 X
= 2 {hSi Sj i − hSi ihSj i} (7.6.14)
Λ i,j
∈I,J

Usando o fato de que

hSi0 Sj 0 i − hSi0 ihSj 0 i ' hSi Sj i − hSi ihSj i, (7.6.15)

para todos os Si0 pertencentes ao bloco I e todos os Sj 0 pertencentes ao bloco J, de modo


que a soma fornece (bd )2 termos aproximadamente iguais a Γ(r), podemos escrever
2
bd

0 0
Γ(r , ε ) ' Γ(r, ε), (7.6.16)
Λ
com
r0 = b−1 r, (7.6.17)
também em unidades de a. Com ε0 = byt ε e B 0 = byh B, temos, finalmente,

Γ(b−1 r, byt ε) = b2(d−yh ) Γ(r, ε). (7.6.18)

Com estas transformações para g e Γ, podemos obter relações interessantes. A mag-


netização é obtida diferenciando-se (7.6.13) com relação a B,

byh M (byt ε, byh B) = bd M (ε, B). (7.6.19)

Tomando b = (−ε)−1/yt e fazendo B = 0, vem


d−yh
M (ε, 0) = (−ε) yt M (−1, 0) ∼ (−ε)β , (7.6.20)

já que M não é singular no ponto (-1,0); isto nos dá


d − yh
β= . (7.6.21)
yt

Substituindo b = B −1/yh e ε = 0 em (7.6.19), vem

M (0, B) = B d/yh −1 M (0, 1) ∼ B 1/δ , (7.6.22)

o que nos dá


yh
δ= . (7.6.23)
d − yh
De modo análogo, tomando a segunda derivada da energia livre com relação a B,
vem
b2yh χ(byt ε, byh B) = bd χ(ε, B). (7.6.24)
7.6. UNIVERSALITY AND SCALING 185

Fazendo B = 0 e b = ε−1/yt temos


d−2yh
χ(ε, 0) = ε yt χ(1, 0) ∼ ε−γ , (7.6.25)

com
2yh − d
γ= . (7.6.26)
yt
0
Se tomássemos b = (−ε)−1/yt , e definindo χ ∼ (Tc − T )−γ , T < Tc , obterı́amos γ = γ 0 .
Tomando agora a segunda derivada de g com relação a T , temos o calor especı́fico,

b2yt CH (byt ε, byh B) = bd CH (ε, B). (7.6.27)

Fazendo b = ε−1/yt e B = 0, vem


d−2yt
CH (ε, 0) = ε yt CH (1, 0) ∼ ε−α , (7.6.28)

onde
α = 2 − d/yt . (7.6.29)
Da mesma forma, obtém-se que α = α0 .
Voltando agora à função de correlação [Eq. (7.6.18)], façamos b = ε−1/yt ; assim
2(yh −d)
Γ(r, ε) = ε yt Γ(r/ε−1/yt , 1). (7.6.30)

Chamando
f (r/ξ) ≡ Γ(r/ε−1/yt , 1), (7.6.31)
vemos que a dependência de Γ com r aparece apenas na variável r/ξ, com

ξ ' ε−1/yt ∼ ε−ν , (7.6.32)

ou
ν = 1/yt . (7.6.33)
Tomando b = r e ε = 0 em (7.6.18), temos

Γ(r, 0) = r2(yh −d) Γ(1, 0) ∼ r−(d−2+η) , (7.6.34)

ou
η = d + 2(1 − yh ). (7.6.35)
As equações (7.6.21), (7.6.23), (7.6.26), (7.6.29), (7.6.33), e (7.6.35) indicam que
apenas dois expoentes são independentes, e, também, que estas relações independem do
sistema fı́sico em particular. Mais ainda, uma vez que yt e yh são determinados pelas
propriedades de transformação de H sob mudança de escala, seus valores não dependem
de K ou de B.
186 CHAPTER 7. PHASE TRANSITIONS

Eliminando yh e yt nestas equações, obtemos as chamadas leis de escala:


dν = 2 − α (7.6.36a)
γ = ν(2 − η) (7.6.36b)
2β = ν(d − 2 + η) (7.6.36c)
d+2−η
δ= ; (7.6.36d)
d−2+η
elas indicam que apenas dois expoentes são independentes. Deve-se mencionar que estas
leis de escala podem também ser obtidas, como desigualdades, a partir de condições de
estabilidade; veja Stanley, Cap. 4.
É interessante notar que as leis de escala podem ser usadas para calcular a dimensão
crı́tica superior ds . De fato, atribuindo aos expoentes os valores de campo médio obtidos
na Seção 7.3, obtemos ds = 4; atribuindo os valores de campo médio do problema da
percolação, β = γ = 1 e ν = 1/2, temos ds = 6.
Em resumo, a análise do comportamento de um sistema sob mudança de escala nos dá
uma compreensão unificada sobre transições de fase. Em primeiro lugar, as leis de escala
surgem como conseqüência natural da homogeneidade da energia livre. Em segundo
lugar, o ponto crı́tico está associado a um ponto de invariância de escala. E, finalmente, a
simetria do parâmetro de ordem determina as leis de transformação perto do ponto crı́tico
– via yt e yh . Deve-se mencionar que a dedução apresentada foi baseada em diversas
hipóteses que, posteriormente, se mostraram muito simplificadoras; os resultados finais,
todavia, são essencialmente corretos. Sob o ponto de vista operacional, estas idéias
não fornecem um método de cálculo que permita estimar valores para temperaturas e
expoentes crı́ticos; é preciso complementá-las com um formalismo baseado na eliminação
explı́cita de graus de liberdade, que é o grupo de renormalização (GR).

7.7 The Position-Space Renormalization Group


Na teoria de escala desenvolvida na seção anterior, a definição do spin efetivo do bloco
foi feita de um modo bastante impreciso. De fato, a primeira formalização destas idéias
foi feita por Wilson em 1972: a partir da Hamiltoniana, escrita no espaço dos momenta,
graus de liberdade são eliminados através da integração dos modos de pequenos com-
primentos de onda (ou k grandes); veja a Sec. 7.9. Assim, obtém-se uma relação de
recorrência entre as ‘velhas’ e ‘novas’ variáveis, de maneira análoga às relações ε0 (ε) e
H 0 (H) da Seção 7.6.
De uma maneira geral, podemos pensar na Hamiltoniana do sistema como um ponto
num espaço de parâmetros. Por exemplo, a Hamiltoniana de Ising,
X X X
− βH = K σi σj + L σi σj + H σi , (7.7.1)
hi,ji [i,j] i

onde hi, ji e [i, j] denotam, respectivamente, pares de sı́tios primeiros e segundos vizinhos,
seria representada num espaço tri-dimensional pelo ponto u ≡ (K, L, H). Sob uma mu-
dança de escala, espera-se que o sistema passe a ser descrito pelo ponto u0 ≡ (K 0 , L0 , H 0 ),
7.7. THE POSITION-SPACE RENORMALIZATION GROUP 187

1.0

0.8 (a)

(b)
0.6
t’

0.4 FM PM

0 Tc oo T
0.2

0.0
0.0 0.2 0.4 0.6 0.8 1.0
t

Figure 7.26: (a) Um exemplo de transformação do grupo de renormalização (TGR): as interseções das linhas cheia
[representando a Eq. (7.7.7)] e tracejada (t0 = t) definem os pontos fixos; os atratores aparecem como quadrados
e o ponto fixo crı́tico como ∗. (b) Diagrama de fluxos da TGR: com exceção do ponto fixo, os pontos são levados
aos atratores ferromagnético (FM) ou paramagnético (PM) por sucessivas mudanças de escala.

onde, em princı́pio,

K 0 = K 0 (K, L, H), (7.7.2a)


0 0
L = L (K, L, H), (7.7.2b)
0 0
H = H (K, L, H). (7.7.2c)

Desta forma, a mudança de escala está associada a uma transformação no espaço


dos parâmetros:
u0 = Rb u, (7.7.3)
onde b é o fator de escala. Estas transformações formam um semi-grupo, já que

Rb1 b2 = Rb1 Rb2 , (7.7.4)

mas a operação inversa não é definida. Apesar da caracterı́stica de semi-grupo, estas


transformações são chamadas de Grupo de Renormalização (GR).
Para simplificar nossa análise, consideremos um espaço de parâmetros uni-dimensio-
nal (K). Sob uma transformação do grupo de renormalização (TGR) o comprimento de
correlação se transforma como
1
ξ(K 0 ) = ξ(K), (7.7.5)
b
onde K 0 = K 0 (K). O ponto crı́tico é associado àquele em que ξ = ∞, definindo um
ponto especial K ∗ = Kc tal que
K ∗ = K 0 (K ∗ ); (7.7.6)
isto é, no caso de um parâmetro apenas, o ponto crı́tico (Kc ) coincide com o ponto fixo
(K ∗ ) da transformação.
188 CHAPTER 7. PHASE TRANSITIONS

Na Seção 7.8 discutiremos como gerar uma TGR mas, para fixar idéias, utilizemos a
seguinte transformação aproximada para a rede quadrada, a ser obtida no Exercı́cio 13,

2t2 (1 + t)
t0 = , (7.7.7)
1 + 2t3 + t4

onde t ≡ tanh K e t0 ≡ tanh K 0 ; veja a Fig. 7.26(a). A interseção de (7.7.7) com a reta
t0 = t fornece os pontos fixos da transformação:

(i) t∗ = 0; (ii) t∗ = 1; (iii) t∗ = tc ≡ (1 + 2)−1 ' 0.414. (7.7.8)

Iterando a TGR sucessivamente, notamos que os pontos t0 > tc são levados a t∗ = 1.


Este ponto corresponde a T = 0 e, portanto, ao estado fundamental ordenado; logo, é
chamado de atrator da fase ordenada. Fisicamente, isto indica que sistemas abaixo da
temperatura crı́tica são equivalentes, por transformações de escala, a sistemas ordenados.
Similarmente, os pontos t0 < tc são levados a t∗ = 0 (T = ∞), que é o atrator da fase
desordenada (paramagnética). Estas trajetórias são ilustradas esquematicamente na
Fig. 7.26(b). Separando estas duas regiões há o chamado ponto fixo crı́tico (ou ponto
fixo não-trivial), tc , que fornece uma estimativa para a temperatura crı́tica do sistema:
J/kB Tc ' 0.441: este é o resultado exato de Onsager.8
Perto de K ∗ = Kc podemos escrever, a partir de (7.7.5),

1
(K 0 − K ∗ )−ν = (K − K ∗ )−ν , (7.7.9)
b
ou
K 0 = K ∗ + b1/ν (K − K ∗ ), (7.7.10)
que pode ser interpretada como uma expansão de K 0 (K) em torno de K ∗ , com

dK 0
= λb = b1/ν . (7.7.11)
dK K∗

Assim, o expoente ν é calculado como

ln b
ν= . (7.7.12)
ln λb

Usando novamente a TGR (7.7.7) como exemplo, e lembrando que (dt0 /dt)t=t∗ ≡
(dK 0 /dK)K=K ∗ , obtemos (b = 2)
ν ' 1.15, (7.7.13)
valor que deve ser comparado com o resultado exato, ν = 1. Aumentando-se o tamanho
do cluster de modo a sempre preservar a auto-dualidade, a estimativa de ν se aproxima
8
Esta aproximação reproduz o resultado exato para Kc porque o cluster utilizado compartilha, com
o modelo de Ising na rede quadrada infinita, uma propriedade de simetria topológica, a auto-dualidade;
veja, por exemplo, R Savit, Rev. Mod. Phys. 52, 453 (1980).
7.7. THE POSITION-SPACE RENORMALIZATION GROUP 189

do valor exato.9 Logo, não obstante a simplicidade do método, obtém-se resultados


bastante satisfatórios.
Para avançarmos um pouco mais, consideremos agora um espaço de parâmetros
com dimensão maior que 1. Concretamente, podemos pensar numa Hamiltoniana de
Heisenberg anisotrópica, em d = 3:
X 1 y y 1

x x z z
− βH = K (1 − ∆)(Si Sj + Si Sj ) + (1 + ∆) Si Sj , (7.7.14)
2 2
hi,ji

de modo que o espaço dos parâmetros é descrito por pontos (K, ∆). A TGR deve ser,
então, da forma

K 0 = K 0 (K, ∆) (7.7.15a)
0 0
∆ = ∆ (K, ∆). (7.7.15b)

As soluções de pontos fixos não triviais devem ser

Ising : ∆∗ = 1, K ∗ = KcI (7.7.16a)


∗ ∗
XY : ∆ = −1, K = KcXY (7.7.16b)
Heisenberg : ∆∗ = 0, K ∗ = KcH , (7.7.16c)

que estão assinalados com ∗ na Fig. 7.27. Os atratores das fases ordenadas devem ser

Ising : ∆∗ = 1, K∗ = ∞ (7.7.17a)
∗ ∗
XY : ∆ = −1, K =∞ (7.7.17b)
∗ ∗
Heisenberg : ∆ = 0, K = ∞, (7.7.17c)

que, juntamente com os análogos para as fases desordenadas, também estão assinalados
na Fig. 7.27.
Na Fig. 7.27, as setas correspondem às trajetórias dos pontos, obtidas após sucessivas
iterações das TGR. Após um número muito grande destas iterações, um ponto qualquer
deve convergir para um ponto fixo, indicando que certos detalhes da Hamiltoniana vão se
tornando cada vez menos importantes. Por exemplo, começando no ponto A da Fig. 7.27,
um sistema pouco anisotrópico se comporta, em última análise, como um ferromagneto
XY isotrópico em sua fase ordenada, pois é para o atrator (K ∗ = ∞, ∆∗ = −1) que as
trajetórias convergem.
Quando há mais de um parâmetro, o cálculo de expoentes crı́ticos envolve a lin-
earização das TGR perto dos pontos fixos não-triviais. Não discutiremos com detalhes
este ponto, mas mencionaremos apenas os aspectos mais importantes. Primeiro, vemos
que, neste formalismo, expoentes crı́ticos estão associados a pontos fixos. Por exemplo,
a curva HI separa as fases paramagnética e ferromagnética, sendo, portanto, uma curva
crı́tica; isto é, as grandezas termodinâmicas (ξ, CH , χ, etc.) são singulares nesta curva.
9
veja, p.ex., C Tsallis and ACN de Magalhães, Phys Rep 268, 305 (1996), e referências lá contidas.
190 CHAPTER 7. PHASE TRANSITIONS

T
PM PM
XY I

H
A

FM FM

1 0 1

Figure 7.27: Diagrama de fluxos de GR (esquemático) para o modelo de Heisenberg anisotrópico a três dimensões
no espaço temperatura (∼ 1/K) – anisotropia (∆). Os pontos fixos crı́ticos estão assinalados por (∗) e os atratores
das fases ordenadas por (). As curvas H-XY e H-I, que conectam os pontos fixos não-triviais, são as curvas
crı́ticas.

Apesar disto, os expoentes são aqueles determinados pela linearização em torno de I, já
que é para este ponto fixo que as trajetórias na curva crı́tica convergem. É neste fato
que a noção de classes da universalidade se manifesta. Podemos pensar que cada ponto
das trajetórias do GR representa um sistema fı́sico real, com valores bem definidos de
J e ∆, a uma dada temperatura. Fica claro, então, que eles têm os mesmos expoentes
porque compartilham essencialmente as mesmas trajetórias no espaço de parâmetros;
lembre-se que o parâmetro que importa é K ≡ J/kB T . Por exemplo, todos os sis-
temas anisotrópicos com ∆ > 0 têm o mesmo comportamento do sistema totalmente
anisotrópico (∆ = 1).
Em segundo lugar, o cálculo do expoente η é feito introduzindo um campo magnético
externo. Em geral, tem-se que o ponto crı́tico ocorre em (K = Kc , H = 0) de modo que
a relação de recorrência para H é da forma

∂H 0
H 0 = λh H, com λh = = byh . (7.7.18)
∂H H=0

de onde extraı́mos yh ,
ln b
yh = . (7.7.19)
ln λh
o qual, por sua vez, é inserido na Eq. (7.6.35), para obtermos η. Assim, a partir dos dois
expoentes ν e η [no caso mais simples do espaço de parâmetros (K, H)] podemos obter
todos os outros expoentes.
7.8. EXAMPLES OF PSRG 191

Em resumo, o formalismo de GR fornece as seguintes informações: 1) diferentes


classes de universalidade são descritas por diferentes pontos fixos crı́ticos; 2) os expoentes
crı́ticos estão associados às propriedades das TGR linearizadas perto dos pontos fixos
não triviais. É claro que, na prática, é tão difı́cil obter uma TGR exata quanto resolver
exatamente o problema. A vantagem do GR é que as aproximações feitas para se obter
as relações de recorrência ficam mais transparentes e, sob certos aspectos, controláveis.
Veremos na próxima seção como obter estas transformações em casos simples.

7.8 Examples of PSRG


Considere um sistema de spins-1/2 descrito por uma Hamiltoniana H{σ} (u), onde os
{σ} representam os graus de liberdade (variáveis de spin) e u denota os parâmetros
pertinentes ao sistema [por exemplo, (K, ∆, H, . . .)]; esta definição já incorpora o fator
multiplicativo −β. Uma mudança de escala é obtida associando-se um novo conjunto de
variáveis, {σ 0 }, às antigas, de acordo com alguma prescrição, P[{σ 0 }|{σ}], dando origem
a uma nova Hamiltoniana, H0 ≡ H{σ0 } (u0 ).
Vejamos agora que as restrições às quais a prescrição deve satisfazer permitem grande
flexibilidade. Primeiramente, a função de partição tem que ser preservada sob uma
mudança de escala,
0
Z = Tr{σ0 } eH = Tr{σ} eH . (7.8.1)

Podemos então usar este fato para definir a transformação de grupo de renormalização
a partir de
0
eH ≡ Tr{σ} P[{σ 0 }|{σ}] eH , (7.8.2)

o que corresponde à eliminação parcial de graus de liberdade. Este procedimento está


sujeito às restrições
P[{σ 0 }|{σ}] ≥ 0 ∀σ, σ 0 , (7.8.3)

para garantir a hermiticidade de H0 , e

Tr{σ0 } P[{σ 0 }|{σ}] = 1 (7.8.4)

para que (7.8.1) seja satisfeita.


É interessante notar que, em princı́pio, estas são as únicas restrições impostas a
P[{σ 0 }|{σ}], o que permite uma grande flexibilidade. Todavia, esta transformação deve
incorporar diversos aspectos do problema de modo a apresentar resultados fisicamente
razoáveis, como discutiremos no final desta Seção.
Há várias prescrições possı́veis, mas citaremos aqui apenas duas:10

• Regra da maioria. O spin de um bloco é definido pelo sinal da maioria dos spins.

• Dizimação. O estado de spin de um bloco é idêntico ao de um dos spins iniciais,


eliminando-se os demais.
192 CHAPTER 7. PHASE TRANSITIONS

σ11#σ12# σ13# σ21#σ22# σ23# σ1# σ2#

K K K K K b=3 K’

Figure 7.28: The majority rule applied to the one-dimensional Ising model; see text.

We start with the majority rule applied to the one-dimensional Ising model, within
an approximation that only examines two clusters of spins coupled as shown in the left
panel of Fig. 7.28. There are 23 spin states for each cluster, half of which are mapped
onto a renormalised spin σi = sign(σi1 + σi2 + σi3 ) = +1, and half onto σi = −1. For
book-keeping purposes, it is convenient to write the total energy (actually, −β× the
energy) of the six-site system as

E({σ1j }, {σ2j }) = E3 ({σ1j }) + E3 ({σ2j }) + E2 (σ13 , σ21 ), j = 1, 3 (7.8.5)

where

E3 ({σij }) = K(σi1 σi2 + σi2 σi3 ), i = 1, 2 (7.8.6)


E2 (σ13 , σ21 ) = Kσ13 σ21 (7.8.7)

are the 3-spins and 2-spins contributions to the total energy.


In the absence of an external field, only the configurations (σ1 , σ2 ) = (+1, +1) and
(+1, −1) need to be considered, since (−1, −1) and (−1, +1) become redundant. Also,
one should allow for a constant, K00 , to be added to the renormalised Hamiltonian, which
for the two-site system should read (with the factor −β incorporated),

H0 = K 0 σ1 σ2 + K00 . (7.8.8)

We then have two equations,


0 0
X
eK +K0 = eE({σ1j },{σ2j }) ≡ f++ (K), (7.8.9a)
{σ1j },{σ2j }
σ1 =σ2 =1
0 0
X
e−K +K0 = eE({σ1j },{σ2j }) ≡ f+− (K), (7.8.9b)
{σ1j },{σ2j }
σ1 =1,σ2 =−1

where the restrictions on the sums should be noted, and lead to

f++ (K) = e5K + 2e3K + 7eK + 3e−K + 3e−3K , (7.8.10a)


3K K −K −3K −5K
f+− (K) = 3e + 4e + 6e + 2e +e . (7.8.10b)

It is worth noticing that the coefficients in each of Eqs. (7.8.10) add to 16, which is the
number of configurations leading to σ1 = σ2 = 1 or to σ1 = 1, σ2 = −1.
10
Para outras prescrições, veja os artigos de revisão no livro Real Space Renormalization, editado por
TW Burkhardt e JMJ van Leeuwen (1982).
7.8. EXAMPLES OF PSRG 193

1.2

0.8
u'
0.6
u
0.4 u_tri

0.2

0
0
0.05
0.1
0.15
0.2
0.25
0.3
0.35
0.4
0.45
0.5
0.55
0.6
0.65
0.7
0.75
0.8
0.85
0.9
0.95
1
Figure 7.29: Examples of RG recursion relations, u0 (u), for the Ising model, using the majority rule: in one- (blue
curve) and two dimensions (triangular lattice, green curve). The intersection of the red straight line, f (u) = u,
with each curve marks the fixed points in each case; see text.

0
Eliminating K00 in Eqs. (7.8.9), and introducing u ≡ e−2K and u0 ≡ e−2K leads to

3 + 4u + 6u2 + 2u3 + u4
u0 = u , (7.8.11)
1 + 2u + 7u2 + 3u3 + 3u4
which is plotted (blue curve) in Fig. 7.29. The fixed points are located at the intersection
of this curve with the straight line f (u) = u:

u∗ = 0 or K ∗ = ∞, the T = 0, or ferromagnetic, fixed point (7.8.12)


∗ ∗
u =1 or K = 0, the T = ∞, or paramagnetic, fixed point. (7.8.13)

The derivatives, λu ≡ du0 /du, calculated at these fixed points describe their stability:

du0
λu = = 3 >1 ⇒ u∗ = 0 is an unstable fixed point, (7.8.14)
du u∗ =0
du0 5
λu = = <1 ⇒ u∗ = 1 is a stable fixed point. (7.8.15)
du u∗ =1 16

Therefore the (ground state) ferromagnetic fixed point is unstable against thermal ex-
citations: the aligned state does not survive at finite temperatures, that is, Tc = 0, as
already seen from the exact solution.
The application of the majority rule to two clusters on a triangular lattice is left as
an exercise; see Problem 7.12. The recursion relation one obtains in this case is

1 + u + 4u2 + 6u3 + 2u4


u0 = 2u2 , (7.8.16)
1 + 3u2 + 2u3 + 3u4 + 6u5 + u6
and is plotted as the green curve in Fig. 7.29. The intersection of this curve with the
straight line now occurs at a critical fixed point, u∗ ≈ 0.510, apart from u∗ = 0 (FM)
194 CHAPTER 7. PHASE TRANSITIONS

1 t 2

t’
t t

4 t 3

(a) (b)
Figure 7.30: (a) Trecho de uma rede quadrada utilizada para obter uma transformação do grupo de renormalização.
Toma-se o traço√ nos spins dos sı́tios ×, de modo que os spins remanescentes, ◦, também formam uma rede
quadrada; b = 2. As linhas cheias representam as interações originais entre os spins, enquanto que as linhas
tracejadas representam as interações renormalizadas. (b) Um cluster com 4 sı́tios é ‘extraı́do’ de (a) [linhas cheias
mais grossas], para ser renormalizado: as 4 ligações originais de intensidade t ≡ tanh K dão origem a uma ligação
de intensidade t0 ≡ tanh K 0 ; veja o texto.

and u∗ = 1 (PM). Another important difference with respect to the 1D case is that the
derivative of u0 (u) at the FM fixed point, u∗ = 0, now vanishes, indicating that this
becomes an attractor for the ordered phase; recall the discussion related to Fig. 7.26(b).
Vamos agora deduzir uma transformação do GR por meio de dizimação para o modelo
de Ising com spins-1/2 na rede quadrada. A Fig. 7.30(a) mostra um pedaço de uma rede
quadrada, onde imaginamos que haja um spin em cada vértice. De cada dois spins, um
é mantido na rede renormalizada, e o outro é eliminado tomando-se o traço sobre ele
– no espı́rito da Eq. (7.8.2) – de modo a ficarmos com uma rede isomorfa à original.
Este objetivo é atingido eliminando-se todos os spins da sub-rede assinalados com ×,
mantendo os spins na outra sub-rede, assinalados com ◦. Mesmo assim, isto ainda é
difı́cil de ser implementado, levando-nos a fazer alguma aproximação. A mais imediata
consiste em obter uma transformação para um cluster, e supor que a transformação
resultante seja válida para toda a rede. A Fig. 7.30(b) mostra o cluster mais simples que
se pode extrair de uma rede quadrada, e a transformação é gerada tomando-se o traço
sobre os spins σ2 e σ4 . Lembrando que
0
eKσσ = cosh K + σσ 0 sinh K = cosh K(1 + σσ 0 t), (7.8.17)

pois σ, σ 0 = ±1, e onde t ≡ tanh K, podemos escrever


0
eH = Tr σ2 ,σ4 eK(σ1 σ2 +σ2 σ3 +σ3 σ4 +σ4 σ1 ) =
= cosh4 K Tr σ2 σ4 (1 + σ1 σ2 t)(1 + σ2 σ3 t)(1 + σ3 σ4 t)(1 + σ4 σ1 t) =
2t2
 
4 4
= cosh K(1 + t ) 1 + σ1 σ3 , (7.8.18)
1 + t4

onde utilizamos o fato de que Tr σ σ ≡ 0.


7.9. THE MOMENTUM-SPACE RENORMALIZATION GROUP 195

Por outro lado,


0 0
eH = eG0 +K σ1 σ3 = eG0 cosh K 0 (1 + σ1 σ3 t0 ), (7.8.19)
onde introduzimos em H0 uma constante, G0 , importante para o cálculo da energia livre
via GR, mas não para nossos propósitos mais imediatos aqui; veja, por exemplo, Th
Niemeijer e JMJ van Leeuwen, em Phase Transitions and Critical Phenomena, editado
por C Domb e MS Green, vol. 6 (1976). As equações (7.8.18) e (7.8.19) têm que ser
iguais para quaisquer σ1 e σ3 , de modo que a transformação do GR para este exemplo
é, finalmente,
2t2
t0 = . (7.8.20)
1 + t4
Esta relação admite os seguintes pontos fixos: t∗ = 0, t∗ = 1, e t∗ = 0.544. A
comparação deste último com o valor exato, t∗exato ' 0.414, pode parecer decepcionante,
mas deve-se levar em conta a simplicidade da transformação. Qualitativamente, o com-
portamento é o mesmo que o mostrado na Fig. 7.26(a). Estas transformações podem,
em geral, ser melhoradas sistematicamente aumentando-se o número de sı́tios nos clus-
ters que, todavia, se não for feito com cuidado, podem gerar acoplamentos de alcance
mais longo que o inicial. O expoente crı́tico obtido a partir da transformação (7.8.20)
é ν ' 0.67, também pior que o anterior [c.f. Eq. (7.7.13)], mas pode ser melhorado de
modo sistemático.
Finalizando, devemos fazer alguns comentários sobre as aproximações de cluster com
dizimação. Em primeiro lugar, elas têm uma inconsistência interna devido ao fato dos
spins não serem escalados; veja a Eq. (7.6.18). Como d = 2, isto equivale a fixar η = 0, o
que é, obviamente, uma limitação do método; os expoentes térmicos, todavia, são bem
descritos, bem como o comportamento qualitativo do sistema. Em segundo lugar, note
que tanto a TGR (7.7.7) quanto a (7.8.20) não admitem t∗ = −1 como ponto atrator,
correspondente a um estado fundamental antiferromagnético. Isto porque em ambos
os casos a estrutura de sub-redes, que define um arranjo antiferromagnético, não foi
preservada na TGR. Este ponto ilustra o fato de que uma boa dose de intuição deve
orientar a escolha da transformação.
Em resumo, as idéias contidas no Grupo de Renormalização, por incorporarem de
modo fundamental a simetria de invariância de escala, contribuı́ram para uma visão
unificadora dos fenômenos crı́ticos, além de fornecerem um arcabouço teórico para efe-
tuar cálculos de diagramas de fase e expoentes crı́ticos. Na próxima seção resumiremos
a formulação do GR de KG Wilson, que foi a primeira implementação efetiva das ideias
de Kadanoff.

7.9 The Momentum-Space Renormalization Group11


Para obter uma transformação do GR no espaço de momentos, vamos primeiro discutir
uma formulação conveniente do modelo de Ising neste espaço, a qual nos permitirá fazer
11
Esta seção é baseada em F Ravndal, Scaling & Renormalisation Groups (unpublished lecture notes,
Nordita, Copenhagen, 1975-76), lectures 8 & 9; ver também Reichl Cap. 8, Sec. S8.a.
196 CHAPTER 7. PHASE TRANSITIONS

Figure 7.31: Funções-peso usadas na passagem para o contı́nuo: (a) Duplo-delta, que recupera o caso discreto;
(b) Distribuição Gaussiana; (c) Distribuição-S 4 .

cálculos de forma mais simples. Lembremos inicialmente que a primeira zona de Brillouin
num espaço d-dimensional corresponde a componentes dos vetores de onda no intervalo
−π π
≤ kµ < , µ = 1, 2, . . . d (redes hipercúbicas), (7.9.1)
a a
onde a é o parâmetro de rede.
Vamos considerar o modelo de Ising nesta rede hipercúbica, para o qual a função de
partição se escreve
!
X XX X
Z(K) = exp K Sn Sn+e ≡ exp(−H[S]), (7.9.2)
{Sn } n e {Sn }

onde os n denotam sı́tios da rede e os e, vetores conectando metade dos sı́tios primeiros
vizinhos; H[S] deve, portanto, ser entendido como função de todos os Sn .
It is convenient to work with continuum variables, both in the sense that the spin
degree of freedom ranges continuously from −∞ to ∞ instead of simply Sm = ±1, and
in the sense that it is a function of a continuous spatial variable, x. The extended range
is accomplished by introducing weight functions, W (Sm ), in the partition function,
" Z #
Y ∞
Z(K) = dSm W (Sm ) exp(−H[S]). (7.9.3)
m −∞

Nossa formulação original (Sm = ±1) corresponde a tomar, portanto,


2
W (Sm ) = δ(Sm − 1); (7.9.4)

veja a Fig. 7.31(a).


7.9. THE MOMENTUM-SPACE RENORMALIZATION GROUP 197

Uma distribuição contı́nua possı́vel, e que, semelhantemente à distribuição discreta,


preserva como nulo o valor médio dos spins é
 c 
2
W (Sm ) ∼ exp − Sm (modelo Gaussiano), (7.9.5)
2
esboçada na Fig. 7.31(b). Porém, uma forma mais próxima do caso discreto por onde
começamos seria
 c 
2 4
W (Sm ) ∼ exp − Sm − u Sm (modelo S 4 ), (7.9.6)
2
com u > 0, para que as integrais correspondentes sejam convergentes; veja a Fig. 7.31(c).
Se c = −4u, obtemos
2
W (Sm ) ∼ exp{−u (Sm − 1)2 }, (7.9.7)
de modo que, para u grande, teremos pesos parecidos com as funções-δ originais. Note
que, de acordo com as ideias de universallidade [KG Wilson (1971)], espera-se que o
estudo do modelo S 4 , para quaisquer valores de c e u, terá as mesmas propriedades
crı́ticas que o caso especial c = −4u, u → ∞.

7.9.1 The Gaussian Model


Comecemos pela análise do modelo Gaussiano, Eq. (7.9.5), que é mais simples. Podemos
escrever
" Z # !
Y ∞ XX cX 2
Z(K) = dSm exp K Sn Sn+e − S , (7.9.8)
m −∞ n e
2 n n

o que define a Hamiltoniana efetiva do modelo Gaussiano,


" #
XX cX 2 KX X 2 2
HG [S] = −K Sn Sn+e + S = (Sn+e − Sn ) + R Sn , (7.9.9)
n e
2 n n 2 n e
com
c
R= − 2d, (7.9.10)
K
e onde a soma em e se dá agora sobre números positivos. Note também que o acopla-
mento R é análogo ao coeficiente α2 (T ) do termo em φ2 da Teoria de Landau; veja a
Eq. (7.3.44). Further, the term (Sn+e − Sn )2 may be interpreted as the finite-difference
version of a (∇S)2 , which, at the most elementary level, allows for fluctuations in S.
Introduzamos a transformada de Fourier dos spins da rede,
X
S(k) = ad S(xn ) e−ik·xn , (7.9.11)
xn
P P
com as notações S(xn ) ≡ Sn e xn ≡ n, cuja inversa é
Z π/a
S(x) = d−k S(k) eik·x , (7.9.12)
0
198 CHAPTER 7. PHASE TRANSITIONS

com
π/a π/a π/a π/a
dk1 dk2 dkd
Z Z Z Z

dk ≡ ··· . (7.9.13)
0 −π/a 2π −π/a 2π −π/a 2π
Deve-se notar que, deste modo, o ‘campo’ de spins S(x) [Eq. (7.9.12)] reproduz o spin
S(xn ) nos pontos da rede, mas assume valores não-nulos também entre os sı́tios.
We may then write
Z π/a
Sn = d−k S(k) eik·x , (7.9.14)
0
Z π/a
Sn+e = d−k S(k) eik·(x+e) , (7.9.15)
0

so that Z π/a h i
Sn+e − Sn = d−k S(k) eik·x eik·e − 1 . (7.9.16)
0
Taking the square and summing yields
X X X Z π/aZ π/a 0 0
(Sn+e − Sn )2 = d−kd−k0 S(k) S(k0 ) ei(k+k )·x (eik·e − 1)(eik ·e − 1)
n,e n e 0 0
Z π/a X 2
= d−k S(k) S(−k) eik·e − 1) , (7.9.17)
0 e

where we used the fact that


0
X
ei(k+k )·x = δ(k + k0 ). (7.9.18)
n

Assim, a representação de HG [S] no espaço de momentos toma a forma


Z π/a " #
1 −d −
X
ik·e 2
HG [S] = Ka dk |e − 1 | + R S(k)S(−k). (7.9.19)
2 0 e

Como estaremos interessados principalmente nas flutuações de longo alcance associadas


aos fenômenos crı́ticos (p.ex., transição de fase ferro-paramagnética de segunda ordem),
vamos colocar esta expressão em forma apropriada para longos comprimentos de onda,
k · e  1. Expandindo a exponencial e mantendo apenas o termo de ordem mais baixa,
X
|eik·e − 1 |2 ' k 2 a2 (7.9.20)
e

nos leva a
π/a
1
Z
HG [S] = Ka2−d d−k k 2 + r S(k)S(−k),
 
(7.9.21)
2 0
com
R c 2d
r= = − 2. (7.9.22)
a2 Ka2 a
7.9. THE MOMENTUM-SPACE RENORMALIZATION GROUP 199

Figure 7.32: As componentes de Fourier das variáveis de spin referentes aos comprimentos de onda curtos, i.e.,
π/ba < k ≤ π/a (região sombreada na figura), são eliminadas por integração.

Agora, a analogia com o coeficiente α2 (T ) da teoria de Landau se dá através de r (já


que o termo em k 2 está ligado às flutuações). Assim, espera-se que algum ponto crı́tico
corresponda a r = 0.
Este resultado sugere que se incorpore uma escala natural ao campo de spins, através
da redefinição
S(k) (Ka2−d )1/2 → S(k), (7.9.23)
de modo que
Λ
1
Z
d−k k 2 + r S(k) S(−k),
 
HG [S] = (7.9.24)
2 0
onde introduzimos a nomenclatura para o cutoff, Λ ≡ π/a. These changes remove the
specific length scale a, and, as we will see, only the scale factor b will play a significant
role.
Como vimos na Seção 7.6, a construção dos blocos de Kadanoff corresponde a eliminar
(i.e., tomar o traço parcial sobre) os graus de liberdade numa escala de comprimentos
inferior a ba, onde b é o fator de escala e a, o parâmetro de rede. Para efetuar uma
construção equivalente no espaço de momentos, lembremos inicialmente que distâncias
curtas correspondem a números de onda grandes, de modo que a redução de graus
de liberdade deve se dar pela eliminação (i.e., integração) dos modos com pequenos
comprimentos de onda, ou k’s ‘grandes’.
Vamos então dividir o intervalo de momentos 0 < k < π/a em uma parte de com-
primentos de onda longos, 0 < k < π/ba, e outra de comprimentos de onda curtos,
π/ba < k < π/a (b > 1); veja a Fig. 7.32. As componentes de Fourier do spin também
podem ser separadas em modos de comprimentos de onda longos, Sb0 (k), e curtos, σb (k),
definidos por
π π π
Sb0 (k) = S(k) para 0 < k < ; σb (k) = S(k) para <k< . (7.9.25)
ba ba a
We then have,
Z π/ba Z π/a
S(x) = d k Sb0 (k) eik·x

+ d−k σb (k) eik·x = Sb0 (x) + σb (x). (7.9.26)
0 π/ba

We note that Sb0 (x) is a slowly varying function over a length scale ba, while σb (x) is a
rapidly fluctuating function within this scale. Therefore, if we take a spatial average of
200 CHAPTER 7. PHASE TRANSITIONS

S(x) over the volume V = (ba)d , the contribution from σb (x) averages out to zero, while
Sb0 (x) may be regarded as a constant; we then get
1
Z
0
Sb (x) ' hS(x)iV = d d y S(y). (7.9.27)
V V
A Eq. (7.9.24) mostra que a Hamiltoniana é diagonal quando expressa em termos das
componentes de Fourier; temos então

HG [S] = HG [Sb0 ] + HG [σb ], (7.9.28)

com
Λ/b
1
Z
HG [Sb0 ] d−k k 2 + r Sb0 (k) Sb0 (−k)
 
= (7.9.29)
2 0
e
Λ
1
Z
d−k k 2 + r σb (k) σb (−k).
 
HG [σb ] = (7.9.30)
2 Λ/b

Assim, podemos escrever para a função de partição Z = Z(r),


Z Z Z
−HG [S] −HG [σb ] 0
Z(r) = DS e = Dσb e × DSb0 e−HG [Sb ] , (7.9.31)

onde usamos a notação abreviada,


Z Z ∞ Z ∞ Z ∞
DS ≡ dS1 dS2 · · · dSN , (7.9.32)
−∞ −∞ −∞

com definições análogas para Dσb e DSb0 .


Estamos agora em condições de escrever a equação do grupo de renormalização para
a variável r. O campo Sb0 corresponde aos spins do bloco de Kadanoff de lado ba,
e σb corresponde aos graus de liberdade de spin internos aos blocos. Para obter a
nova Hamiltoniana de blocos, devemos somar sobre os graus de liberdade internos, i.e.,
fazer a integral sobre σb na Eq. (7.9.31). Esta integral contribuirá com uma constante,
independente dos spins de bloco Sb0 ; logo, não nos interessará aqui e será omitida. Temos
então ( Z Λ/b )
1
Z
Z(r) = DSb0 exp − d−k (k 2 + r) Sb0 (k) Sb0 (−k) . (7.9.33)
2 0
Note que a Eq. (7.9.33) está escrita para um volume contraı́do, e devemos retorná-lo
ao tamanho original, para extrair por completo o efeito da mudança de escala. Com isto
em mente, façamos uma transformação de escala dos momentos,

kb = b k, (7.9.34)

que deve ser acompanhada pela introdução de um campo de spin renormalizado por um
parâmetro C, a ser determinado:

Sb (kb ) = C −1 Sb0 (k). (7.9.35)


7.9. THE MOMENTUM-SPACE RENORMALIZATION GROUP 201

Isto fornece
Λ
kb2
   
1
Z Z
Z(r) = DSb (kb ) exp − C 2 b−d −
d kb +r Sb (kb ) Sb (−kb ) . (7.9.36)
2 0 b2
O fator C deve ser ajustado de maneira que o coeficiente de kb2 que aparece na Hamilto-
niana transformada, Eq. (7.9.36), seja o mesmo que na Hamiltoniana original (7.9.24):
C 2 b−d b−2 = 1 ⇒ C = b1+d/2 . (7.9.37)
Finalmente, Z
Z(rb ) = DSb e−HG [Sb ] , (7.9.38)
com
1 Λ−
Z
d kb kb2 + rb Sb (kb ) Sb (−kb ),

HG [Sb ] = (7.9.39)
2 0
onde a constante de acoplamento renormalizada é
rb = b2 r, (7.9.40)
que mostra que um ponto fixo é r = 0. O autovalor desta transformação é, portanto,
λt = b2 ⇒ yt = 2 (7.9.41)
Para obter o autovalor magnético, precisamos aplicar um campo B, o que contribui
com um termo adicional na Hamiltoniana,
X
HB [S] = B Sn = a−d BS(k = 0). (7.9.42)
n

Mas, tomando k = 0 na Eq. (7.9.35), obtemos


HB [Sb ] = a−d B C Sb (k = 0) ≡ a−d Bb Sb (k = 0), (7.9.43)
com
Bb = C B ⇒ λh = C = b1+d/2 ⇒ yh = 1 + d/2 (7.9.44)
Usando as relações entre expoentes crı́ticos e (yt , yh ), obtidas na Seção 7.6, obtemos:

d − yh d−2
β= = , (7.9.45a)
yt 4
yh d+2
δ= = , (7.9.45b)
d − yh d−2
2yh − d
γ= = 1, (7.9.45c)
yt
d d
α=2− =2− , (7.9.45d)
yt 2
1 1
ν= = , (7.9.45e)
yt 2
η = d + 2 (1 − yh ) = 0. (7.9.45f)
202 CHAPTER 7. PHASE TRANSITIONS

Vemos que alguns expoentes apresentam uma dependência explı́cita com a dimensiona-
lidade do espaço, algo ausente das formulações do GR aqui discutidas anteriormente.
No entanto, o fato de que ν = 1/2, η = 0 e γ = 1 para todo d, sendo estes os valores
previstos pelas TCM’s, indica que as leis de escala [Eqs. (7.6.36)] só não serão violadas
se tomarmos d = 4, que é a dimensionalidade crı́tica superior, ds . Conclui-se, portanto,
que o modelo Gaussiano corresponde a efetuar uma aproximação de campo médio no
modelo inicial. Na realidade, isto não é surpreendente, já que na aproximação Gaussiana
cada modo flutua independentemente em torno da distribuição mais provável, e isto é a
essência das TCM’s.
Veremos, em seguida, que ds desempenha um importante papel no GR no espaço dos
momentos, ao discutir o modelo S 4 .

7.9.2 The S 4 Model


Vamos agora delinear o que ocorre com o modelo S 4 , ao aplicarmos as mesmas ideias
usadas para a renormalização do modelo Gaussiano. The partition function is now
written as Z
Z(K, ũ) = DS e−H[S] , (7.9.46)

with XX Xc 
H[S] = −K Sn Sn+e + Sn2 + ũSn4 , (7.9.47)
n e n
2

onde, por conveniência, usamos ũ ao invés de u, como aparece na Eq. (7.9.6). Intro-
duzindo as componentes de Fourier do campo de spins, e fazendo a renormalização tal
como para o modelo Gaussiano, temos :

1 Λ−
Z
H[S] = d k (k 2 + r) S(k) S(−k)
2 0
Z Λ Z Λ Z Λ Z Λ
+u d−k1 d−k2 d−k3 d−k4 S(k1 ) S(k2 ) S(k3 ) S(k4 ) δ(k1 + k2 + k3 + k4 )
0 0 0 0
(7.9.48)
= H0 [S] + V[S], (7.9.49)

onde H0 [S] corresponde ao modelo Gaussiano e


u= . (7.9.50)
K 2 a 4−d

O termo de interação V[S] = V[Sb0 , σb ] acopla as componentes de comprimento de onda


longo, Sb0 , e curto, σb ; isto resulta do fato de que, como a δ correspondente agora envolve
4 vetores de onda, nada impede que tenhamos alguns k’s de um tipo, e outros do outro
tipo, ainda assim somando zero. Portanto, teremos de fazer algo similar ao procedimento
adotado para transformações no espaço real: calcular médias em relação ao ensemble
7.9. THE MOMENTUM-SPACE RENORMALIZATION GROUP 203

em que as ‘células’ são consideradas desacopladas, só que agora as médias são sobre os
graus de liberdade de curto alcance, com o fator de Boltzmann exp(−H0 [σb ]):
0
Dσb e−H0 [σb ] e−V[Sb ,σb ]
R
−V[Sb0 ]
he i0 = . (7.9.51)
Dσb e−H0 [σb ]
R

Nesta aproximação, escrevemos:


Z
0 0
Z(r, u) = DSb0 e−H0 [Sb ] he−V[Sb ] i0 . (7.9.52)

Como a expansão em cumulantes (ver, e.g., Reichl 4.D.3) fornece


1 2 i −hVi2 ]+...
heV i0 = ehVi0 + 2 [hV 0 0 , (7.9.53)

teremos Z
0 1 2 i −hVi2 ]+...
Z(r, u) = DSb0 e−H0 [Sb ]−hVi0 − 2 [hV 0 0 . (7.9.54)

Começamos como no modelo Gaussiano, fazendo

kb = b k e Sb0 (k) = C Sb (kb ), (7.9.55)

sendo que agora precisamos também de uma expressão para ub , o transformado do termo
u em S 4 .
A partir daı́, desenvolvendo e mantendo os termos de ordem mais baixa possı́vel, e
que ainda assim dão resultado não-trivial, temos:

C = b1+d/2 , (7.9.56)

isto é, nesta ordem C é idêntico ao do caso Gaussiano. Também,

ub = C 4 b−3d u + O(u2 )
 
(7.9.57)

onde deve-se notar que a 4a. potência em C aparece porque este termo envolve 4 spins, e
o fator b−3d surge porque há 4 integrais em d−kb , mas a função δ elimina uma destas.12
Substituindo C dado por (7.9.56), obtemos:

ub = b4−d u + O(u2 ) .
 
(7.9.58)

Definindo ε ≡ 4−d, vemos que para ε < 0 (d > 4), o acoplamento de 4 spins é irrelevante,
i.e., u renormaliza para zero, de modo que o comportamento deve ser o mesmo do modelo
Gaussiano. Por outro lado, se ε > 0 (d < 4), o comportamento deve diferir do modelo
Gaussiano.
12
Lembre-se que para o acoplamento de 2 spins tı́nhamos 2 integrais, e 1 função-δ, e, ao final, ficamos
com 1 integral, e a condição dada pela δ aparecia no fato de que os 2 termos de spin correspondiam,
respectivamente, a k e −k.
204 CHAPTER 7. PHASE TRANSITIONS

r (a) d > 4 r (b) d < 4

* u * u

*
Figure 7.33: Flow diagrams. The fixed points are denoted by ∗.

A análise do acoplamento de 2 spins mostra que, em ordem mais baixa, temos o


mesmo resultado do modelo Gaussiano:
rb = b2 [r + O(u)] . (7.9.59)
Logo, para obter os valores corretos (mesmo em ordem mais baixa) das posições dos
pontos fixos, e correspondentes autovalores da transformação, é necessário calcular as
correções indicadas nas 2 equações acima. Os cálculos são um tanto extensos (e fogem
dos objetivos deste curso introdutório), mas o resultado final é (ver Ravndal, Reichl)
 
2 C1 (b)
rb = b r + 12u (7.9.60a)
1+r
 
C2 (b)
ub = b4−d u − 36u2 , (7.9.60b)
(1 + r)2
com Z 1
1
C` (b) ≡ (1 + r)` d−k 2 . (7.9.61)
1/b (k + r)`
Os pontos fixos da transformação (7.9.60) são os seguintes:
(r∗ , u∗ ) = (0, 0) → ponto fixo trivial, ou Gaussiano (7.9.62)
 
∗ ∗ ε ε
(r , u ) = − , → ponto fixo não-trivial, só acessı́vel quando ε > 0, (7.9.63)
6 3d0
onde d0 é uma constante relacionada ao ângulo sólido em d dimensões. Note que para
d > 4 apenas o primeiro ponto fixo é acessı́vel, sendo localizado na origem da Fig. 7.33(a).
Este mesmo ponto fixo (r∗ , u∗ ) = (0, 0) ainda aparece para d < 4, mas surge um novo
ponto fixo; ambos são indicados na Fig. 7.33(b).
Na vizinhança de cada ponto fixo, a transformação linearizada do grupo de renor-
malização (TGR) pode ser expressa sob a forma matricial. Aqui também os cálculos são
longos, chegando-se a (veja Ravndal, Reichl)
2 − d0 u∗ d0 (1 − r∗ )
   
r
M= , na base , (7.9.64)
0 ε − 6d0 u∗ u
7.9. THE MOMENTUM-SPACE RENORMALIZATION GROUP 205

até ordem mais baixa em ε. A estabilidade relativa dos pontos fixos é determinada pelos
autovalores da TGR,

λ1 = 2 − d0 u∗ (7.9.65a)

λ2 = ε − 6d0 u , (7.9.65b)

enquanto que as trajetórias do GR são descritas pelos correspondentes autovetores (à


direita, R),
 
R 1
v1 = (7.9.66a)
0
 d 
− 20 1 + 12 (ε + 4r∗ )

R
v2 = (7.9.66b)
1

Assim, v1R aponta na direção de r, enquanto que v2R aponta numa direção inclinada com
relação a r e u; veja a Fig. 7.33.
Quando d > 4 (ε < 0), só há um ponto fixo, a saber (r∗ , u∗ ) = (0, 0), e o comporta-
mento crı́tico é regido por este ponto fixo (Gaussiano), com λ1 desempenhando o papel
de autovalor térmico,

λ1 = λt = 2 (7.9.67a)
λ2 = ε < 0, (7.9.67b)

Dizemos então que v1R é uma perturbação relevante, por afastar as trajetórias do ponto
fixo (0, 0) (para longe da criticalidade), daı́ que λ1 faz o papel do autovalor térmico,
associado aos expoentes crı́ticos. Por outro lado, v2R é dita uma perturbação irrelevante,
por ‘sugar’ as trajetórias em direção ao ponto fixo (0, 0), i.e., não consegue afastar da
criticalidade. Este comportamento das trajetórias do GR estão ilustrados na Fig. 7.33(a).
Quando d < 4 (ε > 0), as Eqs. (7.9.65) fornecem dois conjuntos de autovalores:
(
λG
1 =2
Gaussiano: (7.9.68)
λG
2 = ε > 0,

e (
λ1 = 2 − 3ε
Não-trivial: (7.9.69)
λ2 = −ε < 0.
Note as seguintes diferenças com relação ao caso d > 4: (1) com a troca de sinal de
λ2 no ponto fixo gaussiano, a direção v2R passa a ser relevante, por levar o comporta-
mento crı́tico para o ponto fixo não-trivial, enquanto que a auto-direção v1R no ponto fixo
Gaussiano não sofreu qualquer mudança. (2) há um segundo ponto fixo, cujo compor-
tamento crı́tico também está associado com a direção v1R , porém com autovalor distinto
do correspondente Gaussiano, em torno do qual a direção v2R é irrelevante (λ2 < 0).
Os diagramas de fluxo resultantes são, portanto, aqueles mostrados na Fig. 7.33. Para
d = 4, a análise é mais complexa, já que aparecem correções logaritmicas.
206 CHAPTER 7. PHASE TRANSITIONS

Table 7.1: Comparação entre diferentes previsões de valores dos expoentes crı́ticos.

mean- ε-
exponent d=3 experiments
field expansion
α 0 ε/2 1/2 0.12
β 1/2 1/2 − ε/6 1/3 0.31
δ 3 3+ε 4 5.2
γ 1 1 + ε/6 7/6 1.25
ν 1/2 1/2 + ε/12 7/12 0.64
η 0 0 0 0.1

Embora toda esta análise seja correta, em princı́pio, apenas para ε  1, é ilustrativo
examinar o que ocorre se fizermos ε = 1, ou d = 3. Usando os valores apropriados da
expansão-ε para d < 4, lançamos na Tabela 7.1 os valores correspondentes; a tabela
então compara os expoentes, até ordem ε, com os de campo médio (mean-field), bem
como com resultados experimentais para d = 3 (magnetos de Ising, i.e, com anisotropia
uniaxial, ou sistemas P V T próximos ao ponto crı́tico). Note que, com exceção de η,
todos os resultados da expansão-ε representam correções às previsões de campo médio,
e, importante, apontam nas direções corretas de aumento ou diminuição dos valores à
medida em que a dimensionalidade diminui de 4.

7.10 Exercises
1. A Fig. 7.4 mostra curvas de coexistência para um fluido tı́pico. Ao longo do trecho
AC, denominado de curva de pressão de vapor, as fases gasosa e lı́quida coexistem.
Suponha que, ao longo desta curva, as mudanças de volume do lı́quido sejam de-
sprezı́veis em comparação com as mudanças no volume do gás, e que este último
possa ser tratado como um gás ideal. Suponha também que o calor latente de vapo-
rização por mol, `, seja aproximadamente constante no intervalo de temperaturas de
interesse.

(a) Mostre que a pressão de vapor é dada por

P = P0 e−`/RT ,

onde R é a constante dos gases, e P0 é uma constante.


(b) Mostre que a capacidade calorı́fica ao longo da curva de pressão de vapor é dada
por
ν`
Ccoex = CP − ,
T
para ν moles.

2. Obtenha os expoentes crı́ticos α, β, γ e δ para o gás de van der Waals.


7.10. EXERCISES 207

3. O modelo de Heisenberg para spin-S é definido pela Hamiltoniana


X X
H = −J Si · Sj − µ H · Si ,
hiji i

onde µ é o momento magnético, H é um campo externo aplicado, e as somas se


estendem aos sı́tios de uma rede d-dimensional, sendo que hiji restringe a soma a
pares de primeiros vizinhos. Considere a aproximação de Weiss para este modelo.
(a) Mostre que a temperatura crı́tica é dada por
S(S + 1) µzJ
kB Tc = ,
3 2
onde z é o número de coordenação. Compare os resultados com os do modelo de
Ising e comente fisicamente.
(b) Mostre que a magnetização satisfaz uma lei de estados correspondentes, como
função de um campo H̃ e de uma temperatura T̃ reduzidos.
(c) Obtenha os expoentes crı́ticos α, β, γ e δ e comente sua dependência com S e d.
4. Considere um sistema de spins localizados, descrito pela Hamiltoniana
X X
H = −J σiz σjz − Γ σix ,
hi,ji i

onde os σ são as matrizes de Pauli e a primeira soma se estende aos pares de sı́tios
primeiros vizinhos de uma rede d-dimensional com número de coordenação z. Pode-
mos definir uma Hamiltoniana efetiva (Weiss) como
X
HW = − γ · σ i,
i

onde o campo médio que atua em cada spin é dado por


zJ z
γ = Γx̂ + hσ i ẑ;
2
veja a Figura 7.34.
(a) Tome a direção ẑ0 , paralela a γ , como a nova direção de quantização. Mostre que
0
hσ z i ≡ R = tanh βγ,
onde γ ≡ | γ |.
(b) Obtenha uma condição de autoconsistência para γ. A transição de fase é sina-
lizada por hσ z i ' 0, o que ocorre para Γ ∼ J. Mostre que, neste caso, a curva
crı́tica é dada por
2Γ Γ
= tanh ,
zJ kB Tc
e faça um esboço de τ ≡ (2kB Tc /zJ) em função de g = 2Γ/zJ. Discuta seus
resultados fisicamente.
208 CHAPTER 7. PHASE TRANSITIONS

z’
zJ < z >
2
R
< z>

< x> x
Figure 7.34: Problema 4 – Teoria de Weiss para o modelo de Ising com campo transverso.

5. Considere a seguinte expansão para a energia livre, em termos do parâmetro de ordem


φ, de um sistema magnético a campo nulo.

A(T, φ) = A0 (T ) + α2 (T ) φ2 − α4 (T ) φ4 + α6 (T ) φ6 ,

com α4 (T ) > 0. Suponha que, perto de Tc , o coeficiente do termo em φ6 possa ser


escrito como
α2 (T ) T − Tc
α6 (T ) = 4 (1 + ε), ε ≡ .
3α2 (T ) Tc
Discuta a transição de fase do sistema.

6. Em um diagrama de fases, o encontro entre linhas de transição de primeira e de


segunda ordens, se dá no chamado ponto tricrı́tico, caracterizado, por exemplo, por
uma temperatura Tt . Na expansão de Landau para a energia livre, este ponto é deter-
minado impondo-se que o coeficiente do termo de quarta ordem se anule: α4 (Tt ) = 0.
Considere um sistema magnético e defina ε ≡ (T − Tt )/Tt .

(a) Calcule os expoentes tricrı́ticos:


(i) para a magnetização, M ∼ |ε|βt ;
(ii) para a suscetibilidade, χT ∼ |ε|−γt ;
(iii) para a isoterma crı́tica, M ∼ H 1/δt ; e
(iv) para o calor especı́fico, ∆CH ∼ |ε|−αt .
(b) Obtenha a dimensão crı́tica superior para fenômenos tricrı́ticos, sabendo que os
expoentes que descrevem as correlações são os mesmos da teoria de Landau para
os pontos crı́ticos usuais, a saber, νt = 1/2 e ηt = 0.
7.10. EXERCISES 209

7. Um determinado sistema sofre uma transição de fase descrita por um parâmetro de


ordem bidimensional, φ ≡ (φ1 , φ2 ). Suponha que argumentos de simetria imponham
que a expansão de Landau para a energia livre de Helmholtz seja dada por
a 2  b 4  λ
A(T, φ ) = A0 + φ1 + φ22 + φ1 + φ42 + φ21 φ22 ,
2 4 2
onde A0 , a, b e λ são funções de T , com b > 0 e λ 6= b.

(a) Discuta as transições de fase deste sistema, caracterizadas pelo ordenamento


(e/ou desordenamento) das componentes φ1 e φ2 .
(b) Discuta a estabilidade das fases obtidas em (a) num diagrama λ vs. b.

8. Mostre que para um sistema descrito pela Hamiltoniana


X X
H = −J σi σj − Hσi ,
hi,ji i

onde os σ = ±1 e a primeira soma se estende aos pares de primeiros vizinhos, a


suscetibilidade satisfaz a regra de soma
β X
χ= h[σi − hσi i][σj − hσj i]i ,
N
i,j

onde N é o número de sı́tios da rede. Este é o teorema da flutuação-dissipação.

9. Mostre que a função de correlação para o modelo de Ising em uma rede unidimensional
com condições de contorno periódicas é dada por
 r
λ<
hσ0 σr i = hσ0 ihσr i + a ,
λ>
onde a é uma constante e os λ’s são os autovalores da matriz de transferência.

10. No chamado modelo de Potts associa-se a cada sı́tio uma variável clássica, σi =
1, 2 . . . q, representando os estados possı́veis de um vetor. Para q = 2, o vetor pode
apontar em um dos dois sentidos de uma direção arbitrária; é o caso análogo ao da
componente z do operador de spin-1/2. Para q = 3 (q = 4), o vetor pode apontar
para um dos vértices de um triângulo equilátero (tetraedro). A energia de interação
entre dois destes vetores, localizados em sı́tios vizinhos i e j pode ser tomada como

Hij = −qJδσi σj ,

onde J é uma constante e δσi σj é a função delta de Kronecker. Considere uma rede
linear (uni-dimensional) cujos N (N  1) sı́tios estejam ocupados por variáveis deste
tipo, nos casos particulares de q = 3 e 4. Calcule o comprimento de correlação destes
sistemas a baixas temperaturas e interprete fisicamente seu resultado. Comparando
os resultados para q = 2, 3 e 4, intua o comportamento de ξ(T ) para um q genérico.
210 CHAPTER 7. PHASE TRANSITIONS

11. O modelo de Ising com spin−1 num anel é definido pela Hamiltoniana
X
H = −J Si Si+1 ,
i

onde Si = 0, ±1.

(a) Escreva a matriz de transferência para este modelo, numa base de autovetores do
operador Π, que tem a seguinte propriedade: Π|Si = | − Si.
(b) Obtenha o comprimento de correlação a baixas temperaturas.
(c) Qual a temperatura crı́tica deste sistema?

12. The left panel in Fig. 7.35 shows part of a triangular lattice, in which we highlight a
cluster of sites labelled 11, 12, 13, 21, 22, and 23. We assume each site is occupied by
a spin-1/2 (σij = ±1) which interacts only with its nearest-neighbours, through an
Ising coupling, K ≡ J/kB T . A Renormalisation Group transformation (RGT) may
be obtained by ascribing a new spin to each triangle, according to the majority rule,

σi = sign (σi1 + σi2 + σi3 ), i = 1, 2. (7.10.1)

1"
11"
K K
12" 13"
K
K K
K0
p
b= 3
21"
K K
22" 23" 2"
K

Figure 7.35: Problem 12: Cluster for a majority-rule RGT for the triangular lattice.

(a) Show that the RGT is

v 6 + 3v 4 + 2v 3 + 3v 2 + 6v + 1
v0 = , (7.10.2)
2v 4 + 2v 3 + 4v 2 + 6v + 2
where v 0 ≡ exp(2K 0 ), and v ≡ exp(2K). [Suggestion: As usual, the use of
symmetry considerations simplifies the calculations considerably.]
(b) Verify that v ∗ = 1 and v ∗ = ∞ are fixed points. Interpret the physical content of
each of these.
(c) Solve Eq. (7.10.2) for the critical fixed point, and compare your estimate for K ∗
with the exact result, Kcexact = 0.27465.
(d) Obtain an estimate for the correlation length exponent, ν, and compare with the
exact result, ν exact = 1.
7.10. EXERCISES 211

13. Considere o cluster representado na Fig. 7.36(a) como um pedaço de uma rede qua-
drada, que tem spins de Ising em cada sı́tio. Impondo como condições de contorno
que os sı́tios 1 e 1’ (2 e 2’) estejam no mesmo estado de spin, o cluster fica equivalente
ao da Fig. 7.36(b), no qual as ligações horizontais externas foram descartadas porque
estamos interessados na propagação de correlações na direção vertical. Cada par de
spins interage com constante de acoplamento K ≡ J/kB T . Uma transformação do
grupo de renormalização pode ser obtida eliminando-se as variáveis de spin nos sı́tios
3 e 4 do cluster da Fig. 7.36(b), obtendo-se um acoplamento efetivo K 0 entre os spins
nos sı́tios 1 e 2, como na Fig. 7.36(c).

2=2’" 2"
2" 2’"
K K K K

≈"
K K
3" 4" K’
3" 4" b=2
K K K K
K
1=1’" 1"
1" 1’"
(a)" (b)" (c)"

Figure 7.36: Problema 13 – Cluster auto-dual para a rede quadrada.

(a) Mostre que a TGR neste caso é dada por

2t2 (1 + t)
t0 = ,
1 + 2t3 + t4

onde t ≡ tanh K e t0 ≡ tanh K 0 .


(b) Obtenha o ponto fixo da transformação e o expoente ν. Compare com os resul-
tados exatos, tanh Kc = 0.414 e ν = 1. Comente.

14. Suponha que as ligações entre os sı́tios de uma rede não estejam necessariamente todas
presentes, mas apenas uma fração delas, distribuı́das aleatóriamente; a concentração
de ligações é p ∈ [0, 1].

(a) Discuta qualitativamente a existência (ou não) de uma ilha infinita composta de
sı́tios conectados por ligações nos limites p  1 e p ∼ 1. Faça analogia desta
transição geométrica (de percolação) com uma transição de fase térmica.
(b) Considere três sı́tios dispostos ‘em série’ como na Fig. 7.37(a). Qual a probabil-
idade ps do sı́tio 1 estar conectado ao 3? Qual o valor da concentração crı́tica
para a transição de percolação em uma dimensão? Justifique cuidadosamente
suas argumentações.
212 CHAPTER 7. PHASE TRANSITIONS

p
1$ p 2$ p 3$
1$ 2$
p

(a)$ (b)$

Figure 7.37: Problema 14 – Combinações em série (a) e em paralelo (b) de ligações de uma rede. Cada ligação
está presente com probabilidade p.

(c) Considere dois sı́tios dispostos ‘em paralelo’ como na Fig. 7.37(b). Qual a prob-
abilidade pp do sı́tio 1 estar conectado ao 2? Justifique cuidadosamente suas
argumentações.
(d) Use o cluster da dizimação na rede quadrada [Fig. 7.30(b)] e as associações em
‘série’ e ‘paralelo’ para obter uma aproximação para pc e ν para o problema
da percolação por ligações na rede quadrada. Justifique cuidadosamente suas
argumentações. Compare com os resultados exatos pc = 1/2 e ν = 4/3.

15. Considere o problema de percolação por sı́tios, no qual cada sı́tio possa estar ativo
com probabilidade p e inativo com probabilidade 1−p. Semelhantemente ao problema
de percolação por ligações, existem dois regimes distintos: o de altas concentrações,
no qual pode-se atravessar a rede (infinita) de um extremo a outro, por caminhos
formados pela conexão de sı́tios ativos primeiros vizinhos; e o de baixas concentrações,
no qual não há um caminho conectando um extremo a outro da rede.

5 6

p p
3 4

p p
1 2
Figure 7.38: Problema 15

(a) Considere o cluster da Fig. 7.38, como uma aproximação da rede quadrada. Cal-
cule a probabilidade, p0 , de que os sı́tios 1 ou 2 estejam ligados aos sı́tios 5 ou 6
por meio de um caminho formado de sı́tios ativos primeiros vizinhos.
7.10. EXERCISES 213

(b) Interprete o resultado de (a) como a probabilidade do cluster estar ativo, no


contexto do Grupo de Renormalização. Obtenha, então, uma aproximação para
(s)
a concentração crı́tica, pc .
(c) De um modo geral, como você espera que as concentrações crı́ticas para os prob-
(s) (`)
lemas de percolação por sı́tios e por ligações, pc e pc , considerando uma mesma
rede (p. ex., quadrada, triangular, etc) devam se comparar?

16. A Hamiltoniana de Ising em uma dimensão é dada por


X
H = −J σiz σi+1
z
,
i

onde J > 0 e J < 0 correspondem, respectivamente, aos casos ferromagnético (FM)


e antiferromagnético (AFM), e os σ z são as matrizes de Pauli.

(a) Quais os estados fundamentais do sistema nos casos FM e AFM?


(b) Defina t ≡ tanh J/kB T e t0 = tanh(J/kB T )0 , e mostre que a combinação ‘em
série’ de b ligações fornece t0 = tb ; veja a Fig. 7.39. [Sugestão: obtenha uma
transformação do Grupo de Renormalização (TGR) ‘dizimando’ os spins nos sı́tios
cheios da Fig. 7.39]

t t t b t’

1 2 3 b b+1 1 b+1

Figure 7.39: Problema 16

(c) Obtenha os pontos fixos da TGR. Eles dependem de b? Discuta detalhadamente


o significado fı́sico de cada um deles, incluindo o valor de Tc .
(d) Comente sobre a adequação (ou não) da descrição do caso antiferromagnético
por este método.
214 CHAPTER 7. PHASE TRANSITIONS
Chapter 8

Introduction to Nonequilibrium
Statistical Mechanics
Refs.: Reichl e Pathria; Sergio Queiroz, Notas de Aula

8.1 Introduction
Até aqui vimos trabalhando com sistemas em equilı́brio no limite termodinâmico
(N, V → ∞). Nestes casos, médias termodinâmicas são calculadas, e correspondem
aos resultados esperados das medidas das diversas grandezas. No entanto, já vimos
que flutuações em torno das médias existem, mas que são geralmente pequenas. Não
obstante, o estudo destas flutuações é particularmente importante por diversas razões.
Primeiramente, porque elas desempenham um papel crucial na vizinhança de pontos
crı́ticos de 2a. ordem: o comportamento estático (i.e., sem dependência temporal) das
funções de correlação serviu de base para as teorias de scaling no Cap. 7. Em segundo
lugar, porque as flutuações nos permitem compreender, de forma abrangente, uma classe
de fenômenos, genericamente chamados de “movimentos Brownianos”, em homenagem
ao botânico Robert Brown, que, em 1827, observou que grãos de pólen imersos em água
executam um movimento errático de agitação. Trata-se de um movimento no qual al-
guns poucos graus de liberdade do sistema (os grãos de pólen) evoluem em uma escala
de tempo muito mais lenta que os demais (as moléculas da água). No contexto de nosso
curso, a descrição deste movimento ilustra como um sistema simples se aproxima do
equilı́brio, e como as flutuações podem ser tratadas de modo quantitativo. Antes, porém,
discutiremos como trabalhar com funções de distribuição de probabilidades dependentes
do tempo, em casos simples de memória restrita a eventos recentes, os chamados pro-
cessos markovianos.

8.2 Time-dependent Probability Distributions


Consideremos um sistema cujas propriedades possam ser descritas em termos de uma
única variável estocástica Y ; esta pode representar a velocidade de uma partı́cula Brow-
niana, a distância percorrida em um movimento aleatório (random walk ), o estado de

215
216 CHAPTER 8. NONEQUILIBRIUM STATISTICAL MECHANICS

spin de uma partı́cula, etc.


Usaremos as seguintes definições:
• Densidade de probabilidade de que Y = y1 no instante t1 : P1 (y1 , t1 )
• Densidade de probabilidade conjunta de que Y = y1 em t1 e Y = y2 em t2 :
P2 (y1 , t1 ; y2 , t2 )
• Densidade de probabilidade conjunta de que Y = y1 em t1 , Y = y2 em t2 ,. . . , e
Y = yn em tn : Pn (y1 , t1 ; y2 , t2 ; . . . ; yn , tn )
Estas densidades de probabilidade são positivas,
Pn ≥ 0, (8.2.1)
redutı́veis,
Z
dyk Pn (y1 , t1 ; . . . ; yk , tk ; . . . ; yn , tn ) = Pn−1 (y1 , t1 ; . . . ; yk−1 , tk−1 ; yk+1 , tk+1 ; . . . ; yn , tn ),
(8.2.2)
e normalizadas, Z
dy1 P1 (y1 , t1 ) = 1. (8.2.3)

Podemos também definir múltiplas correlações (i.e., momentos da distribuição) entre


as variáveis estocásticas em diferentes instantes de tempo,
Z Z Z
hy1 (t1 ) y2 (t2 ) . . . yn (tn )i = dy1 dy2 . . . dyn y1 y2 . . . yn Pn (y1 , t1 ; . . . ; yn , tn ).
(8.2.4)
Se Y for uma variável discreta, as integrais acima devem ser substituı́das por somas.
Um processo é dito estacionário se
Pn (y1 , t1 ; y2 , t2 ; . . . ; yn , tn ) = Pn (y1 , t1 + τ ; y2 , t2 + τ ; . . . ; yn , tn + τ ), (8.2.5)
para todo n e τ . Assim, para um processo estacionário,
P1 (y1 , t1 ) = P1 (y1 ), (8.2.6)
de modo que hy1 (t1 )y2 (t2 )i depende apenas do intervalo de tempo |t1 −t2 |, como demons-
trado a seguir.
Demonstração:
Z Z
hy1 (t1 ) y2 (t2 )i = dy1 dy2 y1 y2 P2 (y1 , t1 ; y2 , t2 ) (8.2.7)
Z Z
= dy1 dy2 y1 y2 P2 (y1 , t1 + τ ; y2 , t2 + τ ) (8.2.8)
Z Z
−→ = dy1 dy2 y1 y2 P2 (y1 , 0 ; y2 , t2 − t1 ) (8.2.9)
τ =−t1
Z Z
−→ = dy1 dy2 y1 y2 P2 (y1 , t1 − t2 ; y2 , 0) (8.2.10)
τ =−t2

=⇒ hy1 (t1 ) y2 (t2 )i só depende de |t1 − t2 |. (8.2.11)


8.2. TIME-DEPENDENT PROBABILITY DISTRIBUTIONS 217

Todos os processos fı́sicos em equilı́brio são estacionários.


É importante também introduzir a (densidade de) probabilidade condicional de que
Y valha y2 em t2 dado que valeu y1 em t1 , denotada por P1|1 (y1 , t1 | y2 , t2 ). Ela é definida
pela identidade
P2 (y1 , t1 y2 , t2 ) ≡ P1 (y1 , t1 ) × P1|1 (y1 , t1 | y2 , t2 ). (8.2.12)
Usando (8.2.2) e (8.2.12), obtemos uma relação entre densidades de probabilidade em
tempos distintos:
Z
P1 (y2 , t2 ) = dy1 P1 (y1 , t1 ) P1|1 (y1 , t1 | y2 , t2 ). (8.2.13)

Integrando (8.2.12) em y2 , temos


Z
dy2 P2 (y1 , t1 y2 , t2 ) = P1 (y1 , t1 )
Z
= P1 (y1 , t1 ) dy2 P1|1 (y1 , t1 | y2 , t2 ), (8.2.14)

where the first equality follows from Eq. (8.2.2). Therefore, the conditional probability
is also normalised: Z
dy2 P1|1 (y1 , t1 | y2 , t2 ) = 1. (8.2.15)

P1|1 é também chamada de probabilidade de transição (de y1 para y2 ).


De modo análogo, podemos também definir uma probabilidade condicional conjunta
de que Y valha yk+1 em tk+1 , · · · , yk+` em tk+` , dado que valeu y1 em t1 , · · · , yk em tk :
Pk|` (y1 , t1 ; · · · ; yk , tk | yk+1 , tk+1 ; · · · ; yk+` , tk+` ). Assim,

Pk|` (y1 , t1 ; · · · ; yk , tk | yk+1 , tk+1 ; · · · ; yk+` , tk+` ) =


Pk+` (y1 , t1 ; · · · ; yk , tk ; yk+1 , tk+1 ; · · · ; yk+` , tk+` )
. (8.2.16)
Pk (y1 , t1 ; · · · ; yk , tk )
Probabilidades condicionais são importantes quando há correlações entre os valores da
variável estocástica em tempos diferentes; isto é, quando a variável estocástica guarda
alguma memória do passado.
No entanto, se a variavel estocástica só tem memória do passado imediato, o processo
de evolução temporal é chamado de Markoviano. Neste caso,

Pn−1|1 (y1 , t1 ; · · · ; yn−1 , tn−1 | yn , tn ) = P1|1 (yn−1 , tn−1 | yn , tn ),


com t1 < t2 < · · · < tn .
(8.2.17)
Assim, um processo Markoviano é completamente determinado por P1 (y, t) e
P1|1 (y1 , t1 | y2 , t2 ), e toda a hierarquia de densidades de probabilidades pode ser obtida
a partir destas. Por exemplo:

P3 (y1 , t1 ; y2 , t2 ; y3 , t3 ) = P2 (y1 , t1 ; y2 , t2 ) P2|1 (y1 , t1 ; y2 , t2 | y3 , t3 )


= P1 (y1 , t1 ) P1|1 (y1 , t1 | y2 , t2 ) P1|1 (y2 , t2 | y3 , t3 ). (8.2.18)
218 CHAPTER 8. NONEQUILIBRIUM STATISTICAL MECHANICS

Figure 8.1: Forma tı́pica da probabilidade de transição. O passo da transição é ξ = y − y 0 . [Figura cedida por
SLA de Queiroz]

Integrando sobre y2 e admitindo t1 < t2 < t3 , vem


Z
P2 (y1 , t1 ; y3 , t3 ) = P1 (y1 , t1 ) dy2 P1|1 (y1 , t1 | y2 , t2 ) P1|1 (y2 , t2 | y3 , t3 ), (8.2.19)

que, dividindo por P1 (y1 , t1 ), fornece


Z
P1|1 (y1 , t1 | y3 , t3 ) = P1|1 (y1 , t1 | y2 , t2 ) P1|1 (y2 , t2 | y3 , t3 ) dy2 , (8.2.20)

resultado conhecido como Equação de Chapman-Kolmogorov. O processo de correlação


entre t1 e t3 é colocado totalmente em função das correlações t1 → t2 e depois, indepen-
dentemente, de t2 → t3 . Isto expressa o fato de que passos sucessivos são estatisticamente
independentes.

8.3 The Master Equation and the Fokker-Planck Equation


A equação mestra fornece a variação temporal de probabilidades. Ela pode ser construı́da
com base na definição de uma taxa de transição Wt1 (y1 , y2 ), que é a probabilidade
de transição entre y1 e y2 (de y1 para y2 ) por unidade de tempo, calculada em t1 .
Implicitamente, estamos supondo tratar-se um processo Markoviano, ao dizer que W só
depende de y1 e y2 , e não do passado mais remoto. Com isto,

∂P1 (y, t)
Z
= dy 0 Wt (y 0 , y) P1 (y 0 , t) − Wt (y, y 0 ) P1 (y, t) ,

(8.3.1)
∂t
é a equação mestra. Ela reflete o fato de que a probabilidade de ocorrência de y aumenta
devido às transições de y 0 para y num dado intervalo de tempo, mas diminui devido às
transições de y para y 0 .
Admitindo que as mudanças em y só ocorrem em pequenas quantidades, e intro-
duzindo o passo
ξ = y − y0, (8.3.2)
temos,
W (y 0 , y) = W (y 0 , y − y 0 ) ≡ W (y 0 , ξ), (8.3.3)
8.3. THE MASTER EQUATION AND THE FOKKER-PLANCK EQUATION 219

com o aspecto tı́pico da Fig. 8.1 (para y 0 fixo), podemos escrever


∂P1 (y, t)
Z
= dξ {W (y − ξ, ξ) P1 (y − ξ, t) − P1 (y, t) W (y, y − ξ)} =
∂t
Z Z
= dξ W (y − ξ, ξ) P1 (y − ξ, t) − P1 (y, t) dξ W (y, y − ξ), (8.3.4)

onde na primeira igualdade usamos o fato de que


Z ∞ Z −∞ Z ∞
dy 0 f (y 0 ) = − dξf (y − ξ) = dξf (y − ξ). (8.3.5)
−∞ ∞ −∞

Expandindo o produto W (y − ξ, ξ) P1 (y − ξ, t) em série de Taylor em torno de ξ = 0,


vem
W (y − ξ, ξ) P1 (y − ξ, t) = W (y, ξ) P1 (y, t)−
∂ ξ2 ∂2
−ξ [W (y, ξ) P1 (y, t)] + [W (y, ξ) P1 (y, t)] + · · · .
∂y 2 ∂y 2
(8.3.6)
Pudemos parar no 2o. termo porque na integral em dξ apenas os termos com |ξ|  1 vão
importar (e para esta região pode-se truncar a série) já que, de qualquer modo, W → 0
para |ξ|  1.
Levando (8.3.6) em (8.3.4), obtemos
ξ2 ∂2
 
∂P1 ∂
Z
= dξ W (y, ξ) P1 (y, t) − ξ (W (y, ξ) P1 (y, t)) + (W (y, ξ) P1 (y, t)) −
∂t ∂y 2 ∂y 2
Z
− P1 (y, t) dξ W (y, y − ξ). (8.3.7)

Novamente, como as integrais vão de −∞ a +∞, tem-se


Z Z
dξ W (y, ξ) = dξ W (y, y − ξ), (8.3.8)

de modo que
1 ∂2  2
 
∂P1 ∂
Z

=− dξ [ξ W (y, ξ) P1 (y, t)] − ξ W (y, ξ) P1 (y, t) . (8.3.9)
∂t ∂y 2 ∂y 2
Definindo o momento de n–ésima ordem da distribuição de saltos,
Z
αn (y) ≡ dξ ξ n W (y, ξ), (8.3.10)

obtemos, finalmente,
∂P1 (y, t) ∂ 1 ∂2
= − [α1 (y) P1 (y, t)] + [α2 (y) P1 (y, t)] , (8.3.11)
∂t ∂y 2 ∂y 2
que é a equação de Fokker-Planck; é a equação diferencial obtida a partir da equação
mestra, que é integro-diferencial.
220 CHAPTER 8. NONEQUILIBRIUM STATISTICAL MECHANICS

8.4 Application: Random Walk and the Diffusion Equa-


tion
O problema do passeio randômico (random walk ) pode ser formulado como uma cadeia
Markoviana de probabilidades de transição. Consideremos, por simplicidade, um movi-
mento unidimensional, com passos de tamanho `, e suponhamos que o tempo entre
passos seja τ . A versão discreta da Eq. (8.2.13) se escreve
X
P1 (n2 `, sτ ) = P1 (n1 `, (s − 1)τ ) P1|1 (n1 `, (s − 1)τ |n2 `, sτ ) . (8.4.1)
n1

onde a natureza Markoviana do processo se manifesta pelo fato de apenas os tempos sτ


e (s − 1)τ serem envolvidos.
Se a probabilidade de dar um passo à esquerda e à direita é a mesma, i.e.,
1
P1|1 (n1 `, (s − 1)τ | n2 `, sτ ) = [δn ,n +1 + δn1 ,n2 −1 ] , (8.4.2)
2 1 2
então
1 1
P1 (n`, sτ ) = P1 ((n − 1)`, (s − 1)τ ) + P1 ((n + 1)`, (s − 1)τ ) . (8.4.3)
2 2
Para relacionar com a equação de difusão, cujas variáveis x e t são contı́nuas, tomemos
1
[P1 (n`, sτ ) − P1 (n`, (s − 1)τ )] =
τ
`2 P1 ((n + 1)`, (s − 1)τ ) + P1 ((n − 1)`, (s − 1)τ ) − 2P1 (n`, (s − 1)τ )
 
= .
2τ `2
(8.4.4)

Definindo x ≡ n` e t ≡ sτ , com `, τ → 0 tal que D ≡ `2 /2τ = constante, a Eq. (8.4.4)


fica
∂P1 ∂ 2 P1
(x, t) = D (x, t); (8.4.5)
∂t ∂x2
ou seja, a equação de Fokker-Planck para o problema é a equação de difusão para a
densidade de probabilidades. Note que, pela simetria da distribuição, i.e., W (y, −ξ) =
W (y, +ξ), o primeiro momento é zero.
A tı́tulo de ilustração, vamos obter a solução correspondente à condição inicial
P1 (x, 0) = δ(x). Isto corresponde a um processo de difusão em que, por exemplo,
um frasco de perfume é aberto num dado ponto, e o cheiro se espalha (sem convecção)
pelo ar, ou, então, uma pequena partı́cula se movimenta em suspensão em um fluido
(movimento Browniano; veja a Seção 8.5.)
Introduzamos a transformada de Fourier de P1 (x, t),
Z +∞
P̃1 (k, t) ≡ dx P1 (x, t) eikx , (8.4.6)
−∞
8.4. RANDOM WALK 221

cuja inversa é
+∞
1
Z
P1 (x, t) = dk P̃1 (k, t) e−ikx . (8.4.7)
2π −∞

Assim,
∂2
Z  Z 
∂ −ikx −ikx
dk P̃1 (k, t) e =D 2 dk P̃1 (k, t) e , (8.4.8)
∂t ∂x
que fornece " #
∂ P̃1 (k, t)
Z
dk + k 2 D P̃1 (k, t) e−ikx = 0, (8.4.9)
∂t
de modo que o termo entre colchetes deve ser satisfeito para todo k. Logo,

∂ P̃1 (k, t)
= −k 2 D P̃1 (k, t), (8.4.10)
∂t
cuja solução é
2
P̃1 (k, t) = A e−Dk t , (8.4.11)
com A a ser determinado pelas condições iniciais. A transformada inversa é dada por
Z +∞
1 2
P1 (x, t) = dk A e−Dk t e−ikx . (8.4.12)
2π −∞

Completando o quadrado no expoente,

x2 x2
   
kx kx
Dk 2 t + ikx = Dt k 2 + i = Dt k 2 + i − + =
Dt Dt 4D2 t2 4D2 t2
x2
 
x 2 x
= Dt k + i + 2 2
, k0 = k + i , (8.4.13)
2Dt 4D t 2Dt

obtemos
+∞
1 1
Z
02t 2 /4Dt 2
P1 (x, t) = dk 0 A e−Dk e−x =√ A e−x /4Dt . (8.4.14)
2π −∞ 4πDt

Para determinar A, notemos que (8.4.11) fornece P̃1 (k, t = 0) = A, que, levado em
(8.4.7), e lembrando que
1
Z
δ(x) = dk e−ikx , (8.4.15)

leva, finalmente, a
1 2
P1 (x, t) = √ e−x /4Dt . (8.4.16)
4πDt

2 2
 hx(t)i = 0, e a dispersão é lida diretamente da gaussiana,
Por simetria,
exp −x /2hx i :
hx2 (t)i = 2Dt. (8.4.17)
222 CHAPTER 8. NONEQUILIBRIUM STATISTICAL MECHANICS

Daı́ segue que


dhx2 i
= 2D, (8.4.18)
dt
de modo que a distribuição se alarga com o tempo, consistindo num processo ‘dissipativo’.
Este comportamento hx2 (t)i ∼ t é conhecido como difusão normal ; quando hx2 (t)i ∼ tα a
difusão é dita anômala. Deve-se ter em mente que o tratamento dado aqui foi puramente
fenomenológico, no sentido de que não especificamos como a constante D se relaciona
com propriedades do meio ou da partı́cula que se difunde; a próxima seção discute esta
questão para o caso do movimento Browniano.

8.5 Movimento Browniano1


8.5.1 Introduction
Em 1828, o botânico Robert Brown estudou o movimento de pequenos grãos de pólen
imersos em água, e constatou que eles executam um movimento aleatório. Hoje sabe-
mos que este movimento Browniano se deve às moléculas do fluido, as quais colidem
aleatoriamente com os grãos; veja applets simulando este movimento no link
http://en.wikipedia.org/wiki/Brownian motion
Einstein foi o primeiro a formular uma teoria (a partir de 1905) conectando a natureza
irreversı́vel deste fenômeno com o mecanismo de flutuações moleculares. A partir desta
formulação, a descrição genérica de mobilidade devida a flutuações em sistemas fluidos
ficou conhecida como Movimento Browniano. Esta descrição enfatiza dois aspectos bas-
tante importantes. Primeiramente, permite relacionar propriedades de mobilidade de
um fluido, como, p.ex., o coeficiente de difusão, com a temperatura através de relações
que acabaram levando seu nome, as relações de Einstein. Em segundo lugar, ajuda a
compreender, até certa medida, como que um sistema fora do equilı́brio atinge o estado
de equilı́brio. Há várias maneiras de descrever o movimento Browniano, mas apresentare-
mos aqui apenas a formulação via Equação de Langevin, pela sua generalidade; a teoria
de Einstein-Smoluchowski para este movimento pode ser encontrada, p.ex., no Pathria,
Seção 14.3.

8.5.2 Teoria de Langevin para o Movimento Browniano


Consideremos uma partı́cula Browniana, de massa M , em um meio fluido. Suporemos
que, além das forças aleatórias devido às colisões moleculares, nenhuma outra força atua
na partı́cula; veja a Fig. 8.2. A equação de movimento para esta partı́cula pode ser
escrita como
dv v
M = − + F(t), com F(t) = 0 (8.5.1)
dt B
onde foi feita a separação entre o efeito de arrasto viscoso, −v/B, com B sendo a
mobilidade do sistema (B = 1/6πηa, onde η é o coeficiente de viscosidade, e a é o raio
1
Baseado nas seções 14.4 e 14.6 do Pathria; veja também as seções 14.3 e 14.5.
8.5. MOVIMENTO BROWNIANO 223

Figure 8.2: Partı́cula Browniana sofre colisões aleatórias com as moléculas do fluido. [Figura cedida por SLA de
Queiroz]

da partı́cula), e o de uma força que flutua rapidamente, cuja média temporal, tomada
em intervalos de tempo longos comparados com uma escala caracterı́stica, τ ∗ , se anula.
Tomando a média no ensemble na Eq. (8.5.1), e usando que hF(t)i = 0 também neste
caso, temos

d 1
M hvi = − hvi (8.5.2)
dt B
⇒ hv(t)i = hv(0)i e−t/τ , (8.5.3)

onde τ ≡ M B é o tempo de relaxação. Deve-se notar que hvi → 0 para tempos muito
longos, dada a natureza dissipativa (donde irreversı́vel) deste fenômeno. Voltando à
Eq. (8.5.1), e dividindo-a por M vem

dv v F(t)
= − + A(t), A(t) = = 0. (8.5.4)
dt τ M
Tomando o produto escalar com r, usemos

1d 2
r·v = r , (8.5.5a)
2 dt
1 d2 r2
 
dv
r· = − v2, (8.5.5b)
dt 2 dt2
hA · ri = 0, (8.5.5c)
hF · vi =
6 0, (8.5.5d)

onde as duas últimas equações expressam o fato de que o caráter aleatório de F não
causa correlação posicional entre r e F, mas sim entre v e F. Com isto, a média no
ensemble fornece
d2 2 1 d 2
hr i + hr i = 2hv 2 i. (8.5.6)
dt2 τ dt
224 CHAPTER 8. NONEQUILIBRIUM STATISTICAL MECHANICS

Se a partı́cula está em equilı́brio térmico com o fluido à temperatura T , o teorema


da equipartição dá
3kB T
hv 2 i = , (8.5.7)
M
de modo que
6kB T τ 2 t 
 
2 −t/τ
hr i = − 1−e , (8.5.8)
M τ
para as condições iniciais hr2 it=0 = 0 e [dhr2 i/dt]t=0 = hr · vit=0 = 0.
Suponhamos agora que t  τ ; temos, então,

3kB T 2
hr2 i ' t = hv 2 i t2 , (8.5.9)
M
consistente com as equações de Newton (reversı́veis), já que ainda não houve tempo dos
fenômenos dissipativos agirem, o que acontece na escala de tempo τ .
Por outro lado, se t  τ , obtemos

6kB T τ
hr2 i ' t = (6BkB T ) t. (8.5.10)
M

Este comportamento linear com t de hr2 i sugere, por analogia com o caminho aleatório
unidimensional [Eq. (8.4.17)], que possamos definir o coeficiente de difusão a partir de

hr2 i ≡ 6 D t, (8.5.11)

onde o fator 6 = 3 × 2 reflete o fato de que o movimento é em 3 dimensões. Temos,


então,
D = B kB T, (8.5.12)
resultado que é conhecido como a Relação de Einstein entre difusão e mobilidade. Inte-
ressantemente, é uma relação entre grandezas tı́picas de não-equilı́brio e a temperatura
do fluido, suposto em equilı́brio.

8.5.3 Influence of the rapidly fluctuating force


Na subseção anterior, substituı́mos na Eq. (8.5.6) o termo hv 2 i pelo seu valor limite (de
equilı́brio). Esta simplificação fez com que se perdesse a influência do termo de força
flutuante. Para recuperá-la, inicialmente escrevamos a solução da Eq. (8.5.4) como
Z t
−t/τ −t/τ 0
v(t) = v(0) e +e et /τ A(t0 ) dt0 , (8.5.13)
0

0
obtida multiplicando-se (8.5.4) por et /τ e integrando em t0 de 0 a t. Esta expressão
enfatiza que a velocidade de arrasto da partı́cula Browniana também flutua ao longo do
tempo, e, ao tomarmos a média no ensemble, recuperamos a Eq. (8.5.3).
8.5. MOVIMENTO BROWNIANO 225

K (∆t) K (∆t)

−τ * + τ * ∆t −τ * + τ * ∆t

Figure 8.3: Typical forms of autocorrelation functions. Note that the functions vanish for time intervals longer
than τ ∗ . [Figures courtesy of SLA de Queiroz.]

Tomando agora v2 (t) e, em seguida, a média no ensemble, obtemos


 Z t 
2 2 −2t/τ −2t/τ t0 /τ 0 0
hv (t)i = v (0) e + 2e v(0) · e hA(t )i dt
0
Z tZ t
−2t/τ 0 00
+e e(t +t )/τ hA(t0 ) · A(t00 )i dt0 dt00 , (8.5.14)
0 0

onde o termo cruzado (entre colchetes) se anula, já que hA(t0 )i = 0.


Vemos então que a influência da força flutuante em hv 2 i se dá através da função de
auto-correlação,
K(t0 , t00 ) ≡ hA(t0 ) · A(t00 )i, (8.5.15)
examples of which are sketched in Fig. 8.3. The auto-correlation functions relevant to
our study must have the properties listed below, and the reader should check that the
functions in Fig. 8.3 do indeed satisfy them.

• Lidamos com um ensemble estacionário (i.e., o comportamento global macroscópico


não muda no tempo), de modo que
K(t0 , t00 ) = K(t00 − t0 ), (8.5.16)
refletindo o fato de que somente o intervalo de tempo decorrido é importante.
• A grandeza K(0) é o valor quadrático médio de A no instante t, e, como tal, é
positiva definida. Ademais, num ensemble estacionário deve ser uma constante,
independente de t: D E
K(0) ≡ [A(t)]2 = constante (8.5.17)

• Para qualquer intervalo de tempo, a autocorrelação é menor que no instante inicial:


| K(∆t) | ≤ K(0). (8.5.18)
[Demonstração:
h[A(t1 ) ± A(t2 )]2 i = hA2 (t1 )i + hA2 (t2 )i ± 2hA(t1 ) · A(t2 )i
= 2 [K(0) ± K(∆t)] ≥ 0,
226 CHAPTER 8. NONEQUILIBRIUM STATISTICAL MECHANICS

de modo que K(∆t) não pode ficar fora do intervalo entre −K(0) e K(0); daı́ segue
a Eq. (8.5.18). CQD.]

• Para um ensemble estacionário, a função de auto-correlação é simétrica,

K(∆t) = K(−∆t). (8.5.19)

[Demonstração:

K(∆t) ≡ hA(t) · A(t + ∆t)i = hA(t − ∆t) · A(t)i


= hA(t) · A(t − ∆t)i ≡ K(−∆t), CQD]

• Para intervalos de tempo longos, em comparação com uma segunda escala de


tempo, τ ∗ , os valores de A(t) e A(t + ∆t) ficam descorrelacionados, ou seja,

∆t  τ ∗
K(∆t) ≡ hA(t) · A(t + ∆t)i −−−−−→ hA(t)i · hA(t + ∆t)i (8.5.20)

Vejamos agora como avançar no cálculo da integral dupla que aparece na Eq. (8.5.14),
Z t Z t
0 0 00 )/τ
I≡ dt dt00 e(t +t hA(t0 ) · A(t00 )i
0 0
Z t Z t
0 0 00 )/τ
= dt dt00 e(t +t K(t00 − t0 ), (8.5.21)
0 0

onde, nesta última passagem, está-se admitindo um ensemble estacionário.


Let us introduce the change in variables

1
T ≡ (t0 + t00 ) (8.5.22)
2
s ≡ t00 − t0 (8.5.23)
∂T /∂t0 ∂T /∂t00
  
dt0 dt00 = det dT ds = dT ds. (8.5.24)
∂s/∂t0 ∂s/∂t00

We first note that for a fixed T , we may express s in terms either of t00 and T , or of t0
and T :
s = 2(t00 − T ) = 2(T − t0 ). (8.5.25)
Figure 8.4 shows the region of integration in terms of the variables t0 and t00 , as well as
some special lines of fixed T : T = 0, t/4, t/2, 3t/4, and t. We see that two regimes of
integration should be distinguished: for 0 ≤ T ≤ t/2 the constant-T lines cut the axes at
t0 = 0 and t00 = 0, while for t/2 < T ≤ t the constant-T lines do not cut the axes within
the square. Accordingly, for a given T < t/2, s varies from smin = −2T (for t00 = 0) to
smax = 2T (for t0 = 0); as T increases up to t/2, the corresponding s-integration interval
also increases. On the other hand, for T > t/2, smin and smax respectively correspond to
8.5. MOVIMENTO BROWNIANO 227

s =+2(t−T)
t’’ max
t

T=fixo < t/2 smin=−2(t−T)


smax
=2T

T=fixo > t/2

smin=−2T

t t’
: | s | < τ∗

Figure 8.4: Integration limits. The integral in T is split in two: one from 0 to t/2, and the other from t/2 to t.
For a fixed T in the first [second] interval, T < t/2 [T > t/2], s runs from −2T to 2T [−2(t − T ) to 2(t − T )]. Note,
however, that the only non-zero contributions to the integral in s come from the narrow region around s = 0,
represented by the shaded area.

t0 = t and t00 = t, namely smin = −2(t − T ) and smax = 2(t − T ); now, the corresponding
s-integration interval decreases as T increases. We may therefore write the integral as
Z t/2 Z 2T Z t Z +2(t−T )
I= dT e2T /τ K(s) ds + dT e2T /τ K(s) ds (8.5.26)
0 −2T t/2 −2(t−T )

Se t  τ ∗ (vide Fig. 8.4) os limites de integração de s podem ir para ±∞; com


Z +∞
C≡ K(s) ds (8.5.27)
−∞

temos
t
τ  2t/τ
Z 
I'C e2T /τ dT = C e −1 , (8.5.28)
0 2
sendo que a informação sobre a dinâmica molecular fica na constante C.
Equation (8.5.14) then becomes
τ 
hv 2 (t)i = v 2 (0) e−2t/τ + C 1 − e−2t/τ , (8.5.29)
2
and the condition
3kB T
hv 2 (t)i → for t → ∞, (8.5.30)
M
yields
6kB T
. C= (8.5.31)

Given that the constant C involves to the ‘microscopic’ time scale τ ∗ , Eq. (8.5.31) indi-
cates a connection between τ ∗ and the macroscopic time scale τ .
228 CHAPTER 8. NONEQUILIBRIUM STATISTICAL MECHANICS

<v 2(t)> / (3kBT/M)


2

0 1 2 t/ τ
Figure 8.5: Time dependence of hv 2 i, for two distinct initial conditions.

Podemos escrever, finalmente,


 
3kB T 
2 2
hv (t)i = v (0) + 2
− v (0) 1 − e−2t/τ . (8.5.32)
M

Este resultado exemplifica o processo de termalização: a velocidade quadrática final será


sempre 3kB T /M , independentemente do valor inicial ser abaixo ou acima do valor limite;
veja a Fig. 8.5.
Taking hv 2 i from (8.5.32) into (8.5.6), we get
 2 3k T    6k T τ
B B
hr2 i = v 2 (0) τ 2 1 − e−t/τ − τ 2 1 − e−t/τ 3 − e−t/τ + t (8.5.33)
M M
If v 2 (0) = 3kB T /M , we recover the previous result, Eq. (8.5.8). Note that we also recover
the limiting cases, (
2 v 2 (0) t2 if t  τ
hr i ' (8.5.34)
6BkB T t if t  τ,
which illustrate the reversible nature of the motion at small time scales, t  τ , and the
irreversible nature at long time scales, t  τ .

8.6 Spectral analysis of fluctuations


O movimento Browniano é apenas um dentre uma enorme variedade de fenômenos causa-
dos por estı́mulos aleatórios, sejam em intensidade, direção, ou intervalos de tempo. Uma
informação relevante nestes casos é a distribuição de frequências (espectro de frequências,
ou power spectrum). Consideremos o exemplo paradigmático de um pêndulo de torção,
que consiste de um pequeno cilindro (de momento de inércia I) suspenso por um fio de
fibra (rigidez c, análoga à constante de força de uma mola); uma haste com um pequeno
espelho é presa ao fio, de modo que um feixe de laser incidente no espelho projeta numa
parede o deslocamento angular do cilindro. As colisões das moléculas de ar com este
8.6. SPECTRAL ANALYSIS OF FLUCTUATIONS 229

sistema suspenso causam uma sucessão de torques de intensidades aleatórias, levando


a flutuações na posição angular θ em torno de uma média (definida, por conveniência,
como nula). Neste movimento Browniano, a força viscosa é fornecida pelo amortecimento
do ar, enquanto que as propriedades elásticas da fibra fornecem um torque restaurador,
Nθ = −c θ. Em equilı́brio, espera-se que valha a equipartição da energia, de modo que
1 2 1 kB T
c θ = kB T ⇒ θ2 = , (8.6.1)
2 2 c
onde, como antes, a barra denota média temporal.
Uma versão mais rudimentar (sem o laser) deste sistema foi utilizada por Kappler
[Ann. Phys. 11, 233 (1931)] que efetuou medidas de θ2 para determinar a constante
de Boltzmann (logo, o número de Avogadro, NA ). Nestes experimentos, I = 4.552 ×
10−4 g cm2 e o perı́odo de oscilação observado foi τ = 1379 s, de modo que a constante
de força era
I
c = 4π 2 2 = 9.443 × 10−9 g cm2 s−2 /rad. (8.6.2)
τ
À temperatura de 287.1 K o valor obtido foi θ2 = 4.178×10−6 , que, através da Eq. (8.6.1),
fornece kB = 1.374 × 10−16 erg K−1 ; ademais, com a constante dos gases sendo
R = 8.31 × 107 erg K−1 mol−1 , obtém-se, finalmente, NA = R/kB = 6, 06 × 1023 mol−1 .
A importância de uma melhor quantificação das flutuações aparece quando imagi-
namos um segundo experimento, desta vez mantendo o pêndulo de torção em um re-
cipiente onde o ar está rarefeito (i.e., onde se faz vácuo). À primeira vista, poder-se-ia
pensar que neste ambiente as flutuações em posição seriam drasticamente reduzidas. No
entanto, isto não ocorre, pois mesmo a pressões muito baixas ainda há um grande número
de moléculas que ‘mantêm vivo’ o movimento Browniano. Interestingly, the mean square
angular deviations due to the collisions are not affected by the density of gas molecules;
one therefore concludes that for a system in equilibrium, they are determined solely by
the temperature. Figure 8.6 shows two traces of the mirror oscillations, the top one
taken at atmospheric pressure, and the bottom one at 10−4 mmHg. The resulting r.m.s.
deviation turned out to be approximately the same in both cases, but the difference in
their appearance can be explained as follows. At high densities (ambient pressure) the
random molecular impulses are very frequent, leading to a large number of individual
deflections, though small in magnitude. By contrast, at low densities the frequency
of individual deflections is smaller, but their magnitude is larger. Nonetheless, when
observed over a long period of time, the overall deflection remains practically the same.
This difference between the spectral quality of the fluctuation patterns can be cast
into a more quantitative basis by first observing that the second spectrum is more jagged
than the first: the high frequency components dominate. In addition, the first pattern
is more predictable, since the curve is smoother: this is attributed to the correlation
function (or memory function), K(s), extending to much larger values of s than in the
second case. These two aspects of fluctuation processes, namely time-dependence and
frequency spectrum, are closely related, as a Fourier analysis will now reveal.
We consider random variables, y(t), such that hy(t)i = 0 (we can always displace the
origin for this to occur), and whose mean square value, hy 2 (t)i, has already reached its
230 CHAPTER 8. NONEQUILIBRIUM STATISTICAL MECHANICS

Figure 8.6: The traces of the thermal oscillations of a suspended mirror system (see text) at different pressures:
upper trace corresponds to atmospheric pressure, while the lower one to 10−4 mm of Hg. [Figure taken from
Pathria (1996).]

equilibrium time-independent (stationary) value; an immediate example is provided by


the velocity of a Brownian motion, as we have just discussed. Further, though y is not a
strictly periodic function of t, its value always oscillates around zero. If it were periodic,
with period T = 1/f0 , we could write
X X
y(t) = a0 + an cos(2πnf0 t) + bn sin(2πnf0 t), (8.6.3)
n n

with

2 T
Z
an = y(t0 ) cos(2πnf0 t0 ) dt0 (8.6.4)
T 0
2 T
Z
bn = y(t0 ) sin(2πnf0 t0 ) dt0 , (8.6.5)
T 0

as in standard Fourier analyses. However, some adaptations are needed in order to take
into account the stochastic nature of the phenomenon:

(1) There is no real period, after which everything repeats exactly. However, we may
consider T much longer than other relevant time scales, or, equivalently, f0 = 1/T
much smaller than other relevant frequencies. In so doing, we may be reasonably
sure that our Fourier analysis does not miss out on any important aspect of the
problem.

(2) Given that y(t) is a random variable, so are the coefficients an and bn ; we must
therefore take ensemble averages for these quantities,

han i = hbn i = 0, (8.6.6)

and
X1
hy 2 (t)i = ha2n i + hb2n i = const. (8.6.7)
n
2
8.6. SPECTRAL ANALYSIS OF FLUCTUATIONS 231

Since the phases of the Fourier components are random, we may write ha2n i = hb2n i
for all n, and Z ∞
X
2 2
hy i = han i ' df w(f ), (8.6.8)
n 0

where
ha2n i = w(nf0 ) ∆(nf0 ), (8.6.9)
or
1 2
w(nf0 ) = ha i. (8.6.10)
f0 n
The function w(f ) defines the power spectrum of the variable y(t).
Let us now show that the power spectrum, w(f ), of the random variable y(t) is
completely determined by the corresponding auto-correlation function, K(s). To
this end, Eq. (8.6.4) yields
Z 1/f0 Z 1/f0
ha2n i = 4f02 hy(t1 ) y(t2 )i cos(2πnf0 t1 ) cos(2πnf0 t2 ) dt1 dt2 . (8.6.11)
0 0

Changing to variables S ≡ (t1 + t2 )/2, s ≡ t2 − t1 , as before, and recalling that


T  sM , where sM is the maximum duration of the memory, i.e., |K(s > sM )| ' 0,
we may write
Z 1/f0 Z +∞
ha2n i ' 2f02 dS ds K(s) {cos(2πnf0 s) + cos(4πnf0 S)} . (8.6.12)
0 −∞

The second term vanishes upon integration over S, and we are left with
Z ∞
ha2n i = 4f0 ds K(s) cos(2πnf0 s), (8.6.13)
0

so that Z ∞
w(f ) = 4 ds K(s) cos(2πf s). (8.6.14)
0
Taking the inverse Fourier transform yields
Z ∞
K(s) = df w(f ) cos(2πf s). (8.6.15)
0

Equations (8.6.14) and (8.6.15) constitute the Wiener–Khintchine theorem, which


relates K(s) and w(f ). One should also note the special case,
Z ∞
K(0) = df w(f ) = hy 2 i. (8.6.16)
0

Let us now discuss some applications of this theorem.


232 CHAPTER 8. NONEQUILIBRIUM STATISTICAL MECHANICS

Figure 8.7: (a) The auto-correlation function K(s) and (b) its power spectrum; the parameter a appears in terms
of an arbitrary unit of (time)−1 .

1. Suppose the variable y(t) is extremely irregular, hence unpredictable. Then the mem-
ory function should only extend over a negligibly small time interval, s. This is the
case, for instance, of the rapid fluctuating force F (t) experienced by a Brownian
particle due to the molecular collisions. If one assumes

K(s) = c δ(s), (8.6.17)

then Eq. (8.6.14) gives


w(f ) = 2c, ∀f. (8.6.18)
This is known as a uniform (or “flat”, or “white”) spectrum. However, this would
lead [see Eq. (8.6.16)] to a diverging hy 2 i, which is certainly unacceptable. We must
therefore admit a less sharply peaked memory function, one which extends over a
finite range of the variable s; one may expect such function to introduce a cutoff in
the flat frequency spectrum.
As a specific example, we consider the function depicted in Fig. 8.7(a),

sin(as)
K(s) = K(0) , a > 0, (8.6.19)
as
which, in the limit a → ∞, K(s) → (π/a) K(0) δ(s). The Wiener–Khintchine theorem
yields
 2π K(0) f < a/2π

w(f ) = a (8.6.20)
0 f > a/2π.
We see that the central peak in K(s) extends up to ∆t = |s| = π/a, and its width
provides an estimate for the time extent of correlations. Consequently, the resulting
power spectrum [Fig. 8.7(b)] corresponds to a white noise [i.e., flat w(f )] for 0 < f ≤
1/∆t.

2. Consider now the opposite case, namely that of an extremely regular variable y(t),
thus completely predictable; this in turn implies a correlation function extending over
s
!2 !1 0 1 2
f∗ f∗ f∗ f∗

614 Chapter 15 8.6. .


SPECTRAL
Fluctuations ANALYSIS OF
and Nonequilibrium FLUCTUATIONS
Statistical Mechanics 233

K(s)

w (f )
s
!2 !1 0 1 2
f∗ f∗ f∗ f∗

0 f∗
f

FIGURE
Figure 8.8: (a) The auto-correlation 15.8 The
function K(s)autocorrelation function
and (b) its power K (s) and
spectrum forthe
thepower distribution
special function w( f ) of a monochromatic
case of a monochro-
matic variable with frequency f ∗variable y(t),
. [Figure with characteristic
extracted from Pathriafrequency f ⇤ . (2011).]
& Beale

see equation
large vales of s. The power (15.6.10).
spectrum The power
must then spectrum
display peaks atw(specific
f ) is then given by the expression
frequencies.
w (f )

An extreme example is that of a monochromatic variable, with a frequency f0∗ , and


Z1
4kT reads,
infinite time range, for which the correlation function s/⌧ 4kT ⌧ 1
w( f ) = e cos(2⇡ fs)ds = , (21)
M M 1 + (2⇡ f ⌧ )2
0 f∗ K(s) = K(0) cos(2πf s), ∗0
(8.6.21)
f
which indeed satisfies the relationship
leading
FIGURE 15.8 The autocorrelation to aK (s)
function power
and thespectrum
power distribution function w( f ) of a monochromatic
variable y(t), with characteristic frequency f ⇤ . 1 Z
w(f ) = K(0) δ(f − f ∗ ); 2kT 1
w( f )df = tan 1 (2⇡f ⌧ ) (8.6.22)
⇡M 0
see equation (15.6.10). The power spectrum
∗ w( f ) is then given by the expression
0
In particular, if f = 0 then both y(t) and K(s) are constants in time, and w(f ) is
kT
peaked at Zf1∗ = 0; see Fig. 8.8. = = hvx2 i, (22)
4kT s/⌧ 4kT ⌧ 1 M
w( f ) = e cos(2⇡ fs)ds = , (21)
M M 1 + (2⇡ f ⌧ )2
3. Let us now0 think of anin agreement with the equipartition
intermediate case, one
in which y(t) is filtered
theorem (as by sometodevice
applied a single component of the
which only resolves frequencies ∗.
velocity v).within an⌧ interval
For f ⌧ ∆f around
1 , the power a mean
distribution is frequency
practically findependent of f , which
which indeed satisfies the relationship
This is achieved by a power spectrum similar to the one depicted
implies a practically “white” spectrum, with in Fig. 8.9(b), which
in turn leads
Z1 to a correlation function attenuated over a time scale σ ∼ 1/∆f , such as
2kT 1
4kT ⌧ with the velocity
the one shownw( f )dfin=Fig. 8.9(a).
tan 1 (2⇡fLet
⌧ ) us illustrate this spectral analysis
w( f ) ' = 4BkT . (23)
⇡M 0
of a Brownian
0 particle, for which the autocorrelation function for M the x-component of
velocity can be obtained kT from the fluctuation-dissipation theorem as [see, e.g., Pathria
= = hvx2 i, (22)
and Beale (2011), Sec. M 15.6]

in agreement with the equipartition theorem (as applied


kBtoT a single component of the
1 K(s) =
velocity v). For f ⌧ ⌧ , the power distribution is practicallyexp(−|s|/τ ) , of τf , =
independent MB
which (8.6.23)
implies a practically “white” spectrum, with
M
The power spectrum is then expressed as
4kT ⌧
w( f ) ' Z= 4BkT . (23)
4kBM T ∞ −s/τ 4kB T τ 1
w(f ) = ds e cos(2πf s) = . (8.6.24)
M 0 M 1 + (2πf τ )2

Note that w(f ) satisfies the relation


Z ∞
2kB T ∞ kB T
df w(f ) = tan−1 (2πf τ ) = = hvx2 i, (8.6.25)
0 πM 0 M
K(s)

15.5 234
Spectral analysis of fluctuations:
CHAPTERthe8.Wiener–Khintchine
NONEQUILIBRIUM theoremSTATISTICAL
615 MECHANICS s
"2! "! 0 ! 2!

K(s)

w (f )
"2! "! 0 ! 2!

0 f∗ 1
2!
f

FIGURE 15.9 The autocorrelation function K (s) and the power distribution function w( f ) of a variable that has
Figure 8.9: (a) The auto-correlation function K(s) through
been filtered and (b) its power
a lightly spectrum
damped forwith
tuned circuit, themean
special case of
frequency a filtered
f ⇤ and width 1f ⇠ (1/ ).
variable with mean frequency f ∗ and width ∆f ∼ 1/σ. [Figure extracted from Pathria & Beale (2011).]

We can then write for the velocity fluctuations in the frequency range ( f , f + 1f ), with
f ⌧ ⌧ 1 , theorem.
w (f )

in agreement with the equipartition


Note that a characteristic frequency, τ −1 , has emerged,
h1vx2 i( f , f so that for f  τ −1 , w(f )
+1f ) ' w( f )1f ' (4BkT )1f . (24)
0 f ∗
practically does not depend on
1 the frequency (the so-called ‘white spectrum’),
2! In general, our measuring instrument (or the eye, in the case of a visual examination of
f 4kB T τ has a finite response time−1
the particle) ⌧0 , as a consequence of which it is unable to respond
w(f ) to 'frequencies=larger
4Bkthan,
B T, say, f ⌧1 . The
τ observed
. (8.6.26)
fluctuation is then given by the “pruned”
FIGURE 15.9 M w( f ) of a variable that 0has
The autocorrelation function K (s) and the power distribution function
expression
been filtered through a lightly damped tuned circuit, with mean frequency f ⇤ and width 1f ⇠ (1/ ).
On the other hand, in the regime f  τ −1 , Eq. (8.6.24) 1/⌧
yields
Z 0 ✓ ◆
2 2kT 1 ⌧
hv
We can then write for the velocity fluctuations in the frequency 1range ( f , f + −1
x i '
1f ), with
obs w( f )df = tan 2⇡ , (25)
⇡M ⌧0
1
f ⌧⌧ ,
w(f ) ' , f  τ , 0 (8.6.27)
f2
2
instead of the “full” expression (22). In a typical case, the mass of the Brownian particle
) ' w(
redf )1f 10 . 12 g, its
h1vknown
a regime x i( f , f +1f as ' (4BkT
noise or⇠Brown
)1f noise. 2
4(24)
M cm, and the coefficient of viscosity of the fluid ⌘ ⇠ 10 2
diameter 2a ⇠ 10
poise, so that the relaxation time ⌧ = M/(6⇡⌘a) ⇠ 10 7 seconds. However, the response
In general,
In general, our measuring if K(s)
instrument (ordecays after
the eye, in some
the⌧case of atime
visual∆, then w(fof) has a white noise1 (flat)
examination
−1
time 0 , in the case of visual observation, is of the order of 10 s; clearly, ⌧/⌧0 ⇠ 10 6 ⌧ 1.
behaviour
the particle) has a finite responsefortime 0 ⌧< f a.consequence
0 , as ∆ , decaying to zero
of which at larger
it is unable frequencies. The low-frequency
to respond
to frequencies largerregime
than, say, ⌧0 1 . The observed
essentially fluctuation
guarantees is then
that the given by thebetween
interference “pruned”all Fourier components in
expression this range is only dominantly constructive for s . ∆. The interference becomes
destructive atZ 0 longer times (see
1/⌧ ✓ Example
◆ 1), in which regime the rate of decay of
2kT ⌧
K(s)hvwill
2
i
x obs
determine
' w( f )df the
= behaviour
tan 1
2⇡ of , the tail of w(f ). Indeed,
(25) in the above example
⇡M ⌧0 −2 .
the exponential
0 decay of K(s) leads to the tail w(f ) ∼ f
instead of the “full”Se tivermos
expression umIn instrumento
(22). a typical case, de
the medida queBrownian
mass of the só consegue captar frequencias até um
particle
M ⇠ 10 12 g, its diameter ⇠ 10 4 cm,
valor2amaximo and
1/τ 0 the coefficient
(tempo de of viscosity
resposta & of
τ0 the
), fluid
as 10
componentes
⌘ ⇠ 2
de frequencia > 1/τ0
poise, so that the relaxation time ⌧ = M/(6⇡⌘a) ⇠ 10 7 seconds. However, the response
não serão observadas. Em consequencia, as flutuações observadas serão dadas pela
time ⌧0 , in the case of visual observation,
expressão truncada: is of the order of 10 1 s; clearly, ⌧/⌧0 ⇠ 10 6 ⌧ 1.

1/τ0  
2kB T 2kB T τ
Z
1/τ0
hvx2 iobs = w(f ) df = tan−1 (2πf τ ) 0
= tan−1
2π .
0 πM πM τ0
Exemplo (dados ∼ correspondentes às medidas de Pospisil (1927) em particulas de
fuligem, ver problema 14.9 do Pathria): M ' 10−12 g, diametro 2a ' 10−4 cm,
2
For the many ‘noise colours’ see, e.g. http://en.wikipedia.org/wiki/Colors of noise
8.7. BOLTZMANN EQUATION 235

η ' 10−2 poise (⇒ τ = M B = M/6πηa ' 10−7 s). Para observação visual,
τ0 ' 10−1 s. Portanto,

4kB T τ kB T
hvx2 iobs ' ' 4 × 10−6 .
M τ0 M

Aplicação a flutuações espontaneas no movimento de eletrons (corrente eletrica) em


circuitos LR (notar: estamos considerando um circuito em que a força eletromotriz
externamente imposta é nula, portanto temos apenas flutuações; pelos argumentos
usuais, a indutância L corresponde à “massa”; a resistência R é o atrito). Neste caso,
o tempo caracterı́stico de relaxação [exponencial] do sistema é τ 0 = L/R, portanto
Z ∞
4kB T τ 0 1 kB T
w(f ) = 0 2
⇒ w(f ) df = = hI 2 i ,
L 1 + (2πf τ ) 0 L

de acordo com a equipartição, h 21 LI 2 i = 21 kB T . De novo, para f  1/τ 0 , estamos na


região de white noise, e

4kB T 4kB T
w(f ) ' ⇒ h∆I 2 i(f,f +∆f ) ' ∆f ⇒ h∆V 2 i(f,f +∆f ) ' 4RkB T ∆f .
R R
Portanto, para f  1/τ 0 a densidade espectral V 2 (f ) = 4RkB T (teorema de Nyquist).
Lembrando que τ 0 ' 10−14 s, (ordem de grandeza do tempo entre colisões sucessivas
de um eletron), a densidade espectral das flutuações de voltagem tem um espectro
plano (white noise) até frequencias da ordem de microondas (∼ 1014 Hz).

8.7 Boltzmann Transport Equation3


8.7.1 Derivation
Consideremos um gás clássico diluı́do de partı́culas de massa m. Definamos uma função
f (r, v, t), tal que f (r, v, t) d3 r d3 v fornece o número médio de moléculas num volume
d3 r centrado em r, e com velocidades num intervalo d3 v centrado em v; assim, o ar-
gumento de f é um ponto no espaço de fases de dimensão 6, (r, v), além do tempo.
Admite-se, implicitamente, que o volume dγ ≡ d3 r d3 v seja infinitesimal, mas ainda su-
ficientemente extenso para conter um número grande de pontos, já que cada um destes
representa o estado de movimento de uma partı́cula; isto permite supor que f (r, v, t)
varie muito pouco em dγ. A função f (r, v, t) fornece, portanto, a descrição completa
do estado macroscópico do gás diluı́do, sem levar em conta eventuais perturbações, de
não-equilı́brio, aos graus de liberdade internos de cada molécula.4 A partir desta função
3
Based on Huang, Reif, and Reichl.
4
Devemos enfatizar que este espaço de fases difere daquele utilizado no Cap. 1 no sentido de que
lá, cada ponto no espaço 6N -dimensional representava o estado de todo o sistema de N partı́culas;
sua evolução temporal descrevia uma trajetória neste espaço, e o ensemble corresponde a vários destes
pontos, distribuı́dos de acordo com a função ρ(t) que satisfaz o Teorema de Liouville.
236 CHAPTER 8. NONEQUILIBRIUM STATISTICAL MECHANICS

Figure 8.10: (a) Projection of the 6-dimensional infinitesimal ‘volume’ element onto the two-dimensional one,
(x, vx ). (b) Variation in the number of particles due to flow through faces with constant x: in through the left
(x), out through the right (x + dx).

pode-se calcular quantidades de interesse, como coeficientes de viscosidade e condutivi-


dade térmica.
Nosso primeiro objetivo é, portanto, obter uma equação de movimento para f (r, v, t).
Para isto, consideremos um elemento de volume fixo no espaço de fases, como indica
a Fig. 8.10(a).5 O número de moléculas (ou, equivalentemente, o número de pontos
representativos) neste elemento varia com o tempo devido a colisões entre partı́culas,
forças externas, etc. Esta variação é
∂f
δN = dγ dt (8.7.1)
∂t
Por simplicidade, separemos os efeitos das colisões dos demais, como campo externo.
Assim, na ausência de colisões, decorrido um intervalo de tempo dt, as partı́culas que
estavam em (r, v) estarão em
r0 = r + v dt, (8.7.2)
com velocidade
F
v0 = v +
dt, (8.7.3)
m
O número de partı́culas entrando pela face x = constante do volume dγ, em um intervalo
dt [veja a Fig. 8.10(b)] é aquele contido no volume (ẋ dt) dy dz dvx dvy dvz ,
f (r, v, t) ẋ dt dy dz dvx dvy dvz . (8.7.4)
Analogamente, o número de partı́culas saindo pela face x + dx do mesmo volume no
mesmo intervalo dt [Fig. 8.10(b)] é

f (r, v, t) ẋ dt dy dz dvx dvy dvz , (8.7.5)


x+dx

onde

f (r, v, t) ẋ ≈ f (r, v, t) ẋ + (f ẋ) dx. (8.7.6)
x+dx x ∂x x
5
Alternativamente, pode-se acompanhar a evolução temporal de um elemento de volume; veja Reif
Seção 13.2.
8.7. BOLTZMANN EQUATION 237

Logo, a contribuição total para ∂f /∂t das faces x e x + dx para a taxa de variação
do número de partı́culas no entorno de (r, v) num intervalo dt é
  
∂ ∂
f ẋ − f ẋ + (f ẋ) dx dy dz d3 v dt = − (f ẋ) dγ dt. (8.7.7)
∂x ∂x

Procedendo de modo análogo para as demais faces, (y, z, v), obtemos


" #
∂f ∂ ∂ ∂ ∂ ∂ ∂
dt dγ = − (f ẋ) + (f ẏ) + (f ż) + (f v̇x ) + (f v̇y ) + (f v̇z ) dt dγ,
∂t ∂x ∂y ∂z ∂vx ∂vy ∂vz
(8.7.8)
ou, ainda,

∂f X  ∂f ∂f
 X 
∂ ẋα ∂ v̇α

+ ẋα + v̇α + f + = 0. (8.7.9)
∂t α=x,y,z ∂xα ∂vα α=x,y,z
∂xα ∂vα

Como r e v são variáveis independentes no espaço de fases, ∂ ẋα /∂xα = 0; ademais,


supondo-se forças independentes de velocidade, tem-se que ∂ v̇α /∂vα = 0, de modo que
o segundo termo entre colchetes na Eq. (8.7.9) se anula. Já o primeiro termo entre
colchetes na Eq. (8.7.9) pode ser escrito em termos de gradientes nas variávies espaciais
e de velocidade, de modo que, sem ainda levar-se em conta as colisões, a equação de
movimento para f é
∂f
+ ṙ · ∇r f + v̇ · ∇v f = 0. (8.7.10)
∂t
Neste ponto, pode-se introduzir o efeito das colisões através de um termo extra no
lado direito da Eq. (8.7.10):
!
∂f ∂f
+ ṙ · ∇r f + v̇ · ∇v f = . (8.7.11)
∂t ∂t
coll

Semelhantemente ao discutido acima, o ganho lı́quido de moléculas num volume dγ


centrado em (r, v), num intervalo de tempo dt, devido a colisões pode ser expresso como
!
∂f
dγ dt ≡ (R̄ − R) dγ dt, (8.7.12)
∂t
coll

onde R fornece o número de colisões entre t e t + dt (por unidade de tempo e de volume


no espaço de fases) em que uma das moléculas em colisão se encontra inicialmente num
intervalo dγ em torno de (r, v); isto é, refere-se à perda de pontos no volume. Fica claro,
portanto, que R̄ fornece o número de colisões em que os estados finais se encontram num
intervalo dγ em torno de (r, v); isto é, refere-se ao ganho de pontos no volume.
Para determinar R e R̄, façamos algumas hipóteses simplificadoras, porém realistas:

(1) admitiremos colisões de dois corpos (binárias) apenas, o que é o esperado no regime
de gás diluı́do;
238 CHAPTER 8. NONEQUILIBRIUM STATISTICAL MECHANICS

db

g dt

Figure 8.11: Elemento de volume ocupado pelas partı́culas que, num intervalo dt e com velocidade relativa g,
colidirão com a partı́cula na origem através de um parâmetro de impacto entre b e b + db. [Figura cedida por SLA
de Queiroz]

(2) não levaremos em consideração as paredes do recipiente;

(3) a presença de F não afeta as seções de choque;

(4) v e r de cada partı́cula não têm correlação entre si; esta é conhecida como a hipótese
do caos molecular.

De acordo com (4), podemos escrever que o número de pares de partı́culas num
volume d3 r em torno de r (o qual virá a ser o ponto de colisão) com velocidades em
intervalos d3 v1 e d3 v2 em torno de v1 e v2 , respectivamente, é

[f (r, v1 , t) d3 r d3 v1 ][f (r, v2 , t) d3 r d3 v2 ]. (8.7.13)

Para o cálculo de R, concentremos nossa atenção numa partı́cula com velocidade v1


dentro de um intervalo d3 v1 , no ponto de colisão r, dentro de um volume d3 r. Neste
mesmo volume há moléculas com v2 que atuarão como partı́culas incidentes numa colisão
com as de velocidade v1 . Logo, o fluxo deste feixe incidente (i.e., número de partı́culas
por unidades de área e de tempo) é

f (r, v2 , t) d3 r d3 v2
I= , (8.7.14)
área · tempo

sendo que o elemento de volume relevante é o da casca cilı́ndrica mostrada na Fig. 8.11,
a saber, d3 r = g dt 2π b db. Com isto,

I = f (r, v2 , t) g d3 v2 (8.7.15)

Para referência futura, denotemos os processos de colisões destas partı́culas por


(v1 , v2 ) → (v10 , v20 ). O número destas colisões num intervalo de ângulo sólido dΩ, no
entorno de Ω é obtido multiplicando-se I pela seção de choque de espalhamento, σ(Ω)dΩ,
e pelo intervalo de tempo, dt:

Iσ(Ω) dΩ dt = f (r, v2 , t) |v2 − v1 |σ(Ω) dΩ d3 v2 dt. (8.7.16)


8.7. BOLTZMANN EQUATION 239

Somando agora sobre os diferentes v2 , e multiplicando pela densidade de probabilidade


em (r, v1 ), obtemos, finalmente,
Z Z
3
R = f (r, v1 , t) d v2 dΩ σ(Ω)|v2 − v1 |f (r, v2 , t). (8.7.17)

O cálculo de R̄ segue na mesma linha, com as adaptações a seguir. Por exemplo,


consideraremos colisões do tipo (v10 , v20 ) → (v1 , v2 ), com v1 fixo. Assim, pensemos em
uma molécula com uma velocidade v10 sobre a qual incide um feixe com velocidade v20 .
O fluxo incidente agora é
I = f (r, v20 , t) |v20 − v10 | d3 v20 , (8.7.18)
de modo que o número de colisões deste tipo num intervalo dt é obtido multiplicando-se
I por σ 0 (Ω)dΩ dt. A taxa R̄ é dada por
Z Z
R̄ d3 v1 = d3 v20 dΩ σ 0 (Ω)|v20 − v10 |[f (r, v10 , t)d3 v10 ]f (r, v20 , t). (8.7.19)

Lembrando que (v10 , v20 ) e (v1 , v2 ) se referem a colisões elásticas que são as respectivas
inversas, temos que σ 0 (Ω) = σ(Ω). Além disso, as propriedades de colisões elásticas de
mesma massa [veja, p.ex., Reif, Seção 14.2 ou Huang, Seção 3.2.]
|v20 − v10 | = |v2 − v1 |, (8.7.20)
e
d3 v10 d3 v20 = d3 v1 d3 v2 , (8.7.21)
nos permitem escrever
Z Z
R̄ d3 v1 = d3 v2 d3 v1 dΩ σ(Ω)|v2 − v1 |f (r, v10 , t)f (r, v20 , t), (8.7.22)

tendo em mente que para v1 fixo, v10 e v20 são funções de v1 , v2 , e Ω.


Combinando os resultados para R e R̄, a Eq. (8.7.12) fornece
!
∂f
Z Z
= (R̄ − R) = d v2 dΩ σ(Ω)|v2 − v1 |(f10 f20 − f1 f2 ),
3
(8.7.23)
∂t
coll
onde usamos a notação compacta
fi ≡ f (r, vi , t), fi0 ≡ f (r, vi0 , t), i = 1, 2. (8.7.24)
Com isto, obtemos, finalmente, a Equação de Transporte de Boltzmann,
 
∂ F
Z Z
+ v1 · ∇ r + · ∇v1 f1 = d v2 dΩ σ(Ω)|v2 − v1 |(f10 f20 − f1 f2 ).
3
(8.7.25)
∂t m
Testemos a consistência no equilı́brio. Supondo F = 0, espera-se que, no equilı́brio,
f não dependa do tempo e seja dada pelo fator de Boltzmann:
1
f (r, v, t) → f (v) ∼ e−βK , K = mv 2 ; (8.7.26)
2
Logo, f10 f20 ∼ exp[β(K10 + K20 )] = f1 f2 ∼ exp[β(K1 + K2 )], de modo que o lado direito
da Eq. (8.7.25) se anula e, como ∇r f = 0, obtemos, consistentemente, ∂f /∂t = 0.
240 CHAPTER 8. NONEQUILIBRIUM STATISTICAL MECHANICS

8.7.2 The Relaxation Time Approximation


Reescrevamos a equação de transporte de Boltzmann (ETB), Eq. (8.7.25), como
  !
∂ F ∂f
+ v · ∇r + · ∇v f = , (8.7.27)
∂t m ∂t
coll

onde o ı́ndice 1 foi removido, por desnecessário neste contexto.


Suponhamos que o efeito das colisões seja sempre o de restaurar uma situação de
equilı́brio local, descrita pela função de distribuição f (0) (r, v, t). Assim pode-se supor
que !
∂f f − f (0)
=− . (8.7.28)
∂t τ
coll
Com efeito, na ausência dos termos em gradiente, e definindo
δf ≡ f − f (0) , (8.7.29)
temos
∂ δf
δf = − , (8.7.30)
∂t τ
cuja solução é um decaimento exponencial numa escala de tempo τ ,
δf (r, v, t) = δf (r, v, 0) e−t/τ , (8.7.31)
justificando, assim, chamar este procedimento de aproximação do tempo de relaxação.
Como aplicação, calculemos a condutividade elétrica de um gás de partı́culas de
massa m e carga elétrica e, em presença de um campo elétrico uniforme E = E ẑ.
Suponhamos que as colisões com os ı́ons da rede levem a uma distribuição de equilı́brio
local,
1
f (0) (r, v, t) = g(ε), ε = mv 2 (8.7.32)
2
onde
mβ 1/2 −βε
 
g(ε) = n e , (8.7.33)

é a distribuição de Maxwell-Boltzmann (para um gás de elétrons suficientemente diluı́do),
com n sendo a densidade de partı́culas.
Supondo que o campo elétrico uniforme E não dependa do tempo, pode-se esperar
que a nova função de distribuição, f (r, v, t) não dependa de r e t. Nestas condições, a
ETB envolve apenas a componente z, sendo escrita como
eE ∂f f − f (0)
=− . (8.7.34)
m ∂vz τ
Para um campo elétrico suficientemente pequeno, podemos supor que f difere muito
pouco de f (0) = g, e com
f = g + f (1) , com f (1)  g, (8.7.35)
8.7. BOLTZMANN EQUATION 241

a Eq.(8.7.34) fica
eE ∂g eE ∂f (1) f (1)
+ =− , (8.7.36)
m ∂vz m ∂v τ
| {z z }
O(f (1) E)≈0

cuja solução é
dg
f (r, v, t) = g(ε) − eEτ vz . (8.7.37)

A densidade de corrente ao longo de uma direção n̂ é o fluxo de carga através de um
elemento de área nesta direção,
Z
jn = e d3 vf vn . (8.7.38)

Note que na ausência de campo elétrico, tanto τ quanto g dependem apenas de |v|, de
modo que o integrando é uma função ı́mpar de vn , levando a jn = 0, um resultado já
esperado para a situação de equilı́brio. Em presença de E = E zv,
ˆ todavia, devemos ter
jz 6= 0, e, dado que
dg
= −βg, (8.7.39)

obtemos uma expressão para a condutividade elétrica

jz
Z
σel ≡ = βe2 d3 v g τ vz2 . (8.7.40)
E

Neste ponto, necessitarı́amos explicitar a dependência de τ com v, a qual pode ser


obtida, em princı́pio, através de cálculos bastante extensos; veja Reif, Sec. 12.2. Para
nossos propósitos aqui, podemos substituir τ (v) por um valor médio constante τ ,
Z
σel ≈ βe2 τ d3 v g vz2 = βe2 τ [nvz2 ]. (8.7.41)

A média acima é calculada com a função de distribuição de equilı́brio, g, de modo que


vale a equipartição da energia, fornecendo o resultado já conhecido do modelo de Drude
(veja, p.ex., Ashcroft & Mermin, Cap. 1),

ne2
σel = τ. (8.7.42)
m

Note que se a distribuição de Fermi-Dirac, g(ε) ∝ [eβ(ε−µ) + 1]−1 , tivesse sido utilizada,
então apenas os elétrons com energias próximas à energia de Fermi contribuiriam para
a condutividade, de modo que τ é substituı́da por um valor τF , sem necessidade da
aproximação que levou à média.
242 CHAPTER 8. NONEQUILIBRIUM STATISTICAL MECHANICS

8.7.3 Boltzmann’s H Theorem


Definamos a função
Z Z
H(t) ≡ d3 r1 d3 v1 f (r1 , v1 , t) ln f (r1 , v1 , t), (8.7.43)

e tomemos a derivada temporal,


dH ∂f1
Z Z
= d3 r1 d3 v1 [ln f1 + 1] . (8.7.44)
dt ∂t
Usando o fato de que ∂f1 /∂t deve satisfazer a Equação de Transporte de Boltzmann, e
considerando F = 0, podemos escrever
dH
Z Z
= d3 r1 d3 v1 (−v1 · ∇r f1 ) [ln f1 + 1]
dt
Z Z Z Z
+ d3 r1 d3 v1 d3 v2 dΩ σ(Ω)|v2 − v1 | (f10 f20 − f1 f2 ) [ln f1 + 1] . (8.7.45)

O primeiro termo pode ser transformado em uma integral de superfı́cie, a qual dá
contribuição nula se admitirmos que f → 0 quando r e p → ∞. Ficamos, então, com
dH
Z Z Z Z
= d3 r1 d3 v1 d3 v2 dΩ σ(Ω)|v2 − v1 | (f10 f20 − f1 f2 ) [ln f1 + 1] , (8.7.46)
dt
que, intercambiando p1 com p2 , fornece
dH
Z Z Z Z
= d3 r1 d3 v1 d3 v2 dΩ σ(Ω)|v2 − v1 | (f10 f20 − f1 f2 ) [ln f2 + 1] . (8.7.47)
dt
Somando e dividindo por 2 as Eqs. (8.7.46) e (8.7.47), vem
dH 1
Z Z Z Z
= d3 r1 d3 v1 d3 v2 dΩ σ(Ω)|v2 − v1 | (f10 f20 − f1 f2 ) [ln f1 + ln f2 + 2] .
dt 2
(8.7.48)
0 0
De modo análogo, intercambiando v1 com v1 , e v2 com v2 , obtemos
dH 1
Z Z Z Z
d3 r1 d3 v10 d3 v20 dΩ σ(Ω)|v2 − v1 | (f1 f2 − f10 f20 ) ln f10 + ln f20 + 2 .
 
=
dt 2
(8.7.49)
3 0 3 0 3 3
Lembrando que d v1 d v2 = d v1 d v2 , e, somando (8.7.48) com (8.7.49), chegamos a
 
dH 1 f1 f2
Z Z Z Z
3 3 3 0 0
= d r1 d v1 d v2 dΩ σ(Ω)|v2 − v1 | (f1 f2 − f1 f2 ) ln 0 0 . (8.7.50)
dt 4 f1 f2
O termo entre colchetes em (8.7.50) é da forma [(y − x) ln(x/y)] que é sempre ≤ 0.
Com isto, estabelecemos, finalmente, o Teorema H de Boltzmann: Se f satisfaz a
equação de transporte de Boltzmann, então
dH
≤ 0. (8.7.51)
dt
Figura
esolva2 abaixo. Uma campainha
esta ultima toca a inter- de Fourier.
por transformada
m a vida do rato). Cada vez que a campainha
deAquarto, ele tem
função de aautocorrelação
mesma probabilidade
K(s) de de uma variavel estatisticamente
em que está.8.8.Aproximadamente
EXERCISES −αque
2 2fração de
s ∗ 243
da por: K(s) = K(0) e cos(2πf s). Calcule o espectro de poten
u comportamento nos
Consequentemente, limites:
dH/dt (i) α
= 0 se, e somente se, f→
0 0
1 f2 =0;f1f(ii) f ∗ que
2 , de modo →sob0,condições
e (iii) ambos α e
da a outrainiciais
caixaarbitrárias,
de volume devemosinfinito
ter f (v, t)por
→t→∞um f0 (v), onde f0 é a distribuição de equilı́brio.
Assim, a função H(t) decresce no tempo até atingir o equilı́brio.
ita que a probabilidade
Como −H(t) p de uma
cresce no tempo,particula se a entropia de não-equilı́brio como
pode-se definir
3
3
t, onde n ≡ numero de particulas X 4em A, e aZ 3 3
S(t) = −kB H(t) = −kB d r d v f ln f, (8.7.52)
para A no intervalo ∆t é ρ∆t (ρ = constante).
de modo que quando f tende à distribuição de equilı́brio de Maxwell-Boltzmann, S não
probabilidade de particulas em Ape resolva-a,
mais p
depende do tempo: o sistema
p’
atingiu o estado de equilı́brio.
mero medio de particulas em A, e a variancia,
ação mestra8.8
paraExercises
a equação de Fokker-Planck,
ier. 1 Quar
2 X 1
1. Um rato treinado vive na casa mostrada na Fig. 8.12. Uma campainha toca a inter-
valos regulares p
(muito pequenos comparados com a vida do rato). Cada vez que a
variavel estatisticamente
campainha toca, o estacionaria
rato muda de quarto.y(t)Quando
é muda de quarto, ele tem a mesma
alcule o espectro de potencia w(f ), e discuta
probabilidade de passar por qualquer uma das portas do quarto em que está. Aprox-
imadamente que fração de Figura
sua vida o 1
rato passa em cada quarto?
f ∗ → 0, e (iii) ambos α e f ∗ → 0.

B
Quarto A
A

1 Quarto B Quarto C
n,Ω
ρ
Figura 2
Figure 8.12: Problema 1.

Figura 3
Figure 8.13: Prob. 2.

B
2. Considere uma caixa de volume Ω conectada a outra caixa de volume infinito por um
pequeno buraco (vide Fig. 8.13). Admita que a probabilidade de uma partÃcula se
mover de A para B no intervalo ∆t é (n/Ω)∆t, onde n ≡ número de partÃculas em
A, e a probabilidade de uma partÃcula se mover de B para A no intervalo ∆t é ρ∆t
(ρ = constante).
ρ (a) Escreva a equação mestra para a distribuição de probabilidade de partÃculas em
A.
ra 3 (b) Calcule o número médio de partÃculas em A, e a variância, como função do
tempo. Suponha que em t = 0, n = n0 . [Sugestão: passe da equação mestra para
a equação de Fokker-Planck, e resolva esta última por transformada de Fourier.]
244 CHAPTER 8. NONEQUILIBRIUM STATISTICAL MECHANICS

3. Um spin-1/2, em contato com um reservatório térmico e na ausência de campo ex-


terno, executa transições entre os estados +1 e −1 à razão de α/2 transições por
unidade de tempo, indistintamente se é de +1 para −1, ou vice-versa. Seja P (σ, t) a
probabilidade do spin assumir o valor σ no instante t.

(a) Escreva uma equação mestra para P (σ, t), desprezando a possibilidade de não
haver transições.
(b) Calcule a magnetização média como função do tempo, sabendo que σ=+1 em
t=0. Discuta fisicamente seus resultados.
(c) Comente sobre como a temperatura e o campo magnético (nulo, no presente caso)
entram implicitamente no problema. Em particular, discuta como um campo
não-nulo afetaria o resultado do item (b).

4. A função de autocorrelação K(s) de uma


 variável estatisticamente estacionária y(t)
é dada por: K(s) = K(0) exp −α2 s2 cos(2πf ∗ s). Calcule o espectro de potência
w(f ), e discuta seu comportamento nos limites: (i) α → 0; (ii) f ∗ → 0, e (iii) ambos
α e f ∗ → 0.
Bibliography

[1] R. Balescu, Equilibrium and Non-Equilibrium Statistical Mechanics. Wiley, 1975.

[2] K. Huang, Statistical Mechanics. Wiley, 2nd ed., 1987.

[3] R. K. Pathria, Statistical Mechanics. Butterworth-Heinemann, 2nd ed., 1996.

[4] R. K. Pathria and P. D. Beale, Statistical Mechanics. Butterworth-Heinemann,


3rd ed., 2011.

[5] L. E. Reichl, A Modern Course in Statistical Physics. Wiley, 2nd ed., 1998.

[6] L. Reichl, A Modern Course in Statistical Physics. Physics textbook, Wiley, 4th ed.,
2016.

[7] R. R. dos Santos, Quantum Mechanics. Lecture Notes, UFRJ, 2014.

[8] I. Prigogine, Non-Equilibrium Statistical Mechanics. Wiley, 1962.

[9] H. Stanley, Introduction to Phase Transitions and Critical Phenomena. Interna-


tional series of monographs on physics, Oxford University Press, 1971.

[10] F. Reif, Fundamentals of Statistical and Thermal Physics. Waveland Press, 2009.

[11] F. Reif, Statistical Physics: Berkeley Physics Course, Vol. 5. Berkeley Physics
Course, McGraw-Hill, 1967.

[12] R. B. Griffiths, “A proof that the free energy of a spin system is extensive,” Journal
of Mathematical Physics, vol. 5, no. 9, pp. 1215–1222, 1964.

[13] N. Ashcroft and N. Mermin, Solid State Physics. Holt, Rinehart and Winston, 1976.

[14] L. Landau and E. Lifshitz, Quantum Mechanics: Non-Relativistic Theory. Course


of Theoretical Physics, Elsevier Science, 1981.

[15] H. D. Young and R. A. Freedman, University Physics. Pearson, 13th ed., 2012.

[16] D. Stauffer and A. Aharony, Introduction To Percolation Theory. Taylor & Francis,
2nd ed., 2003.

245
246 BIBLIOGRAPHY

[17] R. B. Stinchcombe, “Dilute magnetism,” in Phase Transitions and Critical Phenom-


ena (C. Domb and J. L. Lebowitz, eds.), vol. 7, pp. 266–290, New York: Academic
Press, 1983.

[18] D. Belanger, “Experimental characterization of the Ising model in disordered anti-


ferromagnets,” Braz. J. Phys., vol. 30, p. 682, 2000.

You might also like