Il 0% ha trovato utile questo documento (0 voti)
448 visualizzazioni201 pagine

Appunti MQ

Caricato da

Marta Herranz
Copyright
© © All Rights Reserved
Per noi i diritti sui contenuti sono una cosa seria. Se sospetti che questo contenuto sia tuo, rivendicalo qui.
Formati disponibili
Scarica in formato PDF, TXT o leggi online su Scribd
Il 0% ha trovato utile questo documento (0 voti)
448 visualizzazioni201 pagine

Appunti MQ

Caricato da

Marta Herranz
Copyright
© © All Rights Reserved
Per noi i diritti sui contenuti sono una cosa seria. Se sospetti che questo contenuto sia tuo, rivendicalo qui.
Formati disponibili
Scarica in formato PDF, TXT o leggi online su Scribd
Sei sulla pagina 1/ 201

Appunti di Meccanica Quantistica

Primo Modulo

Giulio Pettini

1
Indice

Introduzione 6

1 Postulati della Meccanica Quantistica 7


1.1 Enunciato dei Postulati della Meccanica Quantistica . . . . . . . . . . . . . . . . 7
1.2 Formalismo dei bra e ket - Sovrapposizione . . . . . . . . . . . . . . . . . . . . . 9
1.2.1 Kets . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.2.2 Prodotto Scalare - Basi ortonormali complete . . . . . . . . . . . . . . . . 10
1.2.3 Operatori lineari - Commutatori . . . . . . . . . . . . . . . . . . . . . . . 12
1.2.4 Operatori hermitiani . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
1.2.5 Funzioni di operatori . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
1.2.6 Operatori Unitari . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
1.2.7 Richiamo al problema agli autovalori con esempi . . . . . . . . . . . . . . 20
1.2.8 Diagonalizzazione di due operatori hermitiani commutanti . . . . . . . . . 23
1.2.9 Operatori Normali . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
1.2.10 Derivata di un operatore rispetto a un parametro e formula di BCH . . . 26
1.2.11 Proiettori (Forte) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
1.2.12 Osservabile posizione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
1.2.13 Operatore derivata e operatore impulso . . . . . . . . . . . . . . . . . . . 33
1.3 Crisi della fisica classica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
1.3.1 Potere emissivo del corpo nero . . . . . . . . . . . . . . . . . . . . . . . . 38
1.3.2 Effetto fotoelettrico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
1.3.3 Effetto Compton . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
1.3.4 Spettri e livelli atomici - Stabilità degli atomi . . . . . . . . . . . . . . . . 42
1.3.5 Dualismo onda-corpuscolo: onde materiali . . . . . . . . . . . . . . . . . . 45
1.3.6 Principio di Indeterminazione . . . . . . . . . . . . . . . . . . . . . . . . . 46
1.3.7 Parallelo Ottica-Meccanica . . . . . . . . . . . . . . . . . . . . . . . . . . 48

2
1.4 Esperimenti di Stern-Gerlach in sequenza e Doppia fenditura: Verso i Postulati
della Meccanica Quantistica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
1.4.1 Esperimento di Stern-Gerlach . . . . . . . . . . . . . . . . . . . . . . . . . 49
1.4.2 Esperimenti di Stern-Gerlach in sequenza - (Sakurai-Napolitano) . . . . . 51
1.4.3 Esperimento della doppia fenditura (double slit experiment) . . . . . . . . 54
1.5 Esperienze e ritorno ai postulati . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
1.5.1 Stern-Gerlach in sequenza . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
1.5.2 Prodotto delle indeterminazioni di due osservabili non compatibili . . . . 58
1.5.3 Doppia fenditura . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
1.6 Ulteriore discussione dei postulati . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
1.6.1 Evoluzione temporale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
1.6.2 Operatore impulso e traslazioni . . . . . . . . . . . . . . . . . . . . . . . . 64
1.6.3 Pacchetto minimizzante ∆x̂ · ∆p̂ . . . . . . . . . . . . . . . . . . . . . . . 66
1.6.4 Stati stazionari . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
1.7 Rappresentazione di Heisenberg . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70
1.7.1 Leggi del moto in HP . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72
1.7.2 Leggi di conservazione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72
1.7.3 Teorema di Ehrenfest . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73

2 Problemi in una dimensione 75


2.1 Equazione di Schroedinger nella base |xi . . . . . . . . . . . . . . . . . . . . . . . 75
2.2 Applicazioni nel caso libero . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
2.2.1 Onda libera viaggiante . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
2.2.2 Parità . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78
2.2.3 Evoluzione libera di un pacchetto di forma generica . . . . . . . . . . . . 79
2.2.4 Evoluzione libera di un pacchetto gaussiano . . . . . . . . . . . . . . . . . 82
2.3 Proprietà generali dell’equazione di Schroedinger . . . . . . . . . . . . . . . . . . 85
2.3.1 Equazione di continuità . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85
2.3.2 Proprietà generali delle soluzioni nel caso stazionario . . . . . . . . . . . . 86
2.3.3 Wronskiano e soluzioni in una dimensione . . . . . . . . . . . . . . . . . . 90
2.4 Applicazioni a problemi di urto . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92
2.4.1 Barriera di Potenziale Rettangolare - Effetto tunnel . . . . . . . . . . . . 92
2.4.2 Gradino di potenziale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 98
2.5 Applicazioni a stati legati . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101
2.5.1 Buca di potenziale simmetrica di altezza infinita (buca rigida) . . . . . . . 101

3
2.5.2 Buca infinita asimmetrica di larghezza a . . . . . . . . . . . . . . . . . . . 104
2.5.3 Buca quadrata simmetrica di altezza finita . . . . . . . . . . . . . . . . . 109
2.5.4 Buca di potenziale a δ di Dirac . . . . . . . . . . . . . . . . . . . . . . . . 114
2.6 Oscillatore armonico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 115
2.6.1 Soluzione dell’oscillatore armonico risolvendo l’equazione differenziale . . 115
2.6.2 Soluzione algebrica dell’oscillatore armonico . . . . . . . . . . . . . . . . . 120
2.6.3 Operatori x̂, x̂2 , x̂3 ed elementi diagonali di x̂4 . . . . . . . . . . . . . . . . 125
2.6.4 Oscillatore shiftato . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 126
2.6.5 Ulteriori osservazioni . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 127
2.6.6 Oscillatore fermionico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 129
2.6.7 Stati coerenti dell’oscillatore armonico . . . . . . . . . . . . . . . . . . . . 130

3 Passaggio a più dimensioni e/o più gradi di libertà (Postulato V) 135


3.1 Prodotto tensoriale di spazi vettoriali . . . . . . . . . . . . . . . . . . . . . . . . . 135
3.2 Generalizzazione a più dimensioni e più gradi di libertà . . . . . . . . . . . . . . 138
3.3 Problemi di stati legati in due dimensioni . . . . . . . . . . . . . . . . . . . . . . 140
3.3.1 Oscillatore isotropo in due dimensioni . . . . . . . . . . . . . . . . . . . . 140
3.3.2 Forma quadratica in due dimensioni . . . . . . . . . . . . . . . . . . . . . 141

4 Teoria delle perturbazioni stazionarie 143


4.1 Caso non degenere . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 143
4.2 Caso degenere . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 147
4.3 Applicazioni . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 149

5 Momento angolare 154


5.1 Momento angolare orbitale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 154
5.1.1 Rotatore rigido piano . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 158
5.1.2 Armoniche Sferiche . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 160
5.1.3 Armoniche sferiche, potenze delle componenti del vettore posizione e con-
tenuto di momento angolare . . . . . . . . . . . . . . . . . . . . . . . . . . 164
5.1.4 Momento angolare come generatore delle rotazioni . . . . . . . . . . . . . 168
5.2 Teoria generale del momento angolare . . . . . . . . . . . . . . . . . . . . . . . . 171
5.2.1 Ulteriori proprietà dell’algebra . . . . . . . . . . . . . . . . . . . . . . . . 174
5.3 Spin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 176
5.3.1 Proprietà delle matrici di Pauli . . . . . . . . . . . . . . . . . . . . . . . . 178
5.3.2 Autovettori di ~σ · n̂ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 179

4
5.3.3 Spinori e precessione dello spin . . . . . . . . . . . . . . . . . . . . . . . . 180
5.4 Composizione di momenti angolari . . . . . . . . . . . . . . . . . . . . . . . . . . 182
5.4.1 Coefficienti di Clebsch-Gordan . . . . . . . . . . . . . . . . . . . . . . . . 185

6 Problemi a simmetria sferica 188


6.1 Potenziale centrale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 188

7 Teoria delle perturbazioni dipendente dal tempo 193


7.1 Rappresentazione di interazione . . . . . . . . . . . . . . . . . . . . . . . . . . . . 196
7.1.1 Perturbazione periodica . . . . . . . . . . . . . . . . . . . . . . . . . . . . 199
7.1.2 Perturbazione costante . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 200

Bibliografia 201

5
Introduzione

Queste note contengono argomenti del primo modulo del Corso di Meccanica Quantistica per
gli studenti del Corso di Studi in Fisica e Astrofisica dell’Università di Firenze.
Sono state elaborate a partire da lezioni ed esercizi, nel corso degli anni, in particolare del Prof.
Marco Ademollo del quale seguii le lezioni e sono stato poi esercitatore e dei prof. Giorgio Longhi
e Roberto Casalbuoni, ai quali anche ho fatto esercitazioni.
Come libri di testo mi sono in parte appoggiato al libro dei Prof. Stefano Forte e Luca Rottoli
(che consiglio vivamente), in parte allo Shankar e anche ad altri testi.
Le esperienze di Stern-Gerlach in sequenza sono riprese dal libro di Sakurai-Napolitano e ci sono
comunque molti altri testi validi e interessanti.
Sono note sintetiche rielaborate in parte nel contenuto e in parte nell’ordine di presentazione de-
gli argomenti dal sottoscritto con l’intento di facilitare l’ingresso in questa materia agli studenti
del terzo anno di Fisica. Naturalmente sono incomplete in molti argomenti e comunque troppo
sintetiche e non possono sostituire lo studio eseguito consultando libri. L’intento è quindi di
fornire del materiale di supporto didattico.

6
Capitolo 1

Postulati della Meccanica


Quantistica

Cominciamo subito con l’enunciato dei Postulati, seguiti da una parte sulla notazione di Dirac
e di richiami di algebra lineare per prendere un pò di confidenza con il formalismo che sarà
utilizzato nel corso. Quindi un riassunto sulla crisi della fisica classica della prima parte del
secolo scorso. A seguire due esperienze che servono ad accettare almeno in parte i postulati.
Infine ritorneremo ai postulati stessi e alle principali conseguenze implicate.

1.1 Enunciato dei Postulati della Meccanica Quantistica

Enunciamo subito i Postulati della Meccanica Quantistica mettendoli a confronto con le ricette
classiche. Cercheremo quindi di giustificarli partendo dalla crisi della fisica classica e poi soprat-
tutto appoggiandoci a due esperienze. Potrete verificare, andando su vari testi, che i postulati
non sono quasi mai presentati in modo identico sia nel loro numero che nell’enunciato. È im-
portante quindi mettersi in condizione, studiando la materia, di comprendere che il contenuto
formale e fisico è sempre lo stesso. Naturalmente ciò richiede di tornare più volte ad analizzarli.

In Meccanica Classica (MC) lo stato di una particella ad un certo istante è specificato dalle
variabili ~x(t) , p~(t), ovvero da un punto dello spazio delle fasi.
In MQ:
Postulato I
Allo stato di un sistema quantistico (a rigore isolato - cit. Nielsen) è associato, ad ogni istante,
un vettore (che sarà indicato con il simbolo |ψ(t)i del quale parleremo presto) di uno spazio di

7
Hilbert.

In MC ogni variabile dinamica osservabile ω è una funzione di ~x e p~, ovvero ω = ω(~x, p~).
In MQ:
Postulato II
Ad ogni osservabile fisica Ω è associato un operatore lineare hermitiano (quindi a esempio anche
a ~x e p~ stessi) (una formulazione equivalente è che ai risultati possibili di misure eseguite su un
sistema sono associati stati esclusivi ed esaustivi che costituiscono una base ortonormale).

In MC se la particella è nello stato specificato da ~x e p~, la misura di ω darà il valore ω(~x, p~) e
lo stato del sistema resterà inalterato dopo la misura.
In MQ:
Postulato III
Il risultato di una misura di una osservabile Ω sarà uno degli autovalori ωi (discreti o continui
ma comunque reali) dell’operatore associato all’osservabile Ω stessa con probabilità data dal
modulo quadro della proiezione del vettore di stato sull’autovettore (o nell’autospazio) relativo
all’autovalore ωi . La misura proietta inoltre il sistema nel sottospazio relativo all’autovalore
risultato della misura (collasso del vettore di stato).

∂H ∂H
In MC le variabili di stato evolvono secondo le equazioni di Hamilton ẋi = , ṗi = − .
∂pi ∂qi
In MQ:
Postulato IV
Il vettore di stato evolve in accordo all’equazione di Schroedinger


i~ |ψ(t)i = H|ψ(t)i
∂t

dove ~ è legata alla costante di Planck h della quale parleremo tra poco e H l’operatore Hamil-
toniana ottenuto dal principio di corrispondenza (enunciato). Vedremo che questo postulato,
per sistemi isolati, può essere riformulato in termini del teorema di Stone richiedendo che l’evo-
luzione temporale sia unitaria. Tuttavia, anche se tratteremo prevalentemente sistemi isolati, ci
occuperemo anche di sistemi chiusi che quindi possono scambiare energia con un sistema esterno.
In questi casi l’Hamiltoniana può dipendere dal tempo e le due formulazioni sono equivalenti ed
equivalenti a postulare la validità dell’equazione di Schroedinger anche per Hamiltoniane dipen-
denti dal tempo.

8
Infine un postulato della MQ che vedremo più in avanti:
Postulato V
Lo spazio di Hilbert di sistemi composti è il prodotto diretto (prodotto tensoriale) degli spazi
dei singoli sottosistemi.

Cercheremo di mostrare come si arriva a comprendere la necessità della descrizione implicita nei
Postulati e ovviamente le implicazioni fisiche e formali.
Prima però è d’obbligo, almeno sinteticamente, impossessarsi degli oggetti e degli strumenti di
calcolo che serviranno nel seguito. Poi sarà doveroso cercare di riassumere alcuni fatti salienti
che misero in crisi la fisica classica e che fecero emergere la necessità di cambiare prospettiva e
contemporaneamente anche delimitare il campo di applicabilità del formalismo che adotteremo
nel corso (non i principi-Postulati della MQ che per quanto ne sappiamo restano sempre validi)
legati essenzialmente ai regimi di energie dei quali ci interesseremo nel corso. Infine parleremo
di due esperienze che servono ad accettare meglio l’impianto descritto dai Postulati e quindi
ritorneremo a questi per discuterli avendo già una certa manualità con il formalismo.

1.2 Formalismo dei bra e ket - Sovrapposizione

Per introdurre il formalismo dovuto a Dirac che sarà usato nel seguito, e in particolare il vettore
di stato che sarà indicato con |ψi, diamo per acquisita la nozione di vettore, matrice e di spazio
vettoriale. Sia ~v un vettore a esempio di Rn . Se non avessimo specificato che sta in Rn avremmo
comunque capito che si trattava di un vettore! (lo stesso varrà per |ψi che indicherà il vettore
di stato anche senza conoscere tutto dello spazio vettoriale nel quale vive). Sappiamo anche
che data una base ad esempio ortonormale (a noi interesseranno quelle ortonormali per ragioni
chiare in seguito), al vettore si può associare una n−pla con le sue componenti mettendole in
una matrice di n righe per una colonna ossia in un vettore colonna e che queste componenti
sono ottenibili dal prodotto scalare di ~v sui vettori (versori) base. Il prodotto scalare si esegue
tramite il prodotto della riga contenente le componenti di un vettore di base saturata con il
vettore colonna delle componenti di ~v (che nella base canonica è triviale). Quindi il vettore
originario in Rn si può espandere su una base ~v = ni=1 vi~ei con vi = ~v · ~ei l’usuale prodotto
P

scalare in Rn . Naturalmente vi sono infinite basi ortonormali ottenibili ruotando una base data.
Con questa brevissima e banale premessa introduciamo subito il formalismo, dovuto a Dirac, dei
ket (e dei bra). Questo formalismo permette, come vedremo, di manipolare in modo efficiente
le espressioni di interesse in MQ. Prima di tutto diciamo che in MQ ci interessaranno gli spazi

9
di Hilbert (anche Rn lo è per rassicurarvi). Uno spazio di Hilbert è uno spazio vettoriale (in
generale complesso) normato e completo (spazio di Banach) nel quale la norma è indotta dal
prodotto scalare. Vedrete che avremo a che fare di volta in volta a seconda dei casi con spazi
(in generale complessi) numerabili di dimensione finita o infinita e a volte con basi che hanno la
potenza del continuo. Tuttavia potrete rapidamente entrare nel formalismo se generalizzerete
semplicemente ciò che conoscete e che scrivereste in Rn e le manipolazioni che farete per risolvere
certi problemi nelle applicazioni saranno sempre concettualmente le stesse indipendentemente
da quale di questi casi vi troverete ad affrontare.

1.2.1 Kets

A questo punto diciamo che di qui in avanti per indicare un vettore di uno spazio di Hilbert
non precisato (se finito o infinito dimensionale e se con basi continue o discrete ecc) useremo il
simbolo |ψi, che si chiama ket, appunto vettore di uno spazio di Hilbert. Il prodotto scalare, e
quindi a esempio la norma quadrata del ket |ψi, si rappresenta affiancando a sinistra del ket il
suo corrispondente bra hψ| (elemento del duale). Ovvero, il prodotto scalare sarà indicato con
il simbolo hψ|ψi (da cui il nome bra-ket dall’inglese bracket-parentesi). Ad esempio, se siamo
in C n e abbiamo scelto una certa base (ricordiamo che ci interessano quelle ortonormali), il
ket sarà associato a un vettore colonna delle n componenti complesse e il bra sarà associato
al vettore riga ottenuto trasponendo il vettore colonna e prendendo il complesso coniugato di
ciascuna componente. Introducendo la coniugazione hermitiana † che corrisponde per le matrici
a prendere il trasposto coniugato si ha che hψ| = |ψi† .
In tal modo l’usuale prodotto righe per colonne rappresenterà il prodotto scalare.
Il formalismo di Dirac è agile e compatto e molto pratico a esempio perchè è indipendente dalle
caratteristiche specifiche dello spazio di Hilbert in considerazione, mentre per i calcoli di volta
in volta utilizzeremo appunto gli usuali vettori colonna e riga o anche le componenti rispetto a
una certa base dello spazio (quindi numeri complessi o ancora funzioni).

1.2.2 Prodotto Scalare - Basi ortonormali complete

Elenchiamo quindi qualche proprietà, dati due ket |ψ1 i e |ψ2 i, del prodotto scalare:
1) - hψ1 |ψ2 i ∈ C
2) - hψ1 |ψ2 i = hψ2 |ψ1 i∗ (hermitianità)
3) - hψ|ψi ≥ 0 (per l’hermitianità è reale)

10
4) - se |φi = a|φ1 i + b|φ2 i segue hψ|φi = ahψ|φ1 i + bhψ|φ2 i (linearità)
Dalla proprietà 2) e 4) si vede che:

hφ|ψi = (ahψ|φ1 i + bhψ|φ2 i)∗ = a∗ hψ|φ1 i∗ + b∗ hψ|φ2 i∗ = a∗ hφ1 |ψi + b∗ hφ2 |ψi

ovvero se vale la 4) segue hφ| = a∗ hφ1 | + b∗ hφ2 |.


A questo punto, con questo formalismo, introduciamo alcuni tipi di manipolazioni che faremo
spesso e confrontiamo con quello che avreste fatto a esempio in Rn . Per esempio, suppondendo
di essere in uno spazio separabile, scegliamo una base (quindi numerabile) ortonormale data da
vettori |ei i (senza specificare la dimensione dello spazio o se sia finita o infinita) che soddisfano
quindi, essendo di norma unitaria e ortogonali:

hej |ei i = δij (1.1)

con δij = 1 per i = j e δij = 0 per i 6= j la delta di Kronecker.


Evidentemente, avendo scelto lo spazio e una base ortonormale, se questa è una base completa,
un generico vettore dello spazio può essere sviluppato su questa base e quindi scriviamo ad
esempio per |ψi:
X
|ψi = ci |ei i (1.2)
i

con
ci = hei |ψi (1.3)

ossia come detto il prodotto scalare del vettore assegnato sui vettori base. A questo punto
riscriviamo quindi l’eq.(1.2) con la (1.3)

X
|ψi = |ei ihei |ψi (1.4)
i

dove abbiamo messo volutamente a destra l’espressione dei ci per una ragione evidente tra poco.
Vediamo che ne consegue la cosiddetta relazione di completezza (o risoluzione dell’identità)

X
|ei ihei | = I (1.5)
i

Adesso chiariamo perchè abbiamo messo a destra i ci ossia per far comparire i bra alla destra
dei ket, infatti dati due ket |φi e |ψi abbiamo visto che il prodotto hφ|ψi è uno scalare (come già
detto rappresentandolo su una base con il prodotto di un vettore riga per uno colonna), mentre
|φihψ| è un operatore, (pensatelo rappresentato su una data base dal prodotto delle componenti

11
di un vettore colonna per uno riga e quindi da una matrice). Quindi la relazione di completezza,
che esprime il fatto che qualunque vettore dello spazio può essere espanso sulla base |ei i si può
P
riassumere con il fatto che la somma dei proiettori |ei ihei | ≡ i Πi = I è l’operatore identità
come si può esplicitamente verificare a esempio con la base canonica in Rn e in generale con
la rappresentazione su una base (torneremo sui proiettori ma intanto notiamo che cosı̀ definiti
sono idempotenti e ortogonali).
Per la norma quadrata di |ψi si ha quindi, ad esempio inserendo la relazione di completezza (che
equivale ad avere scelto un dato spazio di Hilbert e per sua base |ei i):

X X X
hψ|ψi = hψ|ei ihei |ψi = c∗i ci = |ci |2
i i i

Mentre per il prodotto scalare tra due ket diversi |ψi e |φi avremo:

X X
hψ|φi = hψ|ei ihei |φi = c∗i di
i i

con, ovviamente, di = hei |φi.


P P
Se avessimo scritto |ψi = i ci |ei i e |φi = j dj |ej i avremmo comunque trovato:

XX X XX X
hψ|φi = hψ|ei ihei |ej ihej |φi = c∗i dj hei |ej i = c∗i dj δij = c∗i di
i j i i j i

1.2.3 Operatori lineari - Commutatori

Abbiamo detto che un oggetto dato dal prodotto |φihψ| è un operatore, quindi diciamo due
parole anche sugli operatori lineari, che sono applicazioni dallo spazio vettoriale in sè, come si
vede facendolo agire su un vettore (ket) dello spazio.
Un operatore A : V → V è lineare se

h i
A α|ψi + β|φi = αA|ψi + βA|φi
h i
hψ|α + hφ|β A = αhψ|A + βhφ|A

Per l’identità I naturalmente: I|ψi = |ψi; ∀ |ψi ∈ V .


L’azione di un operatore lineare è completamente determinata una volta datane l’azione su un
0 P
insieme di ket di base: infatti se A|ψi = |ψ i con |ψi = i ci |ei i si può scrivere per la linearità
P P 0
A|ψi = i ci A|ei i = i ci |ei i. Notiamo anche che si può scrivere:

0 0
X X X
|ψ i = ci |ei i = A|ψi = |ei ihei |A|ej ihej |ψi = Aij cj |ei i
i i,j i,j

12
0 P
e quindi ci = j Aij cj ovvero si vede che con l’usuale prodotto righe per colonne Aij = hei |A|ej i
sono gli elementi di matrice dell’operatore A sulla base |ei i. In effetti questo è un fatto generale,
ossia ad ogni operatore lineare si può associare una matrice in una data base come visto adesso.
P P
E in effetti l’operatore stesso può essere scritto A = i,j |ei ihei |A|ej ihej | = i,j Aij |ei ihej |:

Notiamo subito, e ci torneremo, che se la base |ei i fosse composta da autovettori di A ovvero
tali che A|ei i = ai |ei i si otterrebbe:

X X X X
A= |ei ihei |A|ej ihej | = aj |ei ihei |ej ihej | = ai |ei ihei | = a i ΠA
i (1.6)
i,j i,j i i

ovvero la decomposizione spettrale di A in termini della somma degli autovalori per i proiettori
di A stesso, costruiti con i suoi autovettori.
Vediamo l’azione successiva di due operatori, con algebra:
i) - A1 A2 |ψi = A1 (A2 |ψi)
ii) - (A1 + A2 ) |ψi = A1 |ψi + A2 |ψi
iii) - (αA) |ψi = α (A|ψi) ; α ∈ C.
Si ha:
X X
AB|ψi = |ei ihei |A|ej ihej |B|ek ihek |ψi = Aij Bjk ck |ei i
ijk ijk

ovvero l’usuale prodotto di matrici righe per colonne.


In generale l’azione successiva di due operatori dipende dall’ordine e il grado di commutatività
è dato dal commutatore:
[A1 , A2 ] = A1 A2 − A2 A1

Un esempio semplice di operatori che non commutano sono le rotazioni.


Proprietà del commutatore (iterabili al caso di numero crescente di operatori):

[A, BC] = B[A, C] + [A, B]C

[AB, C] = A[B, C] + [A, C]B

e l’identità di Jacobi
[A, [B, C]] + [C, [A, B]] + [B, [C, A]] = 0

Facciamo un esempio di un operatore e della sua rappresentazione come matrice: sia Rx (π/2)
l’operatore che ruota i vettori di R3 attorno all’asse delle x di un angolo pari a π/2 in senso

13
antiorario. Prendendo una terna sinistrorsa (î, ĵ, k̂), vediamo l’azione sui vettori base:

Rx (π/2)î = î

Rx (π/2)ĵ = k̂

Rx (π/2)k̂ = −ĵ

Allora ad esempio Rx (π/2)(ĵ + k̂) = Rx (π/2)ĵ + Rx (π/2)k̂ = k̂ − ĵ. È anche facile, se i versori
sono quelli della base canonica, associare all’operatore Rx (π/2), la matrice:
 
1 0 0
 
Rx (π/2) =  0 0 −1 
 
 
0 1 0

ed è anche facile rendersi conto del viceversa, ovvero data la matrice riscrivere l’azione dell’ope-
ratore sui vettori base ovvero l’eq. (1.7).

1.2.4 Operatori hermitiani

Veniamo adesso agli operatori hermitiani (o autoaggiunti) nominati nel secondo postulato e che,
come vedremo, sono quelli che interessano in MQ (salvo recenti sviluppi dei quali si potrebbe
parlare in un corso avanzato).
0
Intanto diciamo che ∀ A : A|ψi = |ψ i
0
l’aggiunto (o hermitiano coniugato) A† è per definizione tale che hψ|A† = hψ |.
Determiniamo la relazione tra gli elementi di matrice di A e A† :

0
hφ|A|ψi = hφ|ψ i

e quindi
0 0
hψ|A† |φi = hψ |φi = hφ|ψ i∗ = hφ|A|ψi∗ = hAψ|φi (1.7)

Quindi si dice che un operatore A è hermitiano o autoaggiunto se

hAψ|φi = hψ|A|φi

Se |φi e |ψi sono vettori di una base numerabile si ottiene che l’operazione di coniugazione
hermitiana per una matrice si ottiene prendendo la trasposta coniugata. Infatti dalla eq.(1.7) si

14
ha:
hei |A† |ej i = hej |A|ei i∗ (1.8)

e quindi A†ij = A∗ji e una matrice è hermitiana se Aij = A∗ji cioè simmetrica nella parte reale e
antisimmetrica in quella immaginaria. Si dice antihermitiana se A∗ij = −Aji (o semplicemente
A† = A per una matrice hermitiana e A† = −A se antihermitiana).
Vediamo che un operatore (qui lo vediamo per uno spazio separabile, altrimenti la condizione è
un pò più complicata da dimostrare) è hermitiano sse ha autovalori reali e autovettori ortogo-
nali (in particolare l’insieme degli autovettori normalizzati possono essere scelti come una base
ortonormale completa dello spazio). Vediamo che la condizione è sufficiente, per ipotesi quindi:
Aij |aj i = λi δij |aj i = λi |ai i con λ∗j = λj con hai |aj i = δij e
P
i |ai ihai | = I.

(in questo caso come già visto con l’eq. (1.6)la decomposizione spettrale di A). Ne segue:

Aij = hei |A|ej i


X
= hei |A|ak ihak |ej i
k
X
= λk hei |ak ihak |ej i
k
X
= λk hej |ak i∗ hak |ei i∗
k

(λk hej |ak ihak |ei i)∗


X
=
k
= A∗ji

Dimostriamo che la condizione è anche necessaria. Infatti se A è hermitiano intanto vediamo


che gli autovalori sono reali, infatti:

A|ai = λ|ai ↔ ha|A|ai = λha|ai

ha|A† = ha|λ∗ ↔ ha|A† |ai = λ∗ ha|ai

e quindi se A† = A sottraendo si ha (λ∗ − λ) ha|ai = 0 e quindi λ = λ∗ .


Si vede anche subito, utilizzando la realtà degli autovalori e l’hermitianità, che autovettori
relativi ad autovalori distinti sono ortogonali. Infatti:

hai |A|aj i = λj hai |aj i

hai |A|aj i = λi hai |aj i

15
e sottraendo (λi − λj ) hai |aj i = 0 e quindi se λi 6= λj segue hai |aj i = 0.
In effetti c’è un teorema che afferma che ∀ A = A† ∈ V n (C) esiste almeno una base dello spazio
che consiste dei suoi autovettori ortonormali. In questa base A è diagonale con gli autovalori
come elementi. Come abbiamo visto la dimostrazione è immediata in assenza di degenerazione,
mentre in presenza di degenerazione, mettiamo ad esempio con due autovalori degeneri λi = λj ,
si ha uno spazio bidimensionale degenere nel quale qualunque combinazione lineare degli auto-
vettori |ai i e |aj i è ancora autovettore, ossia in questo sottospazio l’operatore è rappresentato
dalla matrice identità e quindi qualunque base ortonormale del sottospazio è di autovettori di A.
Naturalmente una volta che si ha una base ortogonale si può normalizzare e renderla ortonor-
male. Le basi ortonormali (cosı̀ come la normalizzazione del vettore di stato) servono a rendere
più agevole il calcolo delle probabilità che si sommano ad uno.
Vediamo anche come si esegue l’aggiunto del prodotto di due operatori:
h i∗ ∗
dato C = AB → C † = (AB)T = B T AT = B † A† .
D’altra parte, per definizione: (C|ψi)† = |Cψi† = hψ|C † e quindi:

 
(AB|ψi)† = |ABψi† = hABψ| = hBψ|A† = hψ|B † A† = hψ|B † A†

Vediamo anche la decomposizione di un operatore in parte hermitiana e parte antihermitiana


(come la separazione di un numero in parte reale e parte immaginaria, che è più evidente
naturalmente se la matrice è in forma diagonale):

A + A† A − A†
A = + = AH + AA
2 2
AH = A†H ; AA = −A†A

Definiamo anche l’anticommutatore di due operatori:

{A, B} = AB + BC

e notiamo che è indipendente dall’ordine degli operatori (mentre il commutatore cambia di


segno sotto scambio dei due operatori). È immediato verificare che se A e B sono hermitiani
il loro commutatore è antihermitiano e l’anticommutatore è hermitiano. Il prodotto AB può
essere decomposto nella semisomma del commutatore e dell’anticommutatore quindi in parte
antihermitiana e parte hermitiana:

1 1
AB = [A, B] + {A, B}
2 2

16
1.2.5 Funzioni di operatori

Funzioni di operatori: queste sono definite formalmente dallo sviluppo in serie di potenze. Noi
avremo a che fare quasi come sempre con operatori hermitiani, che sono sempre diagonalizzabili
mediante trasformazioni unitarie (delle quali parleremo tra poco) e una volta in forma diago-
nale verrà la matrice con elementi diagonali dati dalla funzione dell’autovalore. Come esempio
vediamo  
ω1 0
A= 
0 ω2

e la funzione  

An eω1 0
eA ≡
X
= 
n! 0 eω2
n=0

Altro esempio per una matrice non diagonale


 
0 1
A= 
1 0

che ha la proprietà A2n = 1 e quindi A2n+1 = A quindi a esempio la funzione


 

(λAn ) cosh λ sinh λ
eλA ≡
X
= I · cosh λ + A · sinh λ =  
n! sinh λ cosh λ
n=0

1.2.6 Operatori Unitari

Ricordiamo adesso gli aspetti fondamentali riguardo alle trasformazioni unitarie e alla diago-
nalizzazione di matrici hermitiane (queste appunto sono sempre diagonalizzabili tramite una
trasformazione unitaria). Le trasformazioni unitarie generalizzano nel campo degli operatori (e
delle matrici) i numeri complessi di modulo uno (ovvero z = eiθ → z z ∗ = 1) e in quello
delle trasformazioni le rotazioni nello spazio reale. Sono importanti essenzialmente perchè i
cambiamenti di base in uno spazio di Hilbert sono realizzati da trasformazioni unitarie e non
cambiano il prodotto scalare (quindi a esempio la norma di un vettore ma anche il valor medio
di un’operatore).
Anticipiamo che il vettore di stato descrivente un sistema fisico lo normalizzeremo ad uno do-
vendo rappresentare fisicamente la probabilità totale.
0
Una trasformazione unitaria U soddisfa U U † = I = U † U . Allora se hψ|ψi = 1 e |ψ i = U |ψi
segue che
0 0
hψ |ψ i = hψ|U † U |ψi = I

17
nel caso di matrici reali le trasformazioni unitarie si riducono a quelle ortogonali per le quali
OT O = OOT = I.
Vediamo un cambiamento di base: un generico ket |ψi può essere espanso su basi diverse, a
esempio

X X
|ψi = |ei ihei |ψi = ci |ei i
i i
0 0 0 0
X X
|ψi = |ei ihei |ψi = ci |ei i
i i

Quindi
0 0 0
X X
ci = hei |ψi = hei |ej ihej |ψi ≡ Uij cj
j j

ovvero
0
Uij = hei |ej i

sono gli elementi di matrice dell’operatore

0
X
U= |ek ihek | (1.9)
k

Infatti
0 0 0
X X
Uij = hei |U |ej i = hei |ek ihek |ej i = δik hek |ej i = hei |ej i
k k

ma anche sull’altra base

0 0 0
X X 0 0
Uij = hei |ek ihek |ej i = hei |ek iδjk = hei |ej i
k k

Prendendo l’aggiunto di eq.(1.9) si ha

0
X
U† = |ek ihek |
k

0 0 0 0 0 0
U †U =
P P P P P
k j |ek ihek |ej ihej | = k j |ek ihej |δkj = j |ej ihej | = I
e naturalmente anche U U † con la completezza stavolta della base |ei i.

Teorema di Stone
Essenzialmente dice che un gruppo continuo a un parametro di operatori unitari in uno spazio
U (t) − I dU (t)
di Hilbert ammette il limt→0 |ψi = −i |ψi = H|ψi
it dt
con H † = H e |ψi un ket dello spazio e U = eitH .

18
Questo ci servirà anche per ridiscutere il quarto postulato. Per adesso sottolineiamo che dati
U, A : U = eiA → U † U = I sse A† = A.
Il prodotto di due operatori unitari è unitario: (U1 U2 )† = U2† U1† = U2−1 U1−1 = (U1 U2 )−1 .
Le trasformazioni unitarie, se eseguite sia sugli stati che sugli operatori, conservano i valori medi
(lo vedremo in seguito a proposito di rappresentazioni unitariamente equivalenti):

0 0 0
hψ|A|ψi = hψ|U † U AU † U |ψi = hψ |A |ψ i

0
con A = U AU † .
Ci interessano gli operatori hermitiani che hanno autovalori reali e autovettori ortogonali. Le
trasformazioni unitarie conservano traccia e determinante. Intanto ricordiamo che
P P
T r (AB) = ij Aij Bji = ij Bji Aij = T r (BA) (ciclicità).
0
Allora T rA = T r U AU † = T r U † U A = T rA
 

0
detA = det U AU † = detU detA detU † = det U † U detA = detA.
 

Gli operatori unitari in dimensione finita sono diagonalizzabili tramite trasformazioni unitarie
(sono operatori normali lo vedremo dopo).
Se pensiamo alle colonne di una matrice unitaria quadrata di ordine n come alle componenti di
n vettori, questi formano un set ortogonale. Infatti (dim):


X X
δij = hei |U † U |ej i = Uik Ukj = ∗
Uki Ukj
k k

∗(i) (j)
definendo vkj ≡ Ukj = δ ij = hv (i) |v (j) i e lo stesso per le righe.
P
si ha k vk vk

Un teorema afferma che gli autovalori di un operatore unitario sono della forma eiφ , con φ ∈ <,
ovvero numeri complessi unimodulari, e gli autovettori sono ortogonali.
Dimostrazione nel caso non degenere:

U |ui i = λi |ui i ; hui |U † = hui |λ∗i

mettendole insieme si può scrivere:

huj |U † U |ui i = λ∗j λi huj |ui i

 
da cui 1 − λ∗j λi huj |ui i = 0 e ne segue che per i = j si trova |λi |2 = 1, mentre per i 6= j si
trova huj |ui i = 0.
Trasformazioni attive e passive sugli stati o sugli operatori. Dato un elemento di matrice:
0 0 0 0
hu|A|vi sotto una trasformazione unitaria cambia in hu |A|v i oppure in hu|A |vi con |u i = U |ui

19
0
(attiva) oppure A = U † AU (passiva).
Notiamo che se mettiamo insieme l’informazione che gli autovalori degli operatori unitari sono
unimodulari e il fatto che sono diagonalizzabili, si capisce anche che si può sempre mettere nella
forma esponenziale, infatti si può scrivere

eiµn |en ihen | = eiH


X X
U= λn |en ihen | =
n n

ed evidentemente essendo µn ∈ R, ne segue che H † = H.


P
con H = n µn |en ihen |

La forma esponenziale insieme alla dipendenza continua dai parametri reali degli operatori uni-
tari consente di introdurre i gruppi di Lie e alcune osservabili, come impulso, energia e momento
angolare come generatori di trasformazioni sugli stati. Quando queste osservabili commutano
con l’Hamiltoniana sono quantità conservate e quindi sono associate a “buoni numeri quantici”.
La relazione tra simmetrie e leggi di conservazione vale in MQ come in MC e le simmetrie ve-
dremo che saranno realizzate quantisticamente (come lo erano classicamente) utilizzando regole
di commutazione.

 n
X in H n X in
eiH
X
= =  µ j Πj 
n
n! n
n!
j
X X in µnj
eiµj Πj
X
= Πj =
n
n!
j j

Infatti Πnj = Πj e Πj Πi = δij .

1.2.7 Richiamo al problema agli autovalori con esempi

Facciamo un passo indietro per rinfrescare la diagonalizzazione di una matrice e ricordiamo


alcuni fatti: le direzioni di uno spazio vettoriale che rimangono invariate sotto l’azione di un
operatore sono quelle degli autovettori. Se A|vi = λ|vi allora λ si dice autovalore. Esistono
sempre autovettori per matrici unitarie, hermitiane e antihermitiane. Scriviamo l’equazione agli
autovalori come
(A − λI) |vi = 0

in componenti:
X
(Aij − λδij ) vj = 0
j

20
che è un sistema lineare e omogeneo nelle vj e quindi per non avere la soluzione banale deve
essere det (A − λI) = 0. Espandendo si trova il polinomio caratteristico e le radici (in generale
complesse coniugate a coppie o reali, che se sono tutte distinte mostrano assenza di degene-
razione). Gli autovettori si trovano risolvendo l’equazione caratteristica scritta per le vj ed
eventualmente sono univocamente determinati in assenza di degenerazione e con la condizione
di normalizzazione j |vj |2 = 1.
P

Esempi:
(1) - l’identità I : ∀ |vi ∈ H è autovettore con autovalore uno.
0
(2) - Pv = |vihv| : ∀ |v i k |vi è autovettore con autovalore uno mentre quelli ortogonali a |vi lo
sono con autovalore nullo.  
1 0 0
 
(3) - La matrice Rx (π/2) =  0 0 −1  ha autovalori λ1 = 1, λ2 = i, λ3 = −i. L’autovet-
 
 
0 1 0
 
eiϕ
 
tore generico con λ = 1 se lo vogliamo normalizzato ha la forma: |v1 i =  0  ; si trova
 
 
0
   
0 0
1   1  
poi |v2 i = √  i  ; |v3 i = √  −i .
   
2   2  
1 1
 
cos θ sin θ
(4) - Consideriamo la matrice unitaria: V =   con λ± = e±iθ e autovettori
− sin θ cos θ
   
1 1 1 1
|λ± i = √   , diagonalizzata da U = √1  . Notare che i vettori colonna
2 ±i 2 i −i
della matrice unitaria che diagonalizza V sono gli autovettori di V stessa. Questo è un fatto
generale:

U † AU = Ad

AU = U Ad

Aij Uj` = Uij λj δj` = λ` Ui`


(`) (`)
Aij vj = λ` vi

21
   
0 0 1 1
  1  
(5) - - La matrice A =  0 0 0  ha autovettori |λ1 = 1i ↔ √  0  , |λ2 = 0i ↔
   
  2 
1 0 0 1
   
0 1
  1  
 1  , |λ3 = −1i ↔ √  0 
   
  2 
0 −1
 
2 0 0
1 
(6) - - La matrice A =  0 3 −1  ha λ = 2, 1, 1 quindi due autovalori degeneri e
 
2 
0 −1 3
autovettori      
0 1 2
1   1   1  
|λ1 = 2i ↔ √  1  , |λ2 = 1i ↔ √  1  , |λ3 = 1i ↔ √  −1 
     
2  3  6 
−1 1 −1
 
4 1
(7) - - Esempio di matrice non diagonalizzabile A =   con λ1 = λ2 = 3.
−1 2
   
1 a1 1
Si ha |λ1 i ↔ p 2   = √1  
2a1 −a1 2 −1
L’equazione agli autovalori portava a1 = −b1 . Un altro vettore della stessa forma ortogonale
porterebbe l’equazione |a1 |2 = 0 ossia
 il vettorenullo.
1 0 1
 
(8) - - Altro caso degenere: A =  0 2 0  con λ1 = 0, λ2 = λ3 = 2.
 
 
1 0 1
È una matrice hermitiana  e ammette
 autovettori ortogonali. Per il primo si trova senza pro-
1
1  
blemi |λ1 = 0i ↔ √  0 . Per λ2 = λ3 = 2 si trovano le equazioni per le componenti
 
2 
−1
a2 , b2 , c2 dell’autovettore: a2 = c2 e b2 = indeterminato (ogni autovalore degenere elimina una
equazione).  
a2
1  
Quindi |λ2 = 2i ↔ p  avendolo già normalizzato e notiamo che hλ1 |λ2 i = 0.
 
2 2
 b2
2a2 + b2  
a2
Si può scegliere arbitrariamente ladirezione
 nel piano degenere ad esempio fissando il rapporto
1
1  
b2 /a2 = 1 e cosı̀ |λ2 = 2i ↔ √  1  , mentre il terzo autovettore dovrà essere della stessa
 
3 
1
forma del secondo ma ortogonale a questo e sempre naturalmente normalizzato, per cui si trova

22
 
1
1  
|λ3 = 2i ↔ √  −2  .
 
6  
1
(9)- Oscillatori accoppiati
Un esempio classico di diagonalizzazione consiste nel trovare i modi normali di due oscillatori
accoppiati che si possono descrivere appunto come due oscillatori disaccoppiati con frequenze
differenti. Dalla figura si vedono due masse collegate da una molla e poi ciscuna a una parete
laterale tramite molle della stessa costante. Chiamando ξ1 = x1 − x10 ; ξ2 = x2 − x20 gli
spostamenti dalle posizioni di equilibrio si ha:

1  ˙2 ˙2  1 2 1 2 1
L = m ξ1 + ξ2 − k ξ1 − k ξ2 − k (ξ1 − ξ2 )2
2 2 2 2
1 ˙2 1 ˙2
= mξ + mξ − k ξ12 − k ξ22 + k ξ1 ξ2
2 1 2 2

Le equazioni di moto sono:

ξ¨1 = −2 ω 2 ξ1 + ω 2 ξ2

ξ¨2 = −2 ω 2 ξ2 + ω 2 ξ1

¨
con ω 2 =k/m. Il sistema
 può essere posto ~ 2 ξ~ e diagonalizzando
in formamatriciale: ξ~ = − Ω  
2 −1 3 0 1
Ω2 = ω 2   si trova Ω2 D = ω 2   con autovettori √1   per λ = 1
−1 2 0 1 2 1
 
1 1 − ξ2
e √   per λ = 3 e quindi con le nuove coordinate η1 = ξ1√ e η2 =
ξ1 + ξ2

2 −1 2 2
il sistema di equazioni diventa ~η¨ + Ω2 ~η = 0 ovvero:
D

η̈1 + 3 ω 2 η1 = 0

η̈2 + ω 2 η2 = 0


ovvero due oscillatori disaccoppiati di frequenze ω− = 3ω e ω+ = ω corrispondenti a spo-
stamenti in direzioni opposte o concordi (vedi figura).

1.2.8 Diagonalizzazione di due operatori hermitiani commutanti

Vedremo che per definire completamente lo stato di un sistema si dovranno specificare tutti i nu-
meri quantici relativi a quantità conservate (osservabili che commutano con l’Hamiltoniana) e in

23
pratica questo (che in genere rimuoverà anche eventuali degenerazioni definendo completamente
la base) avrà a che fare con una “osservazione massima ” e dal punto di vista matematico
con la definizione del set massimale di operatori mutuamente commutanti. In pratica dato
che siamo interessati a operatori hermitiani partiamo dal vedere cosa succede se due operatori
hermitiani commutano.
T eorema: se A, B sono operatori hermitiani commutanti con [A, B] = 0 allora esiste una base
comune che li diagonalizza entrambi.
Partiamo dal caso di A con spettro di autovalori non degenere:
A|ai i = ai |ai i e data l’ipotesi A (B|ai i) = BA|ai i = ai (B|ai i) ; quindi dato che sempre per
ipotesi A non ha autovalori degeneri B|ai i ∝ |ai i ovvero B|ai i = bi |ai i e quindi |ai i fornisce
una base di autovettori comuni sia di A che di B ovvero diagonalizza entrambi gli operatori.
Caso degenere: se ad esempio è A ad avere spettro degenere, nella base dei suoi autostati B è
comunque diagonale a blocchi (sempre ovviamente sotto l’ipotesi che commutino) e può quindi
essere diagonalizzato nel sottospazio degenere da una matrice unitaria (di dimensione uguale a
quella del sottospazio degenere ovviamente) e dato che A nel sottospazio degenere è proporzio-
nale all’identità resta tale anche sotto la trasformazione unitaria.
L’argomento si generalizza a più operatori rappresentanti osservabili A, B, C, ... tutti mutuamen-
te commutanti perchè possono restare degenerazioni residue fino a quando non vengono rimosse
dall’aggiunta di un ulteriore operatore mutuamente commutante con gli altri. Il set di operatori
mutuamente commutanti che definisce univocamente la base comune di autostati (degenerazione
completamente assente) è detto set massimale e la misura di tutte le osservabili commutanti
(compatibili) è detta osservazione massima.
Esempio semplice:

   
2 0 0 3 0 0
   
A= 0 1 0  ; B= 0 0 4 
   
   
0 0 1 0 4 0
   
1 1
   
|a1 i =  0  , a1 = 2 ; |b1 i =  0  ; b1 = 3
   
   
0 0

   
0 0
  1  
|a2 i =  1  , a2 = 1 ; |b2 i = √  1  ; b2 = 4
   
  2 
0 1

24
   
0 0
  1  
|a3 i =  0  , a3 = 1 ; |b3 i = √  1  ; b3 = −4
   
  2  
1 −1

A resta diagonale sulla base individuata da |b1 i, |b2 i, |b3 i.


Altro esempio:
Vogliamo diagonalizzare simultaneamente le due matrici commutanti (verificare):
   
2 1 1 1 0 1
   
A =  1 0 −1  ; B= 0 0 0 
   
   
1 −1 2 1 0 1

gli autovalori di A sono λA = −1, 2, 3 mentre quelli di B sono λB = 0, 0, 2 quindi quelli di


B sono degeneri. Mostriamo che se si parte diagonalizzando prima A si trovano anche diretta-
mente autovettori di B mentre il viceversa è più lungo a causaappunto
 della degenerazione.
−1
1  
Partendo quindi da A si trova facilmente: |λA = −1i ↔ √  2  ,
 
6 
1
   
1 1
1   1  
|λA = 2i ↔ √  1  , |λA = 3i ↔ √  0  , che si verifica facilmente sono anche
   
3  2 
−1 1
autovettori di B rispettivamente con autovalori λB =0, 0, 3. Se fossimo partiti da B avremmo
1
1  
trovato subito l’autovettore |λB = 2, λA = 3i ↔ √  0  , mentre nel sottospazio degenere
 
2 
1
 
1
1  
di λB = 0 si trova |λB = 0i ↔ p 2 1  , e assegnando α = v2 /v1 cercando
 
2
 v /v
2 + (v2 /v1 )  
−1
 
1
1  
un altro autovettore ortogonale si giunge a: |λB = 0i1 ↔ √  α , e
 
2+α 2  
−1
 
α
1  
|λB = 0i2 ↔ √ −2  , La matrice A sarà diagonale a blocchi su questa base. Si
 
2

4 + 2α  
−α
può cercare α in modo che A sia diagonale nel sottospazio bidimensionale di λ = 0 e si trovano
le equazioni 1 + α = λ e 2 = 2λ con soluzioni λ = 2, α = 1 e λ = −1, α = −2 . In

25
   
1 1
1   1  
conclusione si ha |λB = 0λA = 2i ↔ √  1  , e |λB = 0λ = −1i ↔ √  −2  ,
   
3   6  
−1 −1
e si nota che quest’ultimo differisce per un segno da quello trovato diagonalizzando A. D’altra
parte come abbiamo detto una fase moltiplicativa del vettore di stato non modifica la fisica.
Terminiamo dicendo che in uno spazio vettoriale finito dimensionale è sempre possibile trova-
re un set massimale di operatori mutuamente commutanti A, B, C, ... con autovettori |a, b, c, ...i.

1.2.9 Operatori Normali

Condizione necessaria e sufficiente perchè una matrice A sia diagonalizzabile tramite una tra-
sformazione unitaria è che sia normale ovvero che [A, A† ] = 0.
Un generico operatore si può scrivere nella forma

A = B +iC
A + A† A − A†
B= ; C=
2 2i

sia B che C sono hermitiani.


Se [A, A† ] = 0 segue [B + iC, B − iC] = −2i[B, C] = 0 e quindi B e C sono diagonalizzabili
simultaneamente tramite una trasformazione unitaria e cosı̀ A.
Viceversa (solo se), se A è diagonalizzabile tramite U : U † = U −1 allora U † AU = Ad vale anche
che U † A† U = A†d ovvero A† è diagonalizzabile con la stessa U . D’altra parte [Ad , A†d ] = 0 per
ovvie ragioni e quindi:

0 = [A†d , Ad ] = [U † A† U, U † AU ] = U † [A† , A]U = 0

ovvero [A† , A] = 0 ovvero A è normale.


Notiamo che un operatore hermitiano è ovviamente normale, ma anche un operatore unitario lo
è, infatti [U, U † ] = U U † − U † U = I − I = 0.

1.2.10 Derivata di un operatore rispetto a un parametro e formula di BCH

Per definizione:
dA(λ) A(λ + ∆λ) − A(λ)
= lim
dλ ∆λ→0 ∆λ

26
Per esempio A(λ) = eλB :

∞ ∞ ∞
deλB d X λn n X λn−1 X λn
= B = Bn = B n+1
dλ dλ n! (n − 1)! n!
n=0 n=1 n=0

= BeλB = BA(λ) = A(λ)B

(nell’ultimo passaggio si evidenzia che dato che A = f (B) e in generale [f (B), B] = 0 l’ordine
degli operatori A(λ) e B in questo caso è intercambiabile).
Nel caso di un singolo operatore non c’è gran differenza con il caso numerico ad esempio:
eλB eγB = e(λ + γ)B mentre

d λB λC
e e = BeλB eλC + eλB eλC C

dove l’ordine di B e C conta se [B, C] 6= 0.


Vale anche che eA eB = eA + B sse [A, B] = 0.
Invece, se [A, [A, B]] = [B, [A, B]] = 0 vale:

1
A B A + B + [A, B]
e e =e 2

Esercizio 1
Un’osservabile A ha due autostati normalizzati |φ1 i, |φ2 i con autovalori a1 , a2 . Un’altra, B, ha
autostati |χ1 i, |χ2 i con autovalori b1 , b2 . Il cambiamento di base è dato dalle relazioni:

2|χ1 i + 3|χ2 i 3|χ1 i − 2|χ2 i


|φ1 i = √ ; |φ2 i = √
13 13

Supponiamo di misurare A e trovare a1 . Misuriamo B e poi ancora A. Determinare la probabi-


lità di ritrovare a1 come risultato.

Soluzione:

Dopo la prima misura il sistema si troverà nello stato |φ1 i. Se dopo misuriamo B abbiamo
le seguenti probabilità per i due possibili risultati: Pφ1 (b1 ) = 4/13 e Pφ1 (b2 ) = 9/13. Se
si rimisurasse A trovandosi in |χ1 i (ovvero avendo trovato b1 ), la probabilità di ritrovare a1
sarebbe Pχ1 (a1 ) = 4/13 e da |χ2 i (avendo trovato b2 ) Pχ2 (a1 ) = 9/13. Complessivamente la

27
probabilità è:
 2  2
4 9 97
P (a1 −→ B −→ a1 ) = Pφ1 (b1 )Pχ1 (a1 ) + Pφ1 (b2 )Pχ2 (a1 ) = + =
13 13 169

1.2.11 Proiettori (Forte)

Un operatore è di proiezione sse è hermitiano e idempotente ossia Π† = Π e Π2 = Π. Consi-


deriamo uno stato normalizzato |ωi con hω|ωi = 1. Il proiettore sullo stato è Πω = |ωihω|.
Π2ω = |ωihω|ωihω| = |ωihω| = Πω . Notiamo che la relazione di idempotenza implica che gli
autovalori possibili sono solo 0, 1 . Inoltre Π†ω = (|ωihω|)† = |ωihω| = Πω ossia è hermitiano.
La misura può essere descritta in termini di proiettori. Se infatti il sistema si trova in |ψi, la pro-
babilità che una misura (ideale, ovvero che lascia invariati gli autostati) dia il risultato λω associa-
to a |ωi è: Pω = |hω|ψi|2 = hψ|ωihω|ψi = hψ|Πω |ψi = hψ|Π2ω |ψi = hψ|Π†ω Πω |ψi = hΠω ψ|Πω ψi
ovvero la norma quadrata della proiezione dello stato |ψi nel sottospazio relativo all’autovalore
λω . Questo nel caso non degenere unidimensionale.
Dopo la misura con risultato λω il sistema si trova nello stato |ωi che è, come deve essere, uno
stato normalizzato ad uno. Questo stato, espresso in termini di |ψi e dell’operatore di proiezione
Πω |ψi |ωihω|ψi |ωihω|ψi
è p =p = = |ωi a meno di una fase.
hΠω ψ|Πω ψi hψ|ωihω|ψi |hω|ψi|
Ricorriamo a una definizione più generale di proiettore perchè si può verificare che una misura
ci dica solo che non abbiamo ottenuto il risultato λω relativo allo stato |ωi di una osservabile Ω.
Allora definiamo proiettore un operatore tale che ∀|ψi è definita la decomposizione
|ψi = Π|ψi + (I − Π) |ψi ≡ |αi + |βi con Π|αi = |αi e hα|βi = 0 (lasciamo per esercizio la
dimostrazione che le condizioni sono soddisfatte se Π è hermitiano e idempotente).
Come detto però la misura non è detto che che determini completamente lo stato del sistema.
Per esempio la misura ci può dire che il sistema non è nello stato |ωi e allora dopo la misura il
sistema sarà nello stato N (I − Πω ) |ψi (che accade con probabilità 1 − Pω = hψ|(I − Πω )|ψi).
L’operatore di proiezione è quindi definito come l’operatore che estrae dallo stato |ψi le sue
componenti in un sottospazio dello spazio degli stati possibili, mettendo a zero le altre compo-
nenti. La più generale misura ci dice se il sistema si trova in un sottoinsieme di tutti i suoi stati
possibili, ossia in un sottospazio dello spazio di Hilbert totale. La probabilità di questa misura
è data dalla somma delle probabilità di tutti gli stati in questo sottospazio e dopo la misura il
sistema si trova nello stato proiettato nel sottospazio. Vedremo esempi verso la fine del corso.

28
1.2.12 Osservabile posizione

Dobbiamo adesso introdurre l’operatore posizione e successivamente quello di impulso. Infatti


la maggior parte dei sistemi che tratteremo vivono nello spazio delle configurazioni per cui l’os-
servabile di base è la posizione. La complicazione formale è che lo spazio delle configurazioni ha
dimensione infinita e la potenza del continuo, anche se in realtà le misure di posizione hanno
sempre una incertezza dovuta agli strumenti di misura per cui si potrebbe lavorare, anche in
questo caso, con una base numerabile (discreta) costituita dagli intervalli di posizione. Tuttavia
a parte qualche complicazione iniziale risulta poi più pratico lavorare considerando la variabile
posizione continua.
Vedremo poi che la base di autostati dell’operatore posizione è connessa alla base degli autostati
dell’operatore impulso tramite un cambiamento di base con manipolazioni del tutto analoghe
a quelle fatte per operatori con spettro discreto. Anzichè coefficienti dipendenti da un indice
discreto la proiezione del vettore di stato sulla base continua degli autostati dell’operatore posi-
zione (o impulso) avremo delle funzioni (funzioni d’onda) e i passaggi dalle basi degli operatori
posizione e impulso sarà di fatto dato da trasformate e antitrasformate di Fourier.
Per fornire una dinamica a un sistema meccanico si possono seguire le formulazioni hamiltonia-
na o lagrangiana. Noi seguiremo la prima e cotruiremo gli operatori quantistici a cominciare
dall’Hamiltoniana stessa tramite il principio di corrispondenza, ovvero mantenendo la forma
funzionale della Hamiltoniana classica sostituendo ad x → x̂ e a p → p̂ ossia degli operatori
(che vedremo non commutano tra loro e quindi risulteranno osservabili incompatibili con un
principio di indeterminazione). Questo procedimento è anche detto quantizzazione canonica e
vedremo l’analogia tra le leggi del moto quantistiche e classiche.
Partiamo dal caso unidimensionale e poi generalizzeremo a più dimensioni. Assumiamo che
esistano autostati dell’operatore posizione (in realtà si chiamerebbero autostati generalizzati;
per una discussione più approfondita dovrebbero essere considerati spazi di Hilbert rigged-
equipaggiati):
x̂|xi = x|xi

ovvero potremmo prendere questa equazione come definizione dell’operatore x̂. Si suppone che
il ket di stato |ψi fornisca la probabilità di trovare il sistema (ad esempio un elettrone) in una
data posizione x ∈ R (naturalmente x̂† = x̂ ) con autovalore x e autostato |xi. I concetti di
matrice e vettore vanno quindi adesso estesi a questo caso dove x non è una variabile discreta
bensı̀ continua. La componente di un generico stato |ψi lungo |xi è:

hx|ψi = ψ(x)

29
ossia non più un coefficiente dipendente da un indice discreto bensı̀ una funzione dipendente dall’
“indice continuo x”, la f unzione d0 onda. Il suo modulo quadro secondo i postulati è legato alla
probabilità, ma dato che x è una variabile continua e che quindi anzichè sommare un set di
probabilità discrete adesso dovremo integrare, |ψ(x)|2 sarà piuttosto una densità di probabilità
in modo tale che:
|ψ(x)|2 dx = |hx|ψi|2 dx ≡ ρ(x) dx

sarà la probabilità di trovare la particella tra x e x + dx .


Integrando sull’asse reale dovremo avere per la probabilità totale:

Z +∞
|ψ(x)|2 dx = 1
−∞

e quindi ψ(x) ∈ L(2) (R) . Come detto, senza addentrarci in sottigliezze matematiche, procede-
remo in modo pratico (Dirac 1930).
Vediamo che per generalizzare relazioni di completezza e ortonormalità dovremo introdurre il
concetto di distribuzione e in particolare la distribuzione δ di Dirac.
Infatti il passaggio sarà:

X X
|ψi = |en ihen |ψi = cn |en i −→
n n
X X
−→ |ψi = |xn ihxn |ψi = ψn (xn ) |xn i −→
Zn Zn
−→ |ψi = dx |xihx|ψi = dx ψ(x) |xi

ovvero ψ(x) è l’analogo dei cn = hen |ψi che avevamo visto nel caso di basi numerabili.
Procedendo come nel caso numerabile dal confronto nelle espressioni precedenti vediamo come
si generalizza la completezza in questo caso della base |xi :

Z +∞
|xihx| dx = I
−∞

ovvero la risoluzione dell’identità (somma dei proiettori ortogonali di un operatore hermitiano)


nel caso di base continua.
Sempre confrontando con le manipolazioni del caso di spettro discreto vediamo come interviene
la necessità di introdurre una distribuzione per rappresentare il prodotto scalare tra due elementi
della base continua:

X X
cn = hen |ψi = hen |em ihem |ψi = δmn cm −→
m m

30
Z Z
0 0 0 0 0 0
−→ ψ(x) = hx|ψi = dx hx|x ihx |ψi = dx hx|x i ψ(x )

il ruolo della delta di Kronecker che rappresenta il prodotto scalare tra due elementi di una
0
base numerabile ortonormale è adesso giocato dal prodotto scalare hx|x i che risulta essere una
distribuzione, ovvero un oggetto che applicato sotto integrale a una funzione restituisce un’altra
funzione valutata in un punto. In questo caso definiamo

0 0
hx|x i ≡ δ(x, x )

che opera come distribuzione in modo tale che ∀ψ(x) : R → C vale

Z
0 0 0
ψ(x) = dx δ(x, x ) ψ(x )

questo definisce la distribuzione δ di Dirac. Si può facilmente dimostrare che dipende dalla
0
differenza (x − x ) e che è pari per cambio di segno. Evidentemente la sua definizione comporta
che
Z
0 0
dx δ(x, x ) = 1 ; (normalizzazione)

0
Dimostriamo che dipende dalla differenza (x − x ) :

Z Z
0 0 0 0 0 0
dx δ(x + a, x + a) f (x ) = dx hx + a|x + ai f (x ) =
Z Z
00 00 00 00 00 00
= dx hx + a|x i f (x − a) = dx δ(x + a, x ) f (x − a) = f (x + a − a) = f (x)

quindi è invariante per traslazioni della variabile, ovvero dipende dalla differenza:
0 0
δ(x, x ) = δ(x − x ) .
0
La simmetria per lo scambio x ↔ x serve alla completezza sia sul ket che sul bra:

Z Z
hx|ψi = dy hx|yihy|ψi = dy δ(x − y)ψ(y) = ψ(x)
Z Z
hψ|xi = dy hψ|yihy|xi = dy δ(y − x)ψ ∗ (y) = ψ ∗ (x)

e il fatto che sia pari si può far derivare dal fatto che è ∈ R . Infatti:

δ(x − y) = hx|yi = hy|xi∗ = δ(y − x)∗ = δ(y − x)

31
Azione moltiplicativa su f (x) :

x δ(x) = 0; f (x) δ(x) = f (0) δ(x); f (x) δ(x − y) = f (y) δ(x − y)

Riscalamento dell’argomento:

Z +∞
1 y  1
δ(y) ψ dy = ψ(0) ; a>0
a −∞ a |a|
Z +∞
δ(ax) ψ(x) dx =
−∞
Z −∞  
1 y 1
− δ(y) ψ dy = ψ(0) ; a<0
|a| +∞ |a| |a|

Notare che l’intervallo di integrazione deve contenere lo zero dell’argomento della δ, altrimenti
il risultato è nullo, infatti come distribuzione la δ(x) è nulla per x 6= 0 e vale +∞ per x = 0
e questo si capisce perchè l’integrale può essere eseguito in un intorno arbitrariamente piccolo
dello zero dell’argomento della δ senza modificare il risultato.
Inoltre
+∞ +∞
δ(x − xi )
Z h i X Z
δ f (x) g(x) dx = g(x) dx
−∞ −∞ |f 0 (x)|xi
i

dove xi sono gli zeri della funzione f (x).


Derivata della δ :

Z Z
d d df (x)
δ(x − y) f (y) dy = δ(x − y) f (y) dy =
dx dx dx

La δ di Dirac si ottiene, e se ne capisce meglio la genesi, come limite di successioni di funzioni.


Ne esistono varie rappresentazioni, ma qui scriviamo solo le due che ci capiterà di incontrare
(altre possono essere trovate su vari testi):

Z +∞
dy iyx sin(ax)
δ(x) = e = lim
−∞ 2π a→∞ πx

e anche:
2 sin2 (ax/2)
δ(x) = lim
a→∞ π a x2

Infine, se introduciamo la funzione-distribuzione θ (x) di Heavyside, che vale θ(x) = 1 per


dθ(x)
x > 0 e θ(x) = 0 per x < 0 , si ha che δ(x) = . Infatti è facile capire che:
dx
Z x
θ(x) = δ(y) dy
−∞

32
Riassumendo, il confronto tra basi continue e numerabili:

Z +∞
0 0
X
hei |ej i = δij ; δij = 1 ; hx |xi = δ(x − x ) ; δ(x − x0 ) dx = 1
i −∞
X Z
|ei ihei | = I ; dx |ψihψ| = I
i
Z
c∗φ cψ
X
hφ|ψi = i i ; hφ|ψi = dx φ∗ (x)ψ(x)
i
X Z
2
hψ|ψi = |ci | =1 ; hψ|ψi = dx |ψ(x)|2 = 1
i
X Z
|ψi = ci |ei i ; |ψi = dx ψ(x) |xi
i

Per quanto riguarda gli operatori lineari, abbiamo visto la rappresentazione come matrici nel
caso separabile. Questa si mantiene nel caso continuo, ma evidentemente, prendendo il valore
di aspettazione dell’operatore tra autostati generalizzati, anzichè elementi di matrice avremo in
generale una funzione di due variabili (che nei casi che incontreremo sarà in generale diagonale
ovvero moltiplicata per la δ di Dirac degli argomenti). Tramite il principio di corrispondenza,
come detto, costruiremo le osservabili dipendenti da x̂ (ad esempio potenziali come nel caso
1
dell’oscillatore armonico V = k x̂2 ). Questi saranno diagonali nella base |xi :
2

0 0
hx|x̂|x i = x δ(x − x )

e per un potenziale V (x) generico si intenderà sviluppato in serie di potenze di x̂ e ogni


potenza sarà diagonale come mostrato per x̂ .

1.2.13 Operatore derivata e operatore impulso

Facciamo adesso un altro esempio di operatore, l’operatore derivata (anticipiamo subito che non
è hermitiano e quindi non rappresenta una osservabile), che ci servirà per il termine cinetico
dell’Hamiltoniana o più precisamente per introdurre la rappresentazione dell’operatore impulso
p̂ sulla base |xi . Avremmo potuto parlarne più in là, ma in questo modo non avremmo
apprezzato (tra breve) il legame che esiste tra cambiamenti di base da autostati dell’operatore
posizione a operatore impulso e trasformate di Fourier, la connessione con il principio di in-
determinazione e anche, in generale, con i cambiamenti di base tra operatori non commutanti
(altrimenti esisterebbe come visto una base comune).

33
Introduciamo l’operatore derivata, simbolicamente D̂, definito da:


D̂|ψi = | i
dx

in modo che
dψ dψ(x)
hx|D̂|ψi = hx|D̂ψi = hx| i=
dx dx

da cui, con la completezza, si ottengono gli elementi di matrice:

Z Z
0 0 0 0 0 0 dψ(x)
hx|D̂|ψi = dx hx|D̂|x ihx |ψi = dx hx|D̂|x i ψ(x ) =
dx

e quindi:
0 d 0
hx|D̂|x i = δ(x − x )
dx

(ovvero diagonale come avevamo trovato per le potenze di x̂).


Vediamo che

0 0 0 d ∗ 0 d 0 d 0 d 0
hx|D̂† |x i = hD̂x|x i = hx |D̂xi∗ = 0 δ (x −x) = 0 δ(x −x) = − δ(x −x) = − δ(x−x )
dx dx dx dx

ovvero è un operatore antihermitiano D̂† = −D̂ . Definiamo quindi un operatore k̂ = −iD̂ che
è chiaramente hermitiano k̂ † = k̂ , anche se questo è formale nel senso che per l’hermitianità va
analizzata attraverso lo studio degli elementi di matrice. Per l’hermitianità infatti si deve avere:

hφ|k̂|ψi = hφ|k̂ψi = hk̂ψ|φi∗ = hψ|k̂ † |φi∗ = hψ|k̂|φi∗

ed inserendo completezze:

Z
0 0 0
hφ|k̂|ψi = dx dx hφ|xihx|k̂|x ihx |ψi
Z
0 0 0
= dx dx φ∗ (x) k̂(x, x ) ψ(x )
Z  
0 d 0 0
= dx dx φ∗ (x) −i δ(x − x ) ψ(x )
dx
Z
dψ(x)
= −i dx φ∗ (x)
dx

mentre:
 Z ∗
∗ dφ(x)

hψ|k̂|φi = −i dx ψ (x)
dx
Z ∗
dφ (x)
= i dx ψ(x)
dx

34
Z
h

ib dψ(x)
= i φ (x)ψ(x) − i dx φ∗ (x)
a dx

h ib
e quindi k̂ è hermitiano sse φ∗ (x)ψ(x) = 0 . Quindi l’hermiticità di k̂ dipende dalla classe
a
di funzioni sulla quale è definito, a esempio funzioni di classe L(2) o che comunque si annullino
agli estremi o periodiche. Un caso particolare sono le onde piane per le quali con procedimenti
di limite si può comunque dimostrare l’hermitianità.
Problema agli autovalori.
Assumiamo che esistano autostati di k̂ tali che:

k̂|ki = k|ki

passando alla base |xi si ha:

k hx|ki ≡ k ψk (x)

hx|k̂|ki =
0
dδ(x − x )
Z Z
0 0 0 0 0 dψk (x)
dx hx|k̂|x ihx |ki = −i dx ψk (x ) = −i
dx dx

dψk (x)
e quindi la soluzione generale dell’equazione −i = k ψk (x) , che fornisce la proiezione
dx
di un autostato |ki sulla base |xi , è:

hx|ki = ψk (x) = A eikx ; k∈R

(essendo k̂ hermitiano gli autovalori k sono reali e questo tra l’altro è consistente con il fatto
che una componente immaginaria di k darebbe soluzioni divergenti a ±∞ mentre come detto
per l’hermitianità servono funzioni che si annullino a ±∞ o periodiche).
Per la normalizzazione, trattandosi di una base continua, si procede come nel caso della base
|xi , ovvero si richiede
0 0
hk|k i = δ(k − k )

e naturalmente si può cambiare base inserendo una completezza fatta con gli autostati di x̂

0
Z Z
ei(k − k )x dx = 2π |A|2 δ(k − k )
0 0 0
hk|k i = hk|xihx|k i dx = |A|2

quindi con la normalizzazione:


eikx
hx|ki = ψk (x) = √

35
Vedremo che l’operatore k̂ è l’operatore impulso p̂/~, per il momento siamo comunque già in
grado di capire che [x̂, k̂] 6= 0 , dato che la sovrapposizione dei loro vettori base non è un fattore
di fase costante, bensı̀ un’onda piana. Quindi, oltre alla base delle |xi , ci potremo riferire alla
base |ki, alternativa a quella delle |xi ma anch’essa completa:

Z
|kihk| dk = I

infatti: 0
eik(x − x )
Z Z
0 0 0
hx|x i = dk hx|kihk|x i = dk = δ(x − x )

che è il risultato atteso e che verifica la relazione di completezza della base |ki .
Il passaggio dalla base |xi alla base |ki e viceversa è inoltre legato alle trasformate di Fourier,
ovvero, data f (x) ∈ L(1) :

e−ikx
Z Z
f (k) = hk|f i = hk|xihx|f i dx = √ f (x) dx ; (T rasf ormata)

e viceversa

eikx
Z Z
f (x) = hx|f i = hx|kihk|f i dk = √ f (k) dk ; (Antitrasf ormata)

Potremmo addentrarci in altre proprietà delle FT come la formula di Parseval che contiene
l’informazione che per uno stato di modulo fissato (unitario per quanto ci interessa adesso),
l’integrale nello spazio delle |xi o nello spazio |ki del modulo quadro della funzione d’onda
debba fornire come è logico lo stesso risultato. Questi approfondimenti saranno sviluppati nel
corso di Metodi. Ci interessa invece vedere che cosa ci dicono queste espressioni, ovvero che un
pacchetto nello spazio reale si può rappresentare con la somma (integrale) di onde piane ciascuna
con un k (ovvero una lunghezza d’onda λ = 2π/k) fissato, che interferiscano costruttivamente
in certe zone e distruttivamente in altre (antitrasformata) in modo appunto da ricostruire il
pacchetto, in modo analogo allo sviluppo di un vettore su una certa base. La trasformata ci dice
l’ampiezza di ogni modo k necessario per ricostruire il pacchetto. Anticipiamo subito che le
autofunzioni di k (dell’impulso) saranno anche autofunzioni dell’Hamiltoniana nel caso libero
ovvero di potenziale nullo o costante ovunque, mentre le autofunzioni di x̂ non lo saranno mai
proprio perchè nell’Hamiltoniana sarà sempre comunque presente un termine cinetico dipendente
dall’impulso p̂ che non commuta con x̂. Su questo torneremo e vedremo altri casi nei quali
la funzione d’onda assegnata nello spazio reale si può sviluppare sulla base di autofunzioni
dell’Hamiltoniana. Avere anticipato queste nozioni sulle FT ci servirà ad apprezzare subito i

36
cenni che faremo sul principio di indeterminazione poco più avanti.
Mostreremo poi che p̂ = ~ k̂ , per cui vediamo intanto vediamo il legame tra |pi e |ki .
0 0
Dovrà essere hp|p i = δ(p − p ) . Dato che la dimensione della δ di Dirac è l’inverso del suo
argomento (il suo integrale sull’argomento per una funzione fa la funzione) allora ne segue che
h i 1 h i
essendo p̂ = ~k deve essere |pi = √ |ki e quindi le autofunzioni dell’impulso saranno:
~

i
px
e~
ψp (x) = hx|pi = √
2π~

e di conseguenza tutte le altre espressioni.


Riassumiamo infine uno schema per gli operatori x̂ e p̂:

x̂|xi = x |xi
0 0
hx|x̂|xi = x δ(x − x )

p̂|pi = p |pi
0 0
hp|p̂|pi = p δ(p − p )
dψ(x)
hx|p̂|ψi = −i~
dx
dψ(p)
hp|x̂|ψi = i~
dp

Vediamo infine che gli operatori x̂ e p̂ sono coniugati e che non commutano. Infatti da:

hx|x̂|ψi = x ψ(x)

e da:
dψ(x)
hx|p̂|ψi = −i~
dx

segue:
dψ(x)
hx|x̂p̂|ψi = −i~ x
dx

e anche:
d [xψ(x)]
hx|p̂x̂|ψi = −i~
dx

e quindi:
hx|[x̂, p̂]|ψi = i~ ψ(x)

ovvero:
[x̂, p̂] = i~ I

37
e notiamo, ricordando le parentesi di Poisson tra due variabili A(x, p) e B(x, p) sono definite da
 
∂A ∂B ∂A ∂B
{A, B} = −
∂x ∂p ∂p ∂x

ricordiamo che {x, p} = 1 e quindi

[x̂, p̂] = i~ I {x, p}

Vedremo che è un fatto generale che nella quantizzazione canonica il commutatore tra due va-
riabili dinamiche funzioni di x e p con corrispondente classico, sia i~· la parentesi di Poisson
classica.
Veniamo adesso al riassunto di esempi salienti che avevano messo in crisi la fisica classica all’ini-
zio del ventesimo secolo e a seguire due esperienze che “guidano” verso i postulati. Torneremo
quindi a questi con una convinzione maggiore sulla loro validità e avendo anche già sviluppato
una certa confidenza con il formalismo.

1.3 Crisi della fisica classica

1.3.1 Potere emissivo del corpo nero

La nascita della Meccanica Quantistica viene generalmente indicata con il 1900, anno in cui
Max Planck (Premio Nobel nel 1918) derivò la formula che descrive correttamente lo spettro
di emissione del corpo nero, introducendo tra l’altro la costante che porta il suo nome e che vi
accompagnerà d’ora in avanti in questo e molti altri corsi.
Questo fu il primo esempio tra vari fenomeni che classicamente non trovavano spiegazione e
che, benchè risolto dalla formula di Planck senza nuove ipotesi (solo interpolando una formula
teorica classica che ben spiegava lo spettro a basse frequenze con un andamento sperimentale
che descriveva la parte ad alte frequenze non spiegabile classicamente), implicava che l’emissione
di radiazione elettromagnetica avvenisse per “quanti”, ossia per pacchetti discreti di energia e
non con continuità come previsto classicamente.
Senza addentrarci in dettagli che eventualmente studierete in modo più approfondito nel corso
di Fisica della Materia, riassumiamo alcuni aspetti: ogni corpo a una certa temperatura emette
radiazione elettromagnetica e ha un potere emissivo e un potere assorbente specifico.

Il corpo nero è un corpo ideale con potere assorbente specifico Aν = 1 e può ben essere

38
approssimato da un forellino sulla superficie di una cavità all’equilibrio termico a una tempe-
ratura assegnata T . All’equilibrio termodinamico il potere emissivo del corpo nero fornisce la
densità di energia elettromagnetica, funzione di temperatura e frequenza, data dal rapporto tra
potere emissivo specifico e potere assorbente specifico uν (ν, T ) = Eν /Aν che, come dimostrato
da Kirchhoff, è una funzione universale di ν, T e caratterizza appunto la radiazione elettroma-
gnetica in equilibrio termico con un corpo. Saremo sintetici perchè per adesso ci interessano solo
gli aspetti principali utili per cogliere la novità concettuale che la formula di Planck implica.
Dunque: a basse frequenze funziona bene la formula classica di Rayleigh e Jeans
ρν = 8πuν /c = 8πkν 2 T /c3 con k = 1, 381 · 10−23 J ? K −1 costante di Boltzmann, mentre alle
alte frequenze la stessa formula darebbe un andamento divergente di ρ (catastrofe ultravioletta)
mentre in questo regime funzionava la formula empirica di Wien (Nobel 1911) ρν = Bν 3 e−bν/T
(con B, b parametri di fit).
Nel 1900 Planck interpolò i due opposti regimi riproducendo la curva sperimentale con la formula

8πh ν3
ρν =
c3 ehν/kT − 1

h = 6, 626 · 10−27 erg · sec costante di Planck.


Per apprezzare la svolta costituita da Planck consideriamo una formula che vale sia classicamente
che quantisticamente
8πν 3
ρν = ¯
c3

con ¯ energia media di un oscillatore a frequenza ν, che si può calcolare dalla Funzione di
1 ∂Z
Partizione Z = conf e−βE , (β = 1/(kT )) tramite ¯ = −
P
.
Z ∂β
Quindi con un calcolo classico:

p2 1
E = + mω 2 q 2
2m
Z 2

Z = dp dq e−βE =
ωβ

e quindi ¯ = kT ovvero Rayleigh e Jeans.


Quantisticamente invece si considera l’energia data a pacchetti o ”quanti” hν:

E = nhν

1
e−βnhν =
X
Z =
n=0 1 − e−βhν


da cui ¯ = che porta alla formula di Planck. La ”spiegazione” del potere emissivo del
eβhν −1

39
corpo nero richiede quindi l’ipotesi che, almeno nell’emissione, la radiazione elettromagnetica si
comporti come se fosse composta da quanti di energia E = hν.
Con questo risultato sull’energia media Einstein nel 1907 spiegò anche la discordanza dai dati
sperimentali della previsione classica riguardo il comportamento del calore specifico dei solidi a
basse temperature.

1.3.2 Effetto fotoelettrico

(Millikan, Nobel 1923)

Si tratta dell’emissione di elettroni da parte di metalli irraggiati.


Einstein nel 1905 (Nobel 1921) spiegò l’effetto fotoelettrico ipotizzando che l’asssorbimento di
radiazione avvenga per quanti (nel corpo nero abbiamo visto che è l’emissione). Si tratta di
un passo ulteriore verso la descrizione della radiazione elettromagnetica in termini corpuscolari,
ovvero composta da fotoni, quanti del campo e.m.-

Osservazioni sperimentali
1) - L’emissione di fotoelettroni avviene solo sopra una frequenza di soglia ν > ν0 .
2) - L’energia cinetica massima degli elettroni dipende linearmente da ν e ν0 , ma è indipendente
dall’intensità della radiazione.
3) - Il numero di fotoelettroni emessi per unità di tempo e di superficie è proporzionale all’in-
tensità della radiazione.
4) - L’estrazione è istantanea se ν > ν0 .
Classicamente dopo un certo tempo (dell’ordine di ore) l’elettrone dovrebbe accumulare un’e-
nergia superiore al lavoro di estrazione W e venire emesso. Inoltre la sua velocità dovrebbe
dipendere dall’intensità della radiazione incidente sulla superficie del metallo.

Ipotesi di Einstein - L’estrazione di un fotoelettrone avviene (ed avviene istantaneamente)


quando l’elettrone assorbe un quanto di energia del campo elettromagnetico E = hν ≥ hν0 = W ,
quindi ν0 = W/h è la frequenza di soglia.
Per quanto riguarda il bilancio energetico si deve tenere presente che l’energia del campo elettro-
magnetico, supposto monocromatico, nell’ipotesi di Einstein è data dalla somma delle energie
dei fotoni, ovvero E = nhν. Un aumento dell’intensità è quindi dovuto ad un aumento di n,
numero dei fotoni. Pertanto se per ogni fotone fosse esattamente hν = hν0 = W gli elettroni
sarebbero estratti con velocità nulla. In sostanza l’energia cinetica di un elettrone emesso è

40
data dalla differenza Ecin = hν − W = h(ν − ν0 ). Un aumento dell’intensità della radiazione
incidente comporta quindi (sempre per ν > ν0 ) un aumento del numero degli elettroni emessi
ma non della loro energia cinetica.
Con le spiegazioni dell’effetto fotoelettrico e dello spettro di emissione del corpo nero emerge
quindi, come già detto, che almeno nell’assorbimento e nell’emissione, il campo elettromagnetico
si comporti come se fosse composto da corpuscoli, quanti, di energia hν, i fotoni. Con l’effet-
to Compton (come vedremo tra poco) venne definitivamente supportata l’ipotesi che il campo
elettromagnetico stesso fosse composto da fotoni. Si presentano quindi fenomeni spiegabili con
una natura corpuscolare della radiazione insieme a quelli già noti come interferenza e diffrazione
spiegabili invece come sappiamo con una descrizione ondulatoria. Vedremo in seguito come la
Meccanica Quantistica riconcilia queste descrizioni apparentemente inconciliabili.
Come ultima nota in questa rassegna sintetica vediamo che il fatto che un fotone γ viaggi alla ve-
locità della luce c implica che abbia massa a riposo mγ = 0. Vale infatti per qualunque particella
p
(e il fotone lo è) la relazione di dispersione tra energia e impulso relativistica E = m2 c4 + p2 c2
∂E pc2
e anche che v = = e da questa con vγ = c risulta che Eγ = pγ c e quindi dalla legge di
∂p E
dispersione che mγ = 0.

1.3.3 Effetto Compton

Compton 1923 (Nobel 1927)

Deviando dall’ordine temporale per seguire un ordine logico passiamo all’effetto Compton la
cui spiegazione, come detto, conferma l’ipotesi dell’esistenza dei fotoni come quanti del campo
elettromagnetico.
Nella diffusione di raggi X su paraffina si osservano due righe, una con λ0 = λ e una con λ0 > λ.
La seconda non si spiegava perchè classicamente gli elettroni dovrebbero oscillare con la stessa
frequenza della radiazione incidente. I risultati delle osservazioni sperimentali erano invece ben
spiegati descrivendo il processo con l’urto elastico di un fotone su un elettrone quasi libero (riga
con λ0 > λ) e su elettroni più legati (riga con λ0 = λ).
Scrivendo la conservazione di energia e impulso (nel piano dell’urto (x, y)) si ha (λν = c):

Eγi + Eei = Eγf + Eef

p~iγ + p~ie = p~fγ + p~fe

41
ovvero

hν + mc2 = hν 0 + mγc2
hν hν 0
= cos ϕ + mγv cos ψ
c c
hν 0
0 = sin ϕ − mγv sin ψ
c

γ = (1 − v 2 /c2 )−1 .
Risolvendo il sistema si trova la formula che descrive le osservazioni ovvero:

ϕ
λ0 − λ = 2 λc sin2
2

h
con λc = ' 2, 4 · 10−10 cm, lunghezza d’onda Compton (dell’elettrone in questo caso). In
mc
generale, per ricordare l’espressione della lunghezza d’onda Compton di una particella con mas-
sa a riposo, basta uguagliare l’energia di un fotone all’energia a riposo della particella, ovvero
mc2 = hνc = hc/λc .

1.3.4 Spettri e livelli atomici - Stabilità degli atomi

Bohr 1913 (Nobel 1922) - (Franck e Hertz 1913-14 - Nobel 1925 conferma sperimentale dei livelli
energetici atomici discreti)
Il principio di combinazione di Ritz (Rydberg - 1905) descriveva bene le serie di righe spettrali
dell’atomo di idrogeno. I termini spettrali erano dati da
 
1 ν 1 1
= =R 2
− 2 ; m<n
λ c m n

(R = 1, 09677 · 105 cm−1 costante di Rydberg). Per le energie


   
1 1 1 1
hν = En − Em = hc R 2
− 2 ' 13, 6 eV 2
− 2
m n m n

1 eV = 1, 6 · 1019 J.
Per m = 1, 2, 3 si ottengo rispettivamente le serie di Lyman (ultravioletto), Balmer (visibile) e
Paschen (infrarosso).
Gli esperimenti di Rutherford (1911) con scattering di particelle α su atomi con deviazioni a
grandi angoli suggerivano un modello planetario dell’atomo. Tuttavia queste erano le
Difficoltà classiche

42
a) - Stabilità degli atomi: - una carica accelerata perde energia e nel modello planetario l’elettrone
dovrebbe collassare sul nucleo in tempi brevissimi dell’ordine di 10−11 sec
b) - Spettro di righe: - classicamente ω ∼ r−3/2 e le frequenze di emissione dovrebbero costituire
un continuo.
Prima della soluzione esatta dell’equazione di Schrodinger gli aspetti essenziali furono colti dal
Modello di Bohr
Nel modello semiclassico dell’atomo di idrogeno Bohr postula:
a) - Gli elettroni orbitanti non emettono secondo le leggi della fisica classica. Si distribuiscono
su livelli energetici stabili ed emettono o assorbono solo nelle transizioni tra livelli diversi con

En − Em
νnm =
h

b) - Sono permesse solo orbite per le quali il momento angolare dell’elettrone è multiplo di ~

nh
Lz = n~ = ; n = 1, 2, 3, ....

c) - Per il resto si possono usare le leggi classiche.


Prendendo quindi ancora il modello planetario classico con l’elettrone particella puntiforme che
ruota attorno al nucleo abbiamo la conservazione dell’energia, la seconda legge della dinamica e
la quantizzazione del momento angolare

1 e2
E = mv 2 −
2 r
mv 2 e2
=
r r2
Lz = mvr = n~

e da queste si ricava
e2 1
En = −
2a0 n2

che è sostanzialmente il risultato che otterrete anche risolvendo l’equazione di Schrodinger e


~2
dove a0 = ∼ 0, 5 · 10−8 cm è il raggio di Bohr.
me2
Notiamo che per grandi n (grandi numeri quantici) i livelli si infittiscono e si tende al continuo
(limite classico - Principio di Corrispondenza).
Per ottenere il valore preciso dell’energia del livello fondamentale dell’atomo di idrogeno si deve
sostituire m → µ ovvero con la massa ridotta µ = mM/(m + M ) che risulta molto prossima
alla massa dell’elettrone perchè M ∼ 2000m. L’energia del livello fondamentale dell’atomo di
idrogeno E1 = −e2 /2a0 ' −13, 59 eV con a0 = ~2 /µe2 .

43
L’approccio di Bohr fu poi generalizzato da Sommerfeld e Watson nel 1915 con la quantizzazione
degli integrali di azione
I
pi dqi = nh

e tuttora vengono usati in determinate condizioni e fanno parte dei cosiddetti metodi semiclassici.
Un esempio si ha con pϕ = Lz per un rotatore nel piano (x, y):

I
pϕ dϕ = nh → 2πLz = nh → Lz = n~

e anche tra energia e tempo su un moto periodico con energia costante si ha

Z T
E dt = ET = nh → E = nhν
0

Facciamo inoltre alcune osservazioni sul limite di validità del formalismo che svilupperemo nel
corso e che si può chiamare Meccanica Quantistica non relativistica e quasi sempre di singola
particella, che vale quando la relatività può essere trascurata del tutto o, al massimo, ad esempio
per la struttura fine dei livelli dell’atomo di idrogeno, considerata una piccola correzione. Questo
è giustificato appunto dal fatto che tratteremo problemi in regime non relativistico, ovvero a
velocità medie piccole rispetto a c o equivalentemente a energie scambiate inferiori alla soglia di
produzione di coppie particella-antiparticella. Prendiamo ad esempio il caso di atomi idrogenoidi,
per i quali e → Ze, a0 → a0 /Z, En → Z 2 En . I livelli energetici si possono esprimere facendo
e2 1
comparire la costante di struttura fine α = = e si trova, per atomi idrogenoidi:
~c 137

µc2 1
En = −Z 2 α2 < mc2
2 n2

Quindi, anche per atomi pesanti con Z ∼ 100, le energie coinvolte nelle transizioni restano al di
sotto della soglia di produzione di coppie particella-antiparticella. Equivalentemente se si calcola
la velocità media dell’elettrone orbitante nel modello di Bohr si ottiene v ' αc quindi v << c.
La Meccanica Quantistica vale sempre, anche nel caso relativistico, ma il formalismo cambia e
diventa quello della Teoria Quantistica Relativistica dei Campi, della quale si occupano corsi
successivi. Tuttavia conoscere i limiti di validità di un formalismo è importante cosı̀ come intui-
re il perchè. Lo spartiacque tra MQ e QFT può essere dato in termini di energie coinvolte ma
anche in termini delle distanze che si vanno ad esplorare: quando queste diventano dell’ordine
della lunghezza d’onda Compton di una particella λc = h/M c o addirittura inferiori, le energie
in gioco chiamano in causa l’antimateria; altrimenti detto si entra in regime fortemente relati-
vistico e serve una teoria a molti corpi.

44
Possiamo anche aggiungere che nel corso, tranne che in questa parte iniziale, non sentirete quasi
più parlare di fotoni perchè alle energie in gioco il campo elettromagnetico sarà sempre conside-
rato come un campo esterno al sistema in esame e classico, ovvero in una descrizione ondulatoria.
La descrizione in termini di collezione di fotoni diventa imprescindibile in regime pienamente
relativistico.
Proseguiamo con la carrellata dei risultati più importanti a proposito della crisi della fisica clas-
sica.

1.3.5 Dualismo onda-corpuscolo: onde materiali

De Broglie 1923 (Nobel 1929)

Per la radiazione elettromagnetica abbiamo già visto che si manifesta una doppia natura:
corpuscolare con i fotoni nell’effetto fotoelettrico e nell’effetto Compton e ondulatoria in inter-
ferenza e diffrazione. Questo condusse al concetto di dualismo onda-corpuscolo con il principio
di complementarietà dovuto a Bohr che affermava che i due aspetti non possono manifestarsi
contemporaneamente. Dal parallelo formale tra ottica e meccanica De Broglie ipotizzò che a
livello atomico si manifestano comportamenti ondulatori per la materia e quindi di associare
~
a una particella di massa m, energia E e impulso p~ un’onda ψ(~x, t) = A ei(k · ~x − ωt)) con
ω = E/~, ~k = p~/~ e lunghezza d’onda di De Broglie associata

h
λ=
p

(espressione che vale sia relativisticamente che non).


Sperimentalmente il comportamento ondulatorio della materia fu verificato nell’esperimento di
Davisson e Germer del 1927 (Davisson Nobel nel 1937) con la diffrazione di elettroni su Nichel
(λ ∼ 1, 5 A (raggi X).
Per la luce, ovvero per i fotoni, aspetti ondulatorio e corpuscolare si possono collegare assu-
mendo che la densità di energia di un’onda elettromagnetica monocromatica di frequenza ν sia
proporzionale al numero probabile di fotoni per unità di volume:

~2 + B
n̄ ∝ E ~2

Con questa idea la probabilità si lega al modulo quadro delle grandezze ondulatorie e quindi
qualcosa di simile ci si aspetta che dovrà valere per le onde materiali.

45
Notiamo anche che il passaggio tra grandezze di tipo meccanico (energia, impulso ecc.) e
grandezze ondulatorie (frequenza, numero d’onda ecc.) avviene attraverso la costante di Planck:

E = ~ω ; p~ = ~~k

∂E ∂H
Similmente come v = (q̇ = ) si avrà per la velocità di una particella materiale descritta
∂p ∂p
da un pacchetto d’onde, che la velocità del baricentro del pacchetto o velocità di gruppo sarà
∂ω E ω
vg = (per i fotoni nel vuoto invece v = c = = = vf ). Cosı̀ E = E(p) e ω = ω(k) è
∂k p k
detta relazione di dispersione.
Un’ultima nota la dedichiamo al fatto che imporre che l’orbita dell’elettrone orbitante attorno al
nucleo, nell’atomo di idrogeno, sia fatta da un’onda stazionaria, equivale a imporre che l’orbita
contenga un numero intero di lunghezze d’onda di De Broglie, il che ancora implica che il
momento angolare orbitale sia quantizzato:

h
2πr = nλ = n ⇒ pr = Lz = n~
p

1.3.6 Principio di Indeterminazione

Heisenberg 1927 (Nobel 1932)

“Due grandezze canonicamente coniugate non possono essere misurate contemporaneamen-


te con precisione assoluta”. Vedremo che questo principio (negativo, per cui non entrerà nei
postulati come vedremo) deriva dalle leggi della Meccanica Quantistica. In particolare l’inde-
terminazione forse più importante fisicamente per le sue conseguenze concettuali è quella tra
posizione e impulso:
~
∆x · ∆p ≥
2

che implica che perde di senso il concetto di traiettoria (questo può essere però misleading
in quanto la perdita del concetto di traiettoria è più forte e non risiede solo nel principio di
indeterminazione come vedremo con la doppia fenditura); soprattutto perde significato la nozione
di particella considerata come punto materiale in quanto nell’incertezza ∆x non siamo in grado
di distinguere se esista un pacchetto d’onde o un corpuscolo. Il principio di indeterminazione
è “contenuto” nelle trasformate di Fourier ovvero in un formalismo ondulatorio, ma si deve
fare attenzione a non confondere il dualismo onda-corpuscolo e l’approccio di De Broglie, come
vedremo, con l’idea che l’oggetto sia un’onda o un corpuscolo. Più avanti dovreste essere in
grado di apprezzare che la grandezza fondamentale sarà l’ampiezza di probabilità, data dalla

46
funzione d’onda che effettivamente utilizza un formalismo ondulatorio, ma questo non avrà a
che fare con la natura delle particelle in esame. Il principio di indeterminazione ci dice che
senza poter misurare contemporaneamente posizione e velocità si perde il determinismo classico
(e anche appunto il concetto di traiettoria). Si deve rinunciare all’idea di una particella come
un punto materiale, ma come vedremo con l’esperienza della doppia fenditura non è la singola
particella a comportarsi come un’onda, ma la ampiezza di probabilità di presenza nello spazio.
Sulla natura dell’oggetto invece semplicemente si deve accettare un’ignoranza. Il dualismo onda-
corpuscolo sussiste nel fatto che certi fenomeni si spiegano in un formalismo del tipo di quello
delle leggi della meccanica e altri con un formalismo del tipo della fisica delle onde. Cercheremo
di precisare i limiti di applicabilità e la ragione per la quale di volta in volta prevale l’una o
l’altra descrizione.
Vediamo un paio di esperimenti concettuali classici per elucidare il principio di indeterminazione.
Il primo è la misura della posizione in x di un elettrone in un fascio con un diaframma. Gli
elettroni del fascio siano diretti lungo z e il diaframma abbia apertura d per cui ∆x ' d.
All’elettrone è associata una lunghezza d’onda λ = h/p e “l’elettrone viene diffratto” se d ∼ λ
(si ha poi d sin α = nλ) e acquista (a modulo |~
p| ≡ p costante) un impulso px ∼ p sin α, misurabile
a distanza sufficiente con una precisione che si calcola con α ∼ λ/d = h/(pd) ∼ h/(p∆x) e quindi
∆px ∼ pα ∼ h/∆x. Migliorare la precisione su ∆x obbliga a peggiorarla su ∆p (riduzione di d)
e viceversa (legame con le trasformate di Fourier).
La seconda esperienza concettuale è il “microscopio di Heisenberg”. Il fotone di un fascio urta
un elettrone e entra nella camera permettendo di “vedere” la posizione dell’elettrone. Come
sappiamo dall’effetto Compton il fotone che ha urtato l’elettrone ha una lunghezza d’onda diversa
da quella iniziale. Dalla conservazione dell’impulso lungo x, con riferimento alla figura:

λ0 hν hν 0
∆x ' ; = cos θ + px
sin α c c

ν0 ν0
   
π π hν hν
con − α ≤ θ ≤ + α , da cui segue 1 − sin α ≤ px ≤ 1 + sin α da cui
2 2 c ν c ν
ancora
hν 0 hν 0 λ0 h
∆px ' sin α ' '
c c ∆x ∆x
Abbiamo accennato al fatto che il principio di indeterminazione in un formalismo ondulatorio è
in pratica implicito nel passaggio della descrizione di un pacchetto d’onda dallo spazio reale a
quello delle componenti di Fourier e viceversa. Consideriamo infatti per semplicità un pacchetto

rettangolare ψ(x) = 1/ a per |x| < a/2 e nullo per |x| > a/2. Il suo spettro, ovvero l’ampiezza

47
delle sue componenti di Fourier, è
 
ka
Z +∞
r sin
1 2 2
ψ(k) = √ e−ikx ψ(x) dx =
2π −∞ πa k

per cui  
ka
sin2
2 2
|ψ(k)|2 =
πa k2

Dal grafico si vede che domina il blob centrale per cui l’incertezza su k è data dalla distanza tra
i due primi zeri dello spettro simmetrici rispetto all’origine mentre quella su x è dell’ordine di

a, quindi ∆k · ∆x ' a e quindi ∆p · ∆x = ~∆k · ∆x ' h . È chiaro che riducendo a ovvero
a
l’indeterminazione su x aumenta quella su k e quindi su p e viceversa, quindi nelle trasformate
di Fourier si vede facilmente che in qualche modo è “contenuto” il principio di indeterminazione
tra posizione e impulso.
Una relazione di indeterminazione sussiste anche tra tempo ed energia, benchè non siano variabile
canonicamente coniugate (il tempo è un parametro):

∆E · ∆t ≥ ~

Ripetiamo ancora che il dualismo onda-corpuscolo venne poi superato come vedremo in seguito,
ma vedremo anche che in certi casi, quali l’approssimazione semiclassica e altri, è un punto di
vista utile.

1.3.7 Parallelo Ottica-Meccanica

Terminiamo infatti questa carrellata introduttiva sulla crisi della fisica classica e la nascita
della Meccanica Quantistica, dicendo che da tempo era noto che l’“equazione d’onda per la
materia”, vista completando un quadro di analogie tra ottica e meccanica, portava all’equazione
di Schrodinger. Infatti per i corpuscoli valgono come sappiamo equazioni di tipo meccanico,
con traiettorie date dalle soluzioni delle equazioni cardinali o delle equazioni di Hamilton nel
formalismo canonico, cosı̀ come erano note le equazioni delle onde nell’elettromagnetismo e in
ottica, e il limite dell’ottica geometrica che dava luogo a equazioni per le traiettorie dei raggi che
erano equazioni simili in forma a quelle della meccanica. Il limite dell’ottica geometrica si ha
quando l’indice di rifrazione n(x) in generale dipendente dalla posizione è debolmente variabile
su scala di una lunghezza d’onda (legge di Snell a esempio). Si poteva pensare quindi che le leggi

48
della meccanica si potessero ottenere da un limite analogo di una più generale equazione d’onda
per la materia. Si può compilare uno schema che riassume il parallelo tra ottica e meccanica
con il passaggio tra grandezze di tipo meccanico (energia, impulso ecc.) e di tipo ondulatorio
(frequenza, numero d’onda ecc.) che si fa attraverso la costante di Planck ~:

Ottica M eccanica M eccanica Ondulatoria

∂φ(~x, t) ∂S(~x, t)
− = ω = cost − = E = cost ω = E/~
∂t ∂t
~ = k0 ∇L
∇φ ~ = ~k ~ = ∇W
∇S ~ = p~ ~k = p~/~

k0 L(~x) W (~x) k0 L(~x) = W (~x)/~

φ(~x) S(~x) φ(~x) = S(~x)/~



~
2 
~
2 2m
∇φ = k02 n2 (~x) ∇S = 2m [E − V (~x)] k02 n2 (~x) → 2 [E − V (~x)]
~
(eq. iconale ottica geom.) (eq. Ham. Jacobi)

Considerando una “funzione d’onda per la materia” ψ(~x, t), limitandosi al caso monocromatico
ψ(~x, t) = u(~x) e−iωt (energia fissata) dalla corrispondenza con l’ottica si ottiene che l’equazione
di Hamilton-Jacobi diventa:
~ 2 u(~x) + 2m [E − V (~x)] u(~x)

~2

che come vedremo è l’equazione di Schrodinger stazionaria.

1.4 Esperimenti di Stern-Gerlach in sequenza e Doppia fendi-


tura: Verso i Postulati della Meccanica Quantistica

1.4.1 Esperimento di Stern-Gerlach

(Stern, Nobel 1943) - Nel loro esperimento un forno emette un fascio di atomi di Ag che vengono
collimati e fatti passare in una regione dove un dispositivo fornisce un campo magnetico forte-
mente disomogeneo lungo z e dopo la loro uscita vengono rilevati su uno schermo. In questo
esperimento si vede la quantizzazione spaziale dello spin (momento angolare intrinseco dell’elet-
trone) e con esperimenti in sequenza vedremo che si comincia a intravedere la nuova descrizione
basata sul concetto di stato di un sistema quantistico e della sua descrizione in termini di ele-
mento di uno spazio vettoriale complesso.
In primo luogo diciamo che il momento magnetico dell’Ag èssenzialmente dovuto allo spin del-

49
e ~
l’elettrone più esterno µ
~= S . In presenza di un campo magnetico esterno statico l’energia
mc
di interazione è data da U = −~ ~ e la forza, essendo il campo magnetico disomogeneo in
µ · B,
∂Bz
direzione z è data da Fz = µz . Ciò che si osserva, invece del risultato classico ovvero un
∂z
continuo di valori nell’intervallo (−|~µ|, |~
µ|), sono due spot centrati attorno ai valori corrispon-
denti a Sz = ±~/2 con ~ = 1, 0546 · 10−27 erg · sec . A parte il risultato della quantizzazione
del momento angolare intrinseco, è fondamentale capire cosa si deduce da esperimenti di questo
tipo fatti in sequenza.

50
1.4.2 Esperimenti di Stern-Gerlach in sequenza - (Sakurai-Napolitano)

Come primo esperimento in sequenza supponiamo che in uscita dal primo SG lungo z si lasci
proseguire il fascio con Sz = +~/2 e si blocchi quello con Sz = −~/2 e all’uscita si piazzi un
altro apparato SG che misura Sz . Si troverà semplicemente che il fascio con Sz = +~/2 passa
integralmente e inalterato e non si rivela altro.
Come secondo esperimento supponiamo di procedere come nel primo caso salvo che l’ultimo SG
non rivela Sz bensı̀ Sx e in questo caso si rivela un 50% di elettroni con Sx = +~/2 e un 50%

51
con Sx = −~/2 e nient’altro. Ci si domanda come sia possibile ovvero se la metà degli atomi
avessero Sz = +~/2 e Sx = +~/2, mentre l’altra metà avessero Sz = +~/2 e Sx = −~/2? Una
interpretazione sbagliata come vedremo.
Nel terzo caso si procede come nel secondo ma alla fine si blocca il fascio con Sx = −~/2 e si
lascia proseguire solo quello con Sx = +~/2 facendolo passare da uno SG che misura ancora
Sz e in questo caso sorprendentemente si rivelano due fasci, ciascuno del 50% di intensità, uno
con Sz = +~/2 e l’altro con Sz = −~/2! Questo significa che la misura intermedia di Sx ha
distrutto l’informazione che avevamo all’uscita del primo SG. Questo fatto come vedremo avrà
una formalizzazione matematica e comunque significa che non possiamo misurare contempora-
neamente, avere informazioni simultanee, su Sx e Sz e in generale su due componenti diverse
dello spin visto che gli assi sono scelti arbitrariamente. Cade anche l’ipotesi fatta dopo il secondo
esperimento. Queste osservazioni oltre a essere in contrasto con i risultati classici dove niente
impediva la conoscenza simultanea delle diverse componenti spaziali ad esempio del momento
angolare orbitale, forzano a formulare un parallelo con la polarizzazione della luce e a iniziare a
parlare di ”stato” del sistema come elemento di uno spazio vettoriale.

Vediamo meglio: consideriamo la propagazione di un’onda monocromatica lungo ẑ, polariz-


zata linearmente lungo una direzione nel piano (x, y) come si può ottenere con un polaroid. Il
campo elettrico avrà la forma
~ = E0 cos(kz − ωt) x̂
E

se polarizzato a esempio lungo x̂. Sappiamo che se dopo aver fatto passare il fascio luminoso
monocromatico attraverso un filtro (polaroid) x̂, lo facciamo transitare attraverso un filtro ŷ non
esce nessun fascio. Se invece si pone in posizione intermedia un filtro x̂0 (ruotato di π/4 rispetto
al primo), dopo il filtro ŷ esce un fascio (polarizzato lungo ŷ). Quindi il filtro x̂0 distrugge
informazione sulla polarizzazione precedente cosı̀ come SGx distruggeva informazione su Sz . Si
può quindi fare l’analogia tra gli SG e i filtri e tra

Atomi con Sz± ↔ luce polarizzata lungo x, y

Atomi con Sx± ↔ luce polarizzata lungo x0 , y 0

D’altra parte sappiamo come si spiega il fenomeno classico della polarizzazione: il campo elettrico
è un vettore, che si può scrivere quindi come combinazione lineare (sovrapposizione) delle sue
componenti (stati di polarizzazione). Nel caso in discussione, detta φ = kz − ωt la fase, il campo

52
lungo una direzione a π/4 rispetto al primo quadrante del piano (x, y) si può scrivere
 
0 x̂ + ŷ
E0 cos φ x̂ = E0 cos φ √
2
 
ŷ − x̂
E0 cos φ ŷ 0 = E0 cos φ √
2

e naturalmente le componenti lungo x̂, ŷ in termini di quelle lungo x̂0 , ŷ 0 che si ottengono inver-
tendo le precedenti.

Ciò che si osserva con luce polarizzata si spiega quindi classicamente semplicemente con il
fatto che il fascio iniziale che esce dal filtro x̂ è combinazione di componenti lungo x̂0 e ŷ 0 e quindi
che il filtro x̂0 seleziona questa componente che a sua volta è sovrapposizione di componenti
lungo x̂ e ŷ e quindi con il filtro lungo ŷ passa quest’ultima. Il fatto che il filtro intermedio
faccia ricomparire una componente polarizzata lungo ŷ non ci stupisce. La corrispondenza ci
guida per gli SG in sequenza: dobbiamo cominciare a pensare che tutto sia spiegabile se vediamo
il contenuto di momento angolare intrinseco di spin di un fascio a esempio con la componente di
Sx = +~/2 (in uscita dalla SGx ) come proprietà di un “vettore di stato” in uno spazio vettoriale
astratto 2 − d
|Sz , +i + |Sz , −i
|Sx , +i ∼ √
2
e per lo stato descritto da |Sx , −i la combinazione ortogonale (abbiamo anticipato la notazione
di Dirac che vedremo poi per indicare i vettori).
Però le direzioni nello spazio, che possono essere scelte arbitrariamente, son tre, quindi: come
descriveremmo lo stato |Sy , +i ? Anche in questo caso ci aiuta il parallelo con la luce polarizzata.
Infatti un fascio polarizzato circolarmente nel piano (x, y) si rappresenta con combinazioni lineari
di polarizzazioni lineari, ma con coefficienti complessi:
 
± iŷ
~ = E0 Re eiφ x̂ √
E
2

Si può quindi rappresentare un atomo con Sy± in analogia a un fascio destrogiro/levogiro con

|Sz , +i ± i|Sz , −i
|Sy , ±i ∼ √
2

e quindi in generale servirà uno spazio vettoriale complesso! (spazi di Hilbert).


La seconda esperienza che aiuta ad accettare i postulati che discuteremo, è l’esperimento della
doppia fenditura.

53
1.4.3 Esperimento della doppia fenditura (double slit experiment)

Nella prima figura vediamo uno schema dell’esperimento della doppia fenditura ovvero dell’in-
terferometro di Young. Da una lampada di vapori di mercurio parte la luce che passa attraverso
una prima fenditura sottile F e viene diffratta per poi passare attraverso due fenditure sottili e
molto vicine F1 e F2 . Dopo di queste, a distanza sufficientemente grande rispetto alle dimensioni
precedentemente in gioco si trova uno schermo dove viene visualizzata la figura di interferen-
za. Il fenomeno si spiega bene nell’ambito della teoria ondulatoria della luce con i fenomeni di
interferenza e diffrazione. Dalle due fenditure partono infatti due onde che vengono diffratte e
si propagano fino allo schermo. Su questo quando l’interferenza delle due onde è costruttiva si
hanno massimi di intensità mentre quando è distruttiva minimi. Tuttavia, sempre sulla base
della teoria ondulatoria ci si aspetterebbe, guardando nel dettaglio le frange di interferenza, di
vedere una distribuzione uniforme, mentre si osservano tantissimi punti sparpagliati, riportan-
doci a pensare alla luce come fatta da fotoni. Inoltre guardando frange diverse ma della stessa
intensità la distribuzione dei punti appare casuale!

D’altra parte con una descrizione corpuscolare non si spiega la figura di interferenza. Infatti
secondo una descrizione classica ci aspetteremmo una intensità somma delle intensità associate
alle singole fenditure F1 e F2 , mentre risulta I1+2 6= I1 + I2 . Questo invece come già detto non
è un problema dal punto di vista ondulatorio perchè in questo caso l’intensità è proporziona-
le al modulo quadro del campo elettromagnetico. Se quindi si sommano le ampiezze, ovvero
A1+2 = A1 + A2 per l’intensità si ha I1+2 ∝ |A1+2 |2 = |A1 |2 + |A2 |2 + 2Re (A∗1 A2 ) 6= |A1 |2 + |A2 |2
con, appunto, il termine di interferenza.
Quindi onda o corpuscolo?

In realtà, riducendo l’intensità si può far passare un singolo fotone e si può anche ripetere
l’esperimento con elettroni, facendone passare uno alla volta. Sia con fotoni che con elettroni
si osserva che la figura di interferenza si forma dopo moltissimi eventi, e solo quando le due
fenditure sono entrambe aperte.
Infatti un aspetto fondamentale, che va sottolineato perchè anche questo fa da guida per la
descrizione quantomeccanica ovvero in termini probabilistici e di stato iniziale, è il fatto che
se si prova a determinare da quale delle due fenditure è passato il fotone (o l’elettrone) non si
osserva più la figura di interferenza.

La conclusione è che non si tratta di stabilire la natura del fotone o dell’elettrone (che a causa

54
del principio di indeterminazione per noi, nel caso dell’elettrone a esempio, potrebbe essere un
corpuscolo come un pacchetto d’onda) in quanto ogni singolo evento lascia uno spot con un certo
∆x e quindi non ha niente di un’onda, bensı̀ di realizzare che la natura della legge che regola
il fenomeno è di tipo probabilistico (Born) e che si descrive all’interno di un formalismo di tipo
ondulatorio. Vedremo infatti che il fatto di non sapere da quale fenditura è passato a esempio
l’elettrone (altrimenti si distrugge la figura di interferenza come detto) equivale a dire che lo
stato di partenza è dato dalla sovrapposizione di due stati rappresentati da due vettori di uno
spazio vettoriale complesso e che la probabilità che l’elettrone sia rivelato in una certa posizione
sarà legato al modulo quadro del vettore di stato e quindi ci sarà interferenza come nel caso della
somma in ampiezza di due onde del quale abbiamo parlato prima. In particolare vedremo come
si introduce la “funzione d’onda” ψ(x) collegata al vettore di stato, che rappresenta l’ampiezza
di probabilità di rivelare appunto la particella in un punto x. Si avrà in particolare:

P (x)dx = |ψ(x)|2 dx = |ψ1 (x) + ψ2 (x)|2 dx

che appunto rappresenta la probabilità di trovare la particella tra x e x + dx. Perde quindi
senso il concetto di traiettoria e con questa esperienza si vede che va oltre alla questione legata
al principio di indeterminazione. Con il principio di indeterminazione infatti abbiamo che non
possono essere note posizione e velocità contemporaneamente con precisione assoluta, ma con
questo esperimento si capisce che la posizione non è proprio data se non in senso probabilistico
fin quando non la si misura. Infatti non possiamo dire da quale fenditura sia passata o quale
posizione occuperà sullo schermo la particella se non agiamo sul sistema, e questo mette in
luce anche un altra proprietà quantistica fondamentale che sarà contenuta nei postulati, ovvero
che solo la misura ad esempio della posizione “forza” il sistema a una risposta (una posizione
definita, sebbene con una incertezza), altrimenti resta assegnata solo in senso probabilistico
ovvero sarebbero possibili molte posizioni differenti come risultato di una misura. Anche prima
della discussione dei postulati diciamo subito che l’individuazione della fenditura dalla quale
passa la particella non implica necessariamente una misura di posizione in quanto basta tappare
l’altra, vedremo che invece modifica lo stato iniziale della particella. Anche la misura di posizione
dello schermo influisce sullo stato del sistema ma nel senso che lo forza in un determinato stato
finale associato a una data posizione, come detto sia pur con incertezza. Dopo aver introdotto
i postulati ridiscuteremo l’esperimento, per il momento aggiungiamo anche che cade il principio
di realismo locale contenuto nella fisica classica. Questo afferma che la misura di una proprietà
fisica misurata debba necessariamente essere posseduta dal sistema prima della misura. È noto
che Einstein riteneva che tale principio dovesse valere in assoluto e pensava che la Meccanica

55
Quantistica che stava nascendo fosse una teoria incompleta. In realtà solo in tempi recenti, con
la discussione delle disuguaglianze di Bell (che non avremo tempo di discutere), si dimostra che
il principio va abbandonato.
Vedremo inoltre che la funzione d’onda ψ(x), cosı̀ come il vettore di stato, obbedisce all’equazione
di Schroedinger.

1.5 Esperienze e ritorno ai postulati

1.5.1 Stern-Gerlach in sequenza

Per spiegare cosa si osserva con l’esperimento di Stern e Gerlach partiamo dal primo postulato
e assegnamo ad ogni singolo atomo di Ag che passa per l’apparato di Stern e Gerlach uno stato
|ψi che vive in uno spazio di Hilbert. Anche se ancora non è stato introdotto lo spin, anticipiamo
che questo è descritto, nel caso dello spin elettronico, da tre matrici riferentesi allo spin lungo
le tre direzioni spaziali come S~ = ~ ~σ , dove ~σ = (σx , σy , σz ) sono le tre matrici di Pauli con:
2
     
0 1 0 −i 1 0
σx =   σy =   σz =  
1 0 i 0 0 −1

Il secondo postulato ci dice che ogni osservabile è descritta da un operatore lineare hermitiano
e come vediamo lo spin lo è. L’apparato di Stern-Gerlach SGz misurerà quindi Sz dell’elettrone
e, dato il terzo postulato, il risultato possibile di una misura di Sz sarà uno dei suoi autovalori e
quindi (abbiamo scelto la base nella quale proprio Sz è diagonale ma avremmo potuto sceglier-
ne un’altra) come si vede ±~/2 con probabilità P± = |h±|ψi|2 , dove |±i sono gli autostati
di σz |±i = ±|±i. Dopo la misura, l’elettrone si troverà in uno dei due autostati |+i o |−i a
seconda che il risultato sia stato rispettivamente +~/2 o −~/2. Annotiamo anche che i risultati
possibili sono esclusivi ed esaustivi infatti gli stati |+i e |−i sono ortogonali e formano una
base completa dello spazio (rappresentati dalla base canonica in questo caso).
Naturalmente è facile intuire che essendo il fascio prodotto dal forno “termico”, non ci sarà
motivo che sia privilegiata la probabilità di trovare lungo z (o lungo una qualunque altra di-
rezione) lo spin up piuttosto che down, quindi si può pensare di esprimere lo stato generico
|ψi = a+ |+i + a− |−i (un q-bit) con |a± |2 = 1/2 . Quindi dopo che molti elettroni saranno
passati nell’apparato SGz , sarà stato misurato Sz = +~/2 o Sz = −~/2 un uguale numero
di volte e la metà degli elettroni saranno nello stato |+i e metà nello stato |−i (a meno di
un fattore di fase). Bloccando il fascio nello stato |−i , e misurando poi Sx con SGx , meriterà
esprimere lo stato |+i come sovrapposizione di autostati di Sx e il risultato possibile sarà

56
ancora ±~/2 (autovalori di Sx ), ovvero sarà trovato lo stato |+ix o |−ix . Naturalmente se
come nella prima esperienza rimisurassimo Sz troveremmo sempre come risultato +~/2. Quindi
avremo (tralasciamo i calcoli che sono comunque molto semplici) che a meno di un fattore di
1 1
fase: |+i = √ |+ix + √ |−ix e quindi su molti atomi ne avremo poi il 50% nell’autostato
2 2
|+ix e il 50% nello stato |−ix . Infine bloccando il fascio in |−ix , l’ultimo SGz misurerà
1 1
nuovamente Sz e quindi riesprimeremo lo stato |+ix = √ |+i + √ |−i trovando, senza
2 2
sorpresa, il 50% degli elettroni (atomi di Ag) con Sz = +~/2 e il 50% con Sz = −~/2 .
Il fatto che la misura intermedia di Sx cancelli informazione su Sz è quindi ben incorporato
nel formalismo (ricordate l’analogia con la polarizzazione della luce) ed è legato al fatto che
~ non commutano tra loro. Ag-
come si può verificare direttamente, le varie componenti di S
giungiamo velocemente un paio di considerazioni: la prima è che l’autostato di Sy ad esempio
1 i
|+iy = √ |+i + √ |−i , quindi una combinazione complessa degli autostati di Sz e la seconda
2 2
è che dopo moltissime misure eseguite su sistemi ugualmente preparati nello stato iniziale |ψi, ci
aspettiamo che il valor medio di Sz sia nullo. Vediamo allora come si esprime matematicamente
il valor medio: data una osservabile Λ, con autovalori λi e autovettori |λi i, il valor medio ci
aspettiamo che sia la somma pesata dei risultati ottenuti (autovalori) con la probabilità relativa
(ricorrenza), ovvero:
X
Λ̄ ≡ hΛi = λi Pi (λi )
i

Ripetiamo che le misure si intendono eseguite su sistemi identicamente preparati e descritti da


un ket |ψi quindi:

X X X
Λ̄ ≡ hΛi = λi Pi (λi ) = λi |hλi |ψi|2 = λi hψ|λi ihλi |ψi = hψ|Λ|ψi
i i i

avendo utilizzato Pi (λi ) = |hλi |ψi|2 e la decomposizione spettrale di Λ, infatti

X
Λ|λi i = λj |λj ihλj |λi i = λi |λi i
j

Vediamo quindi che nel caso di SG si trova:


 
~  ~ 1 1
hψ|Sz |ψi = a∗+ h+| + a∗− h−| Sz (a+ |+i + a− |−i) = |a+ |2 − |a− |2 =

− =0
2 2 2 2

che naturalmente si ottiene anche sommando le probabilità dei risultati ±~/2 per i risultati
stessi.
Abbiamo detto che il fatto che una misura di Sx (o Sy ) distrugga informazione sulla misura
(stato) precedente di Sz è legata al fatto che le matrici di spin non commutano (altrimenti

57
avrebbero autostati simultanei). Siamo già in grado di mostrare che ciò si lega al principio di
indeterminazione e che questo è contenuto nel formalismo introdotto.

1.5.2 Prodotto delle indeterminazioni di due osservabili non compatibili

Siano dati due operatori hermitiani  e B̂ tali che

[Â, B̂] = i Ĉ

Definiamo:

α̂ ≡ Â − hÂi

β̂ ≡ B̂ − hB̂i

(i valori medi si intendono su uno stato |ψi) e notiamo che α̂† = α̂ , β̂ † = β̂ e ancora
[α̂, β̂] = i Ĉ con anche Ĉ † = Ĉ. L’incertezza quadratica è:

 2  2
∆ = hα̂2 i = h  − hÂi i = hÂ2 i − hÂi2

 2
e ugualmente per B̂ sarà ∆B̂ = hβ̂ 2 i. Naturalmente le indeterminazioni saranno nulle su
autostati degli operatori, quindi considereremo stati che non siano autostati di nessuno dei due
operatori.
Si ha:

 2  2
∆ · ∆B̂ = hψ|α̂2 |ψi · hψ|β̂ 2 |ψi

= hψ|α̂α̂|ψi · hψ|β̂ β̂|ψi

= hα̂ψ|α̂ψi · hβ̂ψ|β̂ψi
2
≥ hα̂ψ|β̂ψi

2
= hψ|α̂β̂|ψi

dove la minorazione è per la disuguaglianza di Schwarz. D’altra parte:

1 1 i 1
α̂ · β̂ = [α̂, β̂] + {α̂, β̂} = Ĉ + {α̂, β̂}
2 2 2 2

58
ed essendo il primo termine antihermitiano e il secondo hermitiano i loro valori di aspettazione
sono rispettivamente un numero immaginario puro e un numero reale. Si trova quindi che:

 2  2 1 1
∆ · ∆B̂ ≥ |hψ|Ĉ|ψi|2 + |hψ|{α̂, β̂}|ψi|2
4 4

e in particolare si arriva alla disuguaglianza finale:

1
∆ · ∆B̂ ≥ |hψ|Ĉ|ψi|
2

che si riduce a una uguaglianza quando α̂ |ψi = λ β̂ |ψi (λ ∈ C) e naturalmente


hψ|{α̂, β̂}|ψi = 0.
In base a quanto visto aggiungiamo una considerazione su SG dicendo che se calcolassimo il
valor medio di Sz2 con lo stato iniziale assegnato, non troveremmo invece un risultato nullo bensı̀
~2
hψ|Sz2 |ψi = = (∆Sz )2 , e questo è ancora legato al principio di indeterminazione, ovvero al
4
fatto che l’incertezza sulla misura di un’osservabile risulta nulla solo se eseguita su autostati
dell’osservabile stessa.

1.5.3 Doppia fenditura

Veniamo adesso alla doppia fenditura: ciò che misuriamo, quando un elettrone (o un fotone) vie-
ne rivelato sullo schermo, è la sua posizione x, (in realtà un intervallo con una data incertezza),
e quindi assumiamo di misurare l’autovalore dell’operatore x̂. Come ormai abbiamo capito il
risultato di una singola misura non basta a confrontarci con la probabilità prevista teoricamente;
per fare questo servono molte misure ripetute su sistemi identicamente preparati (anche in SG).
Da un punto di vista teorico, volendo calcolare la distribuzione di probabilità per i possibili
risultati della misura di una certa osservabile, dobbiamo proiettare lo stato, all’istante ts nel
quale la particella raggiunge lo schermo, sulla base degli autostati dell’operatore corrispondente
all’osservabile in questione.
Questo si fa con la risoluzione dell’identità, in questo caso dell’operatore x̂:

Z Z
|ψ(ts )i = |xihx|ψ(ts )i dx = ψ(x, ts )|xi dx

e la distribuzione di probabilità attesa sarà:

P (x, ts ) dx = |ψ(x, ts )|2 dx

59
Si tratta allora di specificare lo stato |ψ(ts )i.
Per ottenere |ψ(ts )i dovremmo in realtà avere già discusso il quarto postulato (e a rigore trattare
il problema almeno in due dimensioni spaziali, una quella della direzione di propagazione y tra le
fenditure e lo schermo e l’altra lungo lo schermo x). Sappiamo comunque che lo stato al tempo ts
sarà dato dall’evoluzione unitaria dello stato al tempo t0 nel quale la particella ”arriva” alle due
fenditure. Eventualmente mostreremo un calcolo completo più avanti, quando avremo maggiore
conoscenza del formalismo; per adesso possiamo comunque impostare il problema anche senza
conoscere la forma esplicita del pacchetto d’onda. Infatti la discussione dell’esperienza ci ha fatto
capire che l’aspetto essenziale, per osservare la figura di interferenza, è che non si sappia da quale
delle due fenditure è passata la particella e quindi che lo stato iniziale sia una sovrapposizione,
con uguale probabilità, dei due stati riferentisi al passaggio dall’una o l’altra delle fenditure.
Senza perdita di generalità possiamo dunque scrivere:

1 1
|ψ(t0 )i = √ |ψ1 i + √ |ψ2 i
2 2

Per la linearità siamo già in grado di dire che lo stato al tempo ts sarà sovrapposizione degli
evoluti dei singoli stati |ψ1 i e |ψ2 i ovvero:

1 1
|ψ(ts )i = √ |ψ1 (ts )i + √ |ψ2 (ts )i
2 2

e quindi:

1 1
|ψ1 (x, ts ) + ψ2 (x, ts )|2 dx = |ψ1 (x, ts )|2 + |ψ2 (x, ts )|2 + 2Re [ψ1∗ (x, ts )ψ2 (x, ts )] dx

P (x, ts )dx =
2 2

mentre se si osservasse da quale fenditura passa la particella, ciò equivarrebbe a modificare lo


stato iniziale facendolo coincidere ad esempio con |ψ1 i e quindi ottenendo per la distribuzione
di probabilità: P (x, ts )dx = |ψ1 (x, ts )|2 dx, senza quindi il termine di interferenza.
Evidentemente un calcolo completo necessita la conoscenza esplicita delle funzioni d’onda ψ1,2 (x, ts )
per le quali serve una definizione più precisa dello stato iniziale e in particolare della loro rap-
presentazione sulla base delle coordinate, cosı̀ come il calcolo della loro evoluzione temporale.
Eventualmente ritorneremo più avanti su questo problema quando avremo gli elementi teorici
che servono. Tuttavia, anche senza conoscere la forma esplicita delle funzioni d’onda ψ1,2 (x, ts ),
abbiamo già discusso quanto serve a spiegare qualitativamente le osservazioni sperimentali nel
nuovo ambito concettuale della MQ.

60
1.6 Ulteriore discussione dei postulati

1.6.1 Evoluzione temporale

Anche il quarto postulato, come anticipato, è presentato in modi leggermente differenti a seconda
dei testi (guardate a esempio Shankar, Forte, Sakurai, Moretti, ma anche le note sull’evoluzione
temporale sul mio sito di google sites). Potremmo riassumere in sintesi che le formulazioni che si
trovano sono praticamente equivalenti, ma merita fare una precisazione: nel corso tratteremo si-
stemi isolati, ovvero che non scambiano ne’ energia ne’ materia con altri sistemi, o sistemi chiusi
che possono scambiare energia ma non materia con l’esterno (non tratteremo sistemi aperti che
possono scambiare entrambe). Per sistemi isolati l’energia si conserva e l’Hamiltoniana non
dipende esplicitamente dal tempo. Per adesso ci riferiremo a questo caso, mentre incontreremo
il caso di Hamiltoniane dipendenti dal tempo quando parleremo di teoria delle perturbazioni
dipendente dal tempo per trattare sistemi che interagiscono, scambiando energia, con un al-
tro sistema. Anticipiamo che nel caso di sistemi chiusi nei quali l’Hamiltoniana può dipendere
esplicitamente dal tempo effettivamente va postulata la validità dell’equazione di Schroedinger,
mentre nel caso di sistema isolato questa deriva direttamente da richieste fisiche riguardanti l’e-
voluzione temporale (quali l’unitarietà dell’evoluzione stessa) come mostrato nelle note sul sito.
Riassumiamone gli aspetti principali: il tempo è un parametro e per descrivere come cambiano i
valori medi delle osservabili nel tempo bisogna che o gli stati, o gli operatori, o entrambi, evolva-
no nel tempo. Mettiamoci prima dal punto di vista nel quale gli stati evolvono e gli operatori no
(rappresentazione di Schroedinger, vedremo che ne esistono altre). Si suppone allora che esista
un operatore U (t, t0 ), lineare e unitario (U † = U −1 ) detto di evoluzione temporale tale che
|ψ(t)i = U (t, t0 )|ψ(t0 )i. L’unitarietà è una condizione necessaria, non trattando sistemi aperti,
per conservare la norma del vettore di stato nel tempo. La linearità è invece necessaria per
preservare il principio di sovrapposizione ad ogni istante. Applicazioni ripetute dell’operatore
di evoluzione per tempi crescenti permetteranno di ottenere lo stato a un istante qualunque,
a partire da un istante dato. È quindi naturale anche che valga, vista l’arbitrarietà dei tempi
scelti, la legge di composizione:

U (t, t0 ) = U (t, t1 )U (t1 , t0 )

se t1 ∈ (t, t0 ).
Inoltre, essendo il tempo un parametro continuo, è naturale richiedere che per t = t0 +dt si abbia
la trasformazione identica a meno di un termine di ordine dt, ovvero che l’operatore di evoluzione
temporale sia connesso con continuità all’identità e che la sua forma infinitesimamente vicina

61
all’identità, ovvero al primo ordine in dt (notare che dt è la differenza tra i due tempi) sia:

i
U (t0 + dt, t0 ) = I − Hdt
~

dove abbiamo introdotto la costante di Planck ~ per ragioni dimensionali se vogliamo, come
vogliamo, che H coincida con l’Hamiltoniana del sistema per riottenere correttamente il limite
classico. Facile verificare che:
  
i i i
U (t0 +2dt, t0 ) = U (t0 +2dt, t0 +dt)U (t0 +dt, t0 ) = I − Hdt I − Hdt = I− H2dt+O(dt2 )
~ ~ ~

e anche che serve che H † = H perchè, a meno di O(dt2 ), il prodotto U U † = I.


Il segno invece serve per procurare un’evoluzione in avanti nel tempo. Infatti, come vedremo,
ciò che avevate appreso nel corso di Meccanica Analitica per i sistemi classici continuerà a valere
in media o in un limite classico che andrà specificato di volta in volta in cosa consiste. In parti-
colare la quantizzazione canonica mantiene valide molte proprietà che avevate imparato nel caso
classico ad esempio a proposito di simmetrie e leggi di conservazione. Per sistemi isolati l’Ha-
miltoniana rappresenta l’energia; questa si conserva in virtù dell’omogeneità del tempo ovvero
dell’invarianza per traslazioni temporali e l’Hamiltoniana è proprio il generatore delle traslazioni
temporali (come ricorderete dal teorema di Noether e da corsi precedenti).
Diciamo subito però che in effetti si può partire dall’equazione di Schroedinger per gli stati e poi
ricavare la forma dell’operatore di evoluzione, oppure si può partire dall’operatore di evoluzione
e dalle sue caratteristiche, per ricavare poi l’equazione di Schroedinger sia per l’operatore di
evoluzione stesso che per gli stati. In ogni caso l’approdo è lo stesso.
Procediamo prima partendo dall’operatore di evoluzione: dalla legge di composizione si può
scrivere  
i
U (t + dt, t0 ) = U (t + dt, t)U (t, t0 ) = I − Hdt U (t, t0 )
~

(la forma infinitesima ricordiamo che vale quando la differenza dei tempi è infinitesima) da cui:

U (t + dt, t0 ) − U (t, t0 ) i
= − HU (t, t0 )
dt ~

ossia nel limite dt → 0:


∂U (t, t0 )
i~ = HU (t, t0 ) (1.10)
∂t

62
che è l’equazione di Schroedinger per l’operatore di evoluzione. Moltiplicando l’equazione a
destra per |ψ(t0 )i si ottiene:


i~ U (t, t0 )|ψ(t0 )i = HU (t, t0 )|ψ(t0 )i
∂t

ossia:

i~ |ψ(t)i = H|ψ(t)i (1.11)
∂t

che è l’equazione di Schroedinger per lo stato.


Nel caso di sistemi isolati l’Hamiltoniana non dipende dal tempo e la soluzione dell’equazione
(1.10) è immediata:
i
− H(t − t0 )
U (t, t0 ) = e ~ (1.12)

Vedremo più avanti nel corso la soluzione nel caso di Hamiltoniana dipendente dal tempo, mentre
per ora ci limitiamo a ribadire che in tal caso le equazioni di moto per gli stati e per l’operatore di
evoluzione vengono postulate nella stessa forma del caso indipendente dal tempo (cfr Moretti).
Vale la pena notare che seguendo la linea di ragionamento per la quale l’Hamiltoniana deve essere
anche quantisticamente il generatore di traslazioni temporali e che l’energia si conserva sotto
invarianza per traslazioni temporali (come deve essere per sistemi isolati), si sarebbe potuto
direttamente scrivere, seguendo anche quanto visto nella parentesi matematica sugli operatori
unitari, che l’elemento del gruppo unitario a un parametro che corrisponde a una traslazione
temporale avrà la forma dell’eq.(1.12). Riscriviamo quindi la (1.12) rinominando t il tempo t0
(che è un tempo arbitrario) e considerando l’evoluzione tra t e t + δt:

i
−Hδt
U (t + δt, t) = e ~

con H † = H per l’unitarietà e inoltre H identificata con l’Hamiltoniana. Quindi se deve essere

i
Hδt −
|ψ(t + δt)i = U (t + δt, t)|ψ(t)i = e ~ |ψ(t)i

Sviluppando al primo ordine in δt il primo membro dell’uguaglianza:


|ψ(t + δt)i ∼ |ψ(t)i + |ψ(t)i · δt + ...
∂t

e l’ultimo a destra:
i
Hδt
 
− i
e ~ |ψ(t)i ∼ I − Hδt |ψ(t)i
~

63
si vede quindi che l’uguaglianza al primo ordine in δt fornisce l’equazione di Schroedinger per
gli stati (1.13).
Procedendo dall’equazione di Schroedinger per gli stati (1.13), e assumendo che esista un ope-
ratore lineare unitario U (t, t0 ) tale che applicato al ket al tempo t0 fornisca lo stato al tempo t
si ha:

i~ U (t, t0 )|ψ(t0 )i = HU (t, t0 )|ψ(t0 )i (1.13)
∂t

e si ritrova quindi la soluzione, data la condizione U (t0 , t0 ) = I (per H indipendente da t):

i
− H(t − t0 )
U (t, t0 ) = e ~

1.6.2 Operatore impulso e traslazioni

A questo punto è opportuno riparlare sinteticamente dell’operatore impulso, che ci servirà tra
l’altro per costruire l’Hamiltoniana e ci permetterà a esempio di discutere subito il caso di
particella libera, non soggetta a forze (potenziale costante o nullo). Sempre seguendo la corri-
spondenza classica, l’impulso spaziale in una direzione è una quantità conservata quando si ha
omogeneità dello spazio, ossia invarianza per traslazioni in quella direzione. L’impulso genera le
traslazioni spaziali e si può quindi costruire l’operatore p̂ quantistico come quello i cui autova-
lori sono conservati quando c’è invarianza per traslazioni. Consideriamo un sistema quantistico
definito nello spazio delle coordinate. Si può vedere una traslazione come un cambiamento della
base di autostati dell’operatore posizione x̂:

T |xi = |x − δi

con T † = T −1 perchè si tratta di un cambiamento di base. ∀|ψi:

Z Z Z
0 0 0
T |ψi = dx T |xihx|ψi = dx|x − δi ψ(x) = dx |x iψ(x + δ)

quindi:

Z Z
0 0 0 0 0 0
hx|T |ψi = dx hx|x iψ(x + δ) = dx δ(x − x )ψ(x + δ) = ψ(x + δ)


ci si arrivava anche da: T −1 |xi = T † |xi = |x + δi → hx|T = hx + δ| e quindi:

hx|T |ψi = hx + δ|ψi = ψ(x + δ) .

64
Adesso:
d
X
(n) δn δ
ψ(x + δ) = ψ (x) = e dx ψ(x)
n
n!

e quindi si può prendere l’elemento del gruppo nella forma:

i
p̂ δ
T =e ~

in analogia con quanto visto per l’operatore di evoluzione. La differenza sta nel fatto che il tempo
è già un parametro, mentre x̂ non lo è, ovvero il parametro è la traslazione dell’autovalore x
(in sostanza siamo dovuti passare da una rappresentazione specifica in questo caso, cosa non
necessaria per l’operatore di evoluzione).
Quindi abbiamo
i d
p̂ δ δ
hx|e ~ |ψi = ψ(x + δ) = e dx ψ(x)

e sviluppando al primo ordine in δ:

i ∂
hx|I + p̂ δ|ψi + O(δ 2 ) = ψ(x) + ψ(x) δ + O(δ 2 )
~ ∂x

da cui ritroviamo quanto già visto ovvero:

∂ψ(x)
hx|p̂|ψi = −i~
∂x

Possiamo anche ritrovare il commutatore [x̂, p̂]:

T −1 x̂T |xi = T −1 x̂|x − δi = (x − δ)T −1 |x − δi = (x − δ)|xi

quindi T −1 x̂ T = x̂ − δ e, in forma infinitesima:


   
i i
I − p̂ δ x̂ I + p̂ δ = x̂ − δ −→
~ ~
i
−→ x̂ + [x̂, p̂]δ + O(δ 2 ) = x̂ − δ −→
~
−→ [x̂, p̂] = i~I

Annotiamo che l’aggiunta una qualunque funzione f (x̂) alla definizione dell’impulso non cambie-
rebbe la regola di commutazione. Tuttavia si può mostrare che effettivamente basta considerare,
dψ(x)
con x ∈ (−∞, +∞) il termine hx|p̂|ψi = −i~ , in quanto l’aggiunta di una funzione f (x) a
dx
questo elemento potrebbe essere riassorbita in un fattore di fase ininfluente.

65
Quanto visto è generale nel senso che per ogni trasformazione continua a un parametro
generata da Ĝ† = Ĝ della forma U = e iεĜ :

0 0
Ω̂ = U −1 Ω̂ U ∼ Ω̂ + iε[Ω̂, Ĝ] −→ δ Ω̂ = Ω̂ − Ω̂ ' iε[Ω̂, Ĝ]

e Ĝ è il generatore della trasformazione.

Adesso che abbiamo introdotto e parlato a sufficienza degli operatori x̂ e p̂ e delle loro rap-
presentazioni su entrambe le basi |xi e |pi possiamo derivare il

1.6.3 Pacchetto minimizzante ∆x̂ · ∆p̂

Abbiamo visto che:


1
∆A · ∆B ≥ |hCi|
2

dove [A, B] = iC .
~
Per x̂, p̂ si ha [x̂, p̂] = i~I per cui ∆x̂ · ∆p̂ ≥ .
2
Il pacchetto minimo si ottiene dalle condizioni (ricordiamo α̂ = A − hAi e β̂ = B − hBi ):

h{α̂, β̂}i = 0 e α̂|ψi = λβ̂|ψi

ovvero (x̄ ≡ hψ|x̂|ψi, p̄ ≡ hψ|p̂|ψi):

hψ|(x̂ − x̄)(p̂ − p̄) + (p̂ − p̄)(x̂ − x̄)|ψi = 0 e (p̂ − p̄)|ψi = λ(x̂ − x̄)|ψi

Partiamo dalla seconda condizione e proiettiamo sulla base |xi:

dψ(x)
λ(x − x̄)ψ(x) = −i~ − p̄ ψ(x)
dx

ovvero:
dψ(x) i
= [p̄ + λ(x − x̄)] ψ(x)
dx ~

che ha soluzione:
i i λ(x − x̄)2
p̄x
ψ(x) = e ~ e~ 2

66
mettendo poi la condizione usata nella prima e tenendo presente che implica:
hψ|(p̂ − p̄) = hψ|(x̂ − x̄)λ∗ si ha:

(λ + λ∗ ) hψ|(x̂ − x̄)2 |ψi = 0

ovvero λ = iµ con µ ∈ R essendo ∆x̂ 6= 0 sicuramente.


In definitiva quindi la soluzione è (a meno di una costante di normalizzazione e a parte il fattore
di fase che è un’onda piana se p̄ 6= 0) un pacchetto gaussiano:

i α(x − x̄)2
p̄x −
ψ(x) = e ~ e 2

con α = µ/~.

1.6.4 Stati stazionari

Torniamo adesso all’evoluzione temporale. Nel caso di sistemi isolati con H indipendente dal
tempo, l’evoluzione temporale degli stati si può calcolare esplicitamente sulla base degli autostati
di H che acquistano un fattore di fase dipendente dal tempo.
In questo caso si parla di stati stazionari. Vediamo meglio, consideriamo prima gli autostati
dell’Hamiltoniana a un istante fissato (prendiamo convenzionalmente t = 0) e partiamo dal
supporre che lo spettro sia discreto:

H|En i = En |En i

l’equazione di Schroedinger per un autostato di H diventa:

∂|En i
i~ = En |En i
∂t

che si integra facilmente e ha come soluzione:

i
− En t
|En (t)i = e ~ |En i

P
Se quindi è assegnato lo stato al tempo t = 0: |ψi = n cn |En i,
lo stato al tempo t generico
i
P − En t
sarà, data la linearità dell’equazione di Schroedinger: |ψ(t)i = n cn e ~ |En i.

67
Lo si può vedere direttamente anche costruendo l’operatore di evoluzione:

i i i
X − Ht X − Em t X − En t
U (t) = |En ihEn |e ~ |Em ihEm | = e ~ |En ihEn |Em ihEm | = e ~ |En ihEn |
n,m n,m n

e facendolo agire su |Ei i:

i i
X − En t − Ei t
U (t) |Ei i = e ~ |En ihEn |Ei i = e ~ |Ei i
n

e su un generico stato |ψ(0)i:

i i
X − En t X − En t X
|ψ(t)i = U (t) |ψ(0)i = e ~ |En ihEn |ψ(0)i = cn (0)e ~ |En i ≡ cn (t)|En i
n n n
(1.14)
i
− En t
con cn (t) = cn (0)e ~ .
Per le probabilità si ha quindi:

PEn (t) = |hEn |ψ(t)i|2 = |cn (t)|2 = |cn (0)|2 = PEn (0)

ovvero per gli stati stazionari le probabilità di ottenere un determinato valore dell’energia come
risultato di una misura non dipendono dal tempo.
Consideriamo adesso i valori medi di osservabili e distinguiamo vari casi, sempre parlando si
stati stazionari. Il primo caso è quello di una osservabile che commuta con l’Hamiltoniana: per
questa ci aspettiamo che in analogia al caso classico si tratti di una quantità conservata e che
quindi il suo valor medio non cambi nel tempo, e infatti è cosı̀: se [A, H] = 0 −→ [A, U (t)] = 0
per cui
hψ(t)|A|ψ(t)i = hψ(0)|U † (t)AU (t)|ψ(0)i = hψ(0)|A|ψ(0)i

Un altro caso è di un’osservabile B che non commuti con l’Hamiltoniana e allora distinguiamo
ancora due casi, dei quali il primo è il valor medio su un autostato |En i di H :

− ~ En t 2
i
hEn (t)|B|En (t)i = e hEn (0)|B|En (0)i = hEn (0)|B|En (0)i

e quindi su autostati dell’energia i valori medi di qualunque operatore sono costanti nel tempo
(è il motivo per cui si chiamano stati stazionari).
Infine il caso sempre di un operatore B che non commuti con l’Hamiltoniana e il valor medio
preso su uno stato che non sia autostato dell’energia. In questo caso il valor medio in generale

68
oscilla nel tempo e va visto di volta in volta. Se lo stato assegnato ha coefficienti non nulli su
tutti gli autostati dell’energia in generale si avrà:

X
hψ(t)|B|ψ(t)i = c∗m (t)cn (t)hEm |B|En i
n,m

dove solo gli elementi diagonali che contribuiscono al valor medio sono costanti nel tempo mentre
gli altri (non nulli) sono moltiplicati per termini oscillanti (discutere come si usano le condizioni
di realtà sugli elementi di matrice con i fattori di fase).

Esempio 1) - In un sistema a due livelli:

H|ui i = Ei |ui i; i = 1, 2

sia A un operatore tale che [A, H] 6= 0 con autovalori a1 , a2 e autostati:

|u1 i + |u2 i
|φ1 i = √
2
|u1 i − |u2 i
|φ2 i = √
2

Calcolare hψ(t)|A|ψ(t)i se |ψ(0)i = |φ1 i.

Soluzione:

i
− Ht
|ψ(t)i = e ~ |φ1 i
i
− Ht |u1 i + |u2 i
 
= e ~ √
2
i i
− E1 t − E2 t
e ~ e ~
= √ |u1 i + √ |u2 i
2 2
≡ c1 (t)|u1 i + c2 (t)|u2 i

per cui:

hψ(t)|A|ψ(t)i = |c1 (0)|2 hu1 |A|u1 i + |c2 (0)|2 hu1 |A|u1 i + c∗1 (t)c2 (t)hu1 |A|u2 i + c.c.
       
1 hφ1 | + hφ2 | |φ1 i + |φ2 i 1 hφ1 | − hφ2 | |φ1 i − |φ2 i
= √ A √ + √ A √ +
2 2 2 2 2 2

69
i
 
− (E1 − E2 )t hφ1 | + hφ2 |
   
1  |φ1 i − |φ2 i 
+ e ~ √ A √ + c.c.
2 2 2 

1n o ei(ω1 −ω2 )t n o
= hφ1 |A|φ1 i + hφ2 |A|φ2 i + hφ1 |A|φ1 i − hφ2 |A|φ2 i + c.c.
2 4
a1 + a2 a1 − a2 i(ω1 −ω2 )t
= + e + c.c.
2 4
a1 + a2 a1 − a2
= + cos[(ω1 − ω2 )t]
2 2

|u1 i + |u2 i
Esempio 2) - In un sistema a due livelli sia |ψ(0)i = √ con ui (x) = hx|ui i ∈ R
2
per cui hψ(0)|p̂|ψ(0)i = 0. Al tempo generico t si avrà:
   
hu1 | + hu2 | † |u1 i + |u2 i
hψ(t)|p̂|ψ(t)i = √ U (t) p̂ U (t) √
2 2
i
1 1 1 (E1 − E2 )t
= hu1 |p̂|u1 i + hu2 |p̂|u2 i + e ~ hu1 |p̂|u2 i + c.c.
2 2 2
= ±|p̂12 | sin(ω12 t) (1.15)
 
E1 − E2
p̂ij ≡ hui |p̂|uj i ; ω12 = dato che i primi due termini sono necessariamente nulli
~
mentre gli elementi non diagonali sono immaginari puri. Il valor medio dell’impulso quindi
oscillerà nel tempo attorno al valore iniziale se l’elemento p̂12 6= 0.
Concludiamo questa sezione scrivendo l’operatore di evoluzione nel caso di particella libera e
quindi espanso sulla base degli impulsi, che è una base continua. L’Hamiltoniana è: H =
p2
p̂2 /2m e quindi, dato che [p̂, p̂2 /2m] = 0, si ha H|pi = |pi, ovvero la base |pi diagonalizza
2m
l’Hamiltoniana e quindi l’operatore di evoluzione:

i ip2 t ip2 t
Ht
Z Z Z
− − −
U (t) = dp dq |pihp| e ~ |qihq| = dp dq e 2m~ |pihp|qihq| = dp e 2m~ |pihp|
(1.16)
Più avanti lo applicheremo allo studio dell’evoluzione di un pacchetto libero.
Lasciamo infine per esercizio lo scrivere il caso misto di una evoluzione in presenza di spettro in
parte discreto e in parte continuo nonchè di verificare come evolvono i valori medi.

1.7 Rappresentazione di Heisenberg

In MC l’evoluzione temporale riguarda proprio le osservabili che caratterizzano un sistema, ti-


picamente qi , pi nel formalismo hamiltoniano.
In MQ il sistema è invece caratterizzato da uno stato che è distinto dalle osservabili. In rappre-
sentazione di Schroedinger abbiamo visto che i valori medi variano nel tempo in conseguenza

70
dell’evoluzione dello stato. Tuttavia, anche in MQ, è possibile passare a una rappresentazione
diversa ma unitariamente equivalente, facendo evolvere l’operatore anzichè lo stato. Questo
avviene di fatto semplicemente scambiando tra i punti di vista attivo e passivo dato che l’evo-
luzione temporale è una trasformazione unitaria che può essere attribuita sia agli stati che agli
operatori: questa si chiama rappresentazione di Heisenberg. Più avanti nel corso incontrere-
mo una terza rappresentazione, detta di interazione, nella quale evolvono sia gli stati che gli
operatori, ne riparleremo.
Partiamo dallo scrivere un elemento di matrice di una osservabile a un tempo t, indicando con
il pedice la rappresentazione (S per Schroedinger e H per Heisenberg):

hψS (t)|AS |φS (t)i = hψS (t0 )|U † (t, t0 ) AS U (t, t0 )|φS (t0 )i

i
− H(t − t0 )
con U (t, t0 ) = e ~ con H indipendente dal tempo per sistemi isolati (nel caso di sistemi
chiusi dove H dipende dal tempo useremo la rappresentazione di interazione (IP)).
Se adesso definiamo gli stati e gli operatori in rappresentazione di Heisenberg (HP) come:

|ψH i = |ψS (t0 )i = U † (t, t0 )|ψS (t)i

AH (t) = U † (t, t0 ) AS U (t, t0 )

e naturalmente AH (t0 ) = AS .
Per la probabilità in rappresentazione di Schroedinger (SP) avevamo:

Pα (t) = |hαS |ψS (t)i|2 = |hαS |U (t)|ψS (0)i|2

con |αi indipendente dal tempo (gli autostati di un operatore A). In HP gli autovalori non
cambiano (per via dell’unitarietà che collega AS e AH ) ma gli autostati dipenderanno dal
tempo, ovvero potremo scrivere:

AH (t) |αH (t)i = α |αH (t)i

Infatti le probabilità, cosı̀ come i valori medi, non devono dipendere dalla rappresentazione per
cui (t0 = 0):
Pα (t) = |hαS |ψS (t)i|2 = |hαS |U (t)|ψS (0)i|2 = |hαH (t)|ψH i|2

con |αH (t)i = U † (t)|αH (0)i = U † (t)|αS i.

71
1.7.1 Leggi del moto in HP

Dalla definizione di un operatore in rappresentazione di Heisenberg troviamo intanto che


HH (t) = HS dato che l’Hamiltoniana commuta con se stessa. Per un generico operatore avremo
invece:

i i
 
d d  H(t − t0 ) − H(t − t0 )
AH (t) = e~ AS e ~ 
dt dt
i ∂AH (t)
= [H, AH (t)] +
~ ∂t

d ∂HH
Per l’Hamiltoniana HH (t) = U † (t)HU (t) e quindi HH = dato che [HH , HH ] = 0.
dt ∂t
In generale non considereremo dipendenze esplicite dal tempo e quindi l’equazione di moto in
rappresentazione di Heisenberg conterrà solo il termine di commutatore. Quando considereremo
invece interazioni con dipendenza esplicita dal tempo utilizzeremo la rappresentazione di inte-
razione.

1.7.2 Leggi di conservazione

L’evoluzione temporale dei valori medi, essendo questi osservabili, deve risultare indipendente
dalla rappresentazione. Infatti:

d i i ∂AS
hφS (t)|AS |ψS (t)i = hφS (t)| HAS |ψS (t)i − hφS (t)| AS H|ψS (t)i + hφS (t)| |ψS (t)i
dt ~ ~ ∂t
1 ∂AS
= hφS (t)| [AS , H]|ψ(t)i + hφS (t)| |ψS (t)i
i~ ∂t
1 ∂AS
= hφS (0)|U † (t) [AS , H]U (t)|ψS (0)i + hφS (0)|U † (t) U (t)|ψS (0)i
i~ ∂t
1 ∂AH
= hφH | [AH , H]|ψH i + hφH | |ψH i
i~ ∂t
d
= hφH |AH (t)|ψH i
dt

Ricordiamo che per un sistema Hamiltoniano classico si aveva:

dA ∂A ∂A ∂A
= q̇ + ṗ +
dt ∂q ∂p ∂t
∂A ∂H ∂A ∂H ∂A
= − +
∂q ∂p ∂p ∂q ∂t
∂A
= {A, H} +
∂t

72
da cui si vede l’analogia con il caso classico, sempre sostituendo la Parentesi di Poisson con il
commutatore (diviso i~) e sempre tenendo presente che in MQ si misurano valori medi. Co-
munque, come nel caso classico, una quantità che non dipende esplicitamente dal tempo ed ha
Parentesi di Poisson nulla con l’Hamiltoniana è conservata, cosı̀ nel caso quantistico è conservato
il valor medio di una osservabile che commuta con l’Hamiltoniana e non dipende esplicitamente
dal tempo.

1.7.3 Teorema di Ehrenfest

Consideriamo le equazioni di Heisenberg per x̂H (t), p̂H (t):

dx̂H 1
= [x̂H , H]
dt i~
dp̂H 1
= [p̂H , H]
dt i~

p̂2
con H = + V (x̂). Allora
2m

p̂2H p̂H
[x̂H , H] = [x̂H , ] = i~
2m m

e usando lo sviluppo in serie si vede che in generale:

∂f
[x̂, f (p̂)] = i~
∂ p̂

mentre
∂f
[p̂, f (x̂)] = −i~
∂ x̂

Comunque troviamo:

dx̂H p̂H
=
dt m
dp̂H ∂V ∂H
= − = −
dt ∂ x̂ ∂ x̂

ovvero la stessa forma delle equazioni di Hamilton.


Tuttavia in MQ si misurano i valori medi per cui è più espressivo riscrivere l’equazione per la
variazione temporale del valor medio di una osservabile e quindi a esempio anche di x̂ e p̂ che

73
prendono la forma:
 
dhx̂i ∂H
=
dt ∂ p̂
 
dhp̂i ∂H
= −
dt ∂ x̂

e quindi in realtà le equazioni classiche sono valide in media. Per potenziali lineari
 e quadratici

∂H(x̂)
la somiglianza con il caso classico aumenta perchè in questi casi si può sostituire con
∂ x̂
∂H(hx̂i)
(cosa che è sempre vera per la prima equazione con termine cinetico standard) e quindi
∂hx̂i
le equazioni classiche non sono più solamente vere in media ma valgono proprio per i valori medi.
In generale dipende dalle fluttuazioni lo scarto dalle equazioni classiche.

74
Capitolo 2

Problemi in una dimensione

2.1 Equazione di Schroedinger nella base |xi

Adesso vale la pena scrivere l’equazione di Schroedinger nella base |xi partendo dal caso di una
particella in una dimensione. Generalizzeremo più avanti a più dimensioni e più gradi di libertà.
Nella maggior parte dei casi avremo Hamiltoniane della forma (in 1d)

p̂2
H = + V (x̂)
2m

e l’equazione che fornisce la dinamica, dal postulato IV sarà, sulla base |xi:


i~ hx|ψ(t)i = hx|H|ψ(t)i
∂t

ovvero:

Z
∂ψ(x, t) 0 0 0
i~ = dx hx|H|x ihx |ψ(t)i
∂t
Z
0 0 0 0
= dx H(x, x )δ(x − x )ψ(x , t)

= H(x) ψ(x, t) (2.1)

Quindi l’equazione di Schroedinger sulla base |xi nel caso unidimensionale (la generalizzazione
a più dimensioni è comunque facilmente intuibile) è:

∂ψ(x, t) ~2 ∂ 2 ψ(x, t)
i~ = − + V (x)ψ(x, t)
∂t 2m ∂x2

Discuteremo tra breve le proprietà generali delle soluzioni per varie forme del potenziale. Siamo
comunque già in grado di dire che, nel caso stazionario, la dipendenza dal tempo è risolta. Infatti

75
gli autostati dell’energia, che forniscono una base completa dello spazio di Hilbert, hanno una
dipendenza temporale nota, quindi resterà da risolvere l’equazione di Schroedinger stazionaria
per determinare le autofunzioni dell’energia. Riassumendo, nel caso stazionario (base numerabile
o continua), abbiamo:
∂|Ei
i~ = H|Ei = E|Ei
∂t

della quale la soluzione, nota E è, come abbiamo detto:

i
− Et
|E(t)i = e ~ |E(0)i

Proiettando quindi come prima sulla base |xi, troveremo che la dipendenza temporale viene
fattorizzata e resta da risolvere un’equazione differenziale in x che dipende dalla forma del
potenziale e che come incognite ha autovalori e autof unzioni dell0 energia, ovvero si avrà:

i
∂ψE (x, t) − Et ~2 ∂ 2 ψE (x, t)
i~ = Ee ~ ψE (x, 0) = − + V (x)ψE (x, t)
∂t 2m ∂x2

essendo ψE = hx|Ei. Si arriva quindi all’equazione di Schroedinger stazionaria dove resta


incognita la dipendenza da x delle autofunzioni dell’energia, che si scrivono generalmente fatto-
i
rizzando la dipendenza temporale, ovvero nella forma: ψE (x, t) = e− ~ Et u(x) dove
u(x) ≡ ψE (x, 0) = hx|E(0)i.

~2 ∂ 2 u(x)
− + V (x)u(x) = E u(x) (2.2)
2m ∂x2

Scriviamo infine anche l’equazione di Schroedinger stazionaria nella base degli impulsi |pi:

p2
 

+ V i~ u(p) = E u(p)
2m ∂p

Ovviamente le soluzioni possono essere trovate in entrambe le basi e poi ricondotte all’altra base
trasformando. La forma nella base |pi è preferibile nel caso di potenziale lineare (che noi non
avremo tempo per studiare) perchè, come è evidente, viene un’equazione solo del primo ordine
in questa base mentre nella base |xi resta un’equazione del secondo ordine.
Come detto tratteremo poi la forma generale delle soluzioni dipendenti dalla forma del poten-
ziale e dal regime di energia, tuttavia merita prima discutere in maggiore dettaglio il caso libero,
ovvero, senza perdita di generalità, il caso V (x) = 0.

76
2.2 Applicazioni nel caso libero

Partiamo con l’analisi del caso libero, ovvero V (x) = 0.

2.2.1 Onda libera viaggiante

Dato che nel caso libero [H, p̂] = 0, energia e impulso ammettono autostati comuni. Tuttavia si
vede subito che sia p che −p danno lo stesso valore dell’energia p2 /2m e quindi si ha una doppia
degenerazione utilizzando la base |pi, ossia ogni combinazione lineare |ψE i = c1 |pi + c2 | − pi
corrisponde a un autostato con lo stesso autovalore dell’energia. D’altra parte sappiamo che
nella base delle coordinate:
px
i
e ~
hx|pi = √
2π~
rappresenta un’onda piana in una dimensione per cui, in generale, si hanno soluzioni:

px px
i −i
e ~ e ~
ψE (x) = hx|ψE i = c1 √ + c2 √
2π~ 2π~

che naturalmente si potevano anche ricavare direttamente dalla soluzione generale dell’equazione
di Schroedinger nel caso V (x) = 0:

hx|H|ψE i = Ehx|ψE i

ovvero:
~2 ∂ 2 ψE (x)
− = EψE (x)
2m ∂x2

e ancora:
∂ 2 ψE (x) p2
+ ψE (x) = 0
∂x2 ~2

Inserendo l’evoluzione temporale si ottiene, per le autofunzioni dell’energia nel caso libero:

i i
(px − Et) − (px + Et)
e~ e ~
ψE (x, t) = c1 √ + c2 √
2π~ 2π~

Quindi, riassumendo, per la particella libera le soluzioni sono onde piane progressive e regressive
(con velocità di fase vf = ±ω/k) ovvero si ha degenerazione due nella base degli impulsi.

77
2.2.2 Parità

È opportuno adesso aprire una parentesi sulla parità. L’operatore parità P opera nel seguente
modo su x̂, p̂ e sui loro autostati:

P |xi = | − xi ; P |pi = | − pi

P −1 x̂P = −x̂ ; P −1 p̂P = −p̂

Come è intuibile P 2 |xi = P | − xi = |xi per cui P 2 = I , inoltre P † = P infatti:

hx|P |x0 i = hx| − x0 i = δ(x + x0 )

hx|P † |x0 i = h−x|x0 i = δ(x + x0 )

essendo P 2 = I e P † = P ne segue anche che P † = P = P −1 ossia P è unitario. Gli autovalori


sono quindi ±1, dato che P 2 |λi = λ2 |λi = |λi.
Questa anticipazione ci servirà anche quando discuteremo il caso di V (x) = V (−x). Per il
momento, tornando al caso della particella libera, ci consente di dire che essendo l’Hamiltoniana
palesemente invariante sotto parità, si possono scegliere autofunzioni simultanee dell’energia e
della parità. Prendendo infatti combinazioni delle soluzioni con p e −p a parità definita, ossia
stati:
|p±i = |pi ± | − pi

p2
(a meno di normalizzazioni) si avrà: H |p±i = |p±i e anche P |p±i = ± |p±i .
2m
Da notare che questi non sono più autostati dell’impulso (sono combinazioni lineari di questi)
cosı̀ come le funzioni d’onda corrispondenti, che saranno della forma:

p  p 
hx|p+i ∼ cos x ; hx|p−i ∼ sin x
~ ~

e che non siano autofunzioni dell’impulso lo si vede anche applicando l’operatore impulso sulla
base delle x che agisce come una derivata e quindi scambia le soluzioni tra loro.
Le uniche autofunzioni simultanee di energia e impulso si hanno quindi nel caso libero perchè
un qualunque potenziale non costante o nullo ovunque per x ∈ (−∞, +∞) implica [H, p̂] 6= 0
dal momento che x̂ non commuta con p̂. Per motivi analoghi non si hanno mai autofunzioni
simultanee di x̂ e H dato che il termine cinetico non commuta mai con x̂. Le autofunzioni
simultanee di impulso ed energia nel caso libero sono onde piane progressive e regressive e quindi
sono stati non normalizzabili. Chiaramente sono un’astrazione in quanto dovrebbero estendersi

78
in tutto lo spazio infinito, tuttavia le si usano perchè sono utili come altri oggetti introdotti spesso
in fisica, quali il punto materiale ecc. Comunque, cosa rappresentano per noi le onde piane?
Essendo il loro modulo quadro costante, risultano completamente delocalizzate nello spazio (e
completamente localizzate nell’impulso, cosı̀ come uno stato completamente localizzato in x
avrebbe uno spettro costante e quindi impulso infinitamente indeterminato). Possono quindi
rappresentare un fascio di particelle con densità costante per unità di volume (lunghezza nel
caso unidimensionale). Un modo per “visualizzarlo” può essere considerare lo spazio suddiviso
in celle di lunghezza L e di imporre condizioni periodiche ai bordi delle celle ottenendo in questo
modo la discretizzazione dei possibili valori dell’impulso. Si avrebbe infatti:

pL pL pL
i −i i
ψ(L/2) = ψ(−L/2) −→ Ce 2~ = Ce 2~ −→ Ce ~ = 1

2πn~
ovvero p = pn = con n ∈ Z. Verifichiamo l’ortogonalità:
L
Z L/2 Z L/2 2π 0
ψp∗ (x)ψp0 (x) 2
dx = |C| ei L (n −n)x dx = |C|2 L δn,n0
−L/2 −L/2

1
e quindi per avere la normalizzazione (discreta in questo caso) deve essere |C| = √ e nel box
L
quindi:
2πn
i x
e L
ψp (x) = √
L
che equivale a una densità di probabilità di presenza unitaria in ogni cella di ampiezza L e quindi
che la funzione d’onda rappresenti appunto un fascio di particelle con questa densità.
Concludiamo dicendo che comunque la base delle onde piane (la base |pi), anche se non sono
normalizzabili, costituisce una base completa dello spazio di Hilbert e su di essa si possono
decomporre sia stati non normalizzabili che pacchetti d’onda a quadrato sommabile (di classe
L(2) ) e quindi normalizzabili e che hanno una probabilità non nulla di presenza nello spazio
x localizzata al finito, e che vale in generale come vedremo più avanti per gli stati legati, con
potenziale V (x) 6= 0 in determinati regimi di energia.

2.2.3 Evoluzione libera di un pacchetto di forma generica

Nel capitolo precedente abbiamo visto esempi di come si ottiene l’evoluzione temporale di uno
stato nel caso di spazi separabili ovvero con basi numerabili. Adesso che conosciamo a sufficienza
le basi |xi e |pi, vediamo come si calcola l’evoluzione della funzione d’onda che rappresenti una

79
particella libera, non soggetta a forze.
p2
Essendo l’Hamiltoniana H = p̂2 /2m e come sappiamo H|pi = |pi, useremo in questo caso
2m
l’espressione per l’operatore di evoluzione nella base |pi di eq. (1.16), che riscriviamo:

i ip2 t ip2 t
Ht
Z Z Z
− − −
U (t) = dp dq |pihp| e ~ |qihq| = dp dq e 2m~ |pihp|qihq| = dp e 2m~ |pihp|

Vediamo allora come si calcola l’evoluzione temporale della funzione d’onda, assegnata nella
base |xi a un tempo iniziale, che si riferisce a una particella libera. Impostiamo adesso il calcolo
nel caso generale, ovvero senza specificare la forma esplicita di ψ(x, 0), per mostrare la stretta
analogia con quanto abbiamo fatto in nel caso di un sistema a due livelli (o comunque con
quanto si fa nel caso di basi numerabili). L’importante è capire che l’evoluzione temporale si
ottiene andando sulla base degli autostati dell’Hamiltoniana, sia nel caso di basi numerabili che
continue.
Se volessimo studiare l’evoluzione della funzione d’onda nel caso di base numerabile dovremmo
semplicemente proiettare l’eq.(1.14 sulla base delle |xi e avremmo

ψ(x, t) = hx|ψ(t)i

= hx| U (t) |ψ(0)i


i
− Ht
= hx| e ~ |ψ(0)i
i
X − En t
= hx|e ~ |En ihEn |ψ(0)i
n
i
X − En t
= e ~ hx|En i cn (0)
n
i
X − En t
= e ~ un (x) cn (0)
n
(2.3)

Nel caso attuale, avendo assegnata ψ(x, 0) nel caso libero, stavolta ψ(x, t) è data da

ψ(x, t) = hx|ψ(t)i

= hx|Û (t)|ψ(0)i
i
− Ĥt
= hx|e ~ |ψ(0)i
p̂2
−i t
= hx|e 2m~ |ψ(0)i

80
p̂2
−i t
Z
= dp hx|e 2m~ |pihp|ψ(0)i

p2
−i t
Z
= dp e 2m~ hx|piψ(p, 0)
px
p2 i
−i t e ~
Z
= dp e 2m~ √ ψ(p, 0)
2π~
(2.4)

Notiamo che, nel caso adesso di base continua, abbiamo eseguito gli stessi passaggi che avevamo
utilizzato per ottenere l’eq.(1.14), ovvero è stato inserito l’operatore di evoluzione con la sua
decomposizione spettrale data in termini degli autostati di p̂, che diagonalizzano l’Hamiltoniana
libera. Le differenze sono nel fatto che nel caso continuo conosciamo gli autovalori dell’energia,
la forma esplicita delle autofunzioni, mentre nella formula del caso numerabile sono lasciate
generiche perchè non è specificata la forma dell’Hamiltoniana, e naturalmente si integra anzichè
sommare e ψ(p, 0) ha il ruolo dei cn (0).
Resta da calcolare ψ(p, 0) (la trasformata di Fourier di ψ(x, 0)) ovvero la funzione d’onda svi-
luppata sulla base delle autofunzioni dell’energia, anche questo in analogia con quanto si fa per
una base discreta:

px
Z Z −i
e ~
ψ(p, 0) = hp|ψ(0)i = dx hp|xihx|ψ(0)i = dx √ ψ(x, 0)
2π~

Notiamo che per l’evoluzione temporale di un qualunque pacchetto libero si potrebbe anche
utilizzare la rappresentazione dell’operatore di evoluzione sulla base dell’operatore posizione,
anche detto propagatore. Infatti si può scrivere:

ψ(x, t) = hx|ψ(t)i

= hx|Û (t)|ψ(0)i
Z
= dx0 hx|U (t)|x0 ihx0 |ψ(0)i
Z
= dx0 U (t; x, x0 )ψ(x0 , 0) (2.5)

con appunto U (t; x, x0 ) il propagatore. Mostriamo che si può calcolare in generale per un pacchet-
to libero. Infatti, sempre utilizzando la rappresentazione spettrale per l’operatore di evoluzione
libera si trova:

U (t; x, x0 ) = hx|U (t)|x0 i

81
p̂2
−i t
Z
= dp hx|e 2m~ |pihp|x0 i

p2
−i t
Z
= dp e 2m~ hx|pihp|x0 i

p2
dp −i t ip x − x0  /~
Z
= e 2m~ e
2π~
(x − x0 )2
−m
r
m
= e 2i~t
2iπ~t

dove nell’ultimo passaggio è stato usato il risultato noto per la trasformata di Fourier di una
gaussiana. Abbiamo quindi la forma esplicita per il propagatore libero e la si può inserire
nell’equazione (2.5) per ottenere:

(x − x0 )2
−m
Z r
m
ψ(x, t) = dx0 e 2i~t ψ(x0 , 0) (2.6)
2iπ~t

che appunto può essere usata per l’evoluzione di un generico pacchetto libero ψ(x, 0) assegnato
al tempo t = 0. Questo procedimento ha il vantaggio di essere diretto, e naturalmente i risultati
dell’eq.(2.6) e (2.4) coincidono, come si può capire tenendo presente che la soluzione in termini
del propagatore è data in termini di un prodotto di convoluzione delle antitrasformate della
funzione d’onda e del propagatore mentre appunto in eq.(2.4) abbiamo l’ antitrasformata del
prodotto degli stessi oggetti nella base |pi.
Tuttavia l’utilizzo del calcolo diretto attraverso il propagatore libero nello spazio |xi maschera
il procedimento generale da seguire per ottenere l’evoluzione temporale e, ripetiamo, l’analogia
con quanto si fa con basi discrete e continue.

2.2.4 Evoluzione libera di un pacchetto gaussiano

Riconsideriamo adesso il pacchetto gaussiano, che come abbiamo visto minimizza il prodotto
delle indeterminazioni ∆x̂ · ∆p̂:

i α(x − x̄)2
p̄x −
ψ(x) = e ~ e 2

e scegliamo che il pacchetto abbia p̄ ≡ hp̂i = 0. Inoltre vogliamo che rappresenti la funzione
R +∞
d’onda di una particella per cui lo riscriviamo normalizzato, ovvero tale che −∞ |ψ(x)|2 dx = 1.

82
Prendiamo quindi come funzione d’onda all’istante iniziale:

2
 α 1/4 − α(x − a)
ψ(x, 0) = e 2
π

Intanto verifichiamo ad esempio che il valor medio di x̂ risulta x̄ = dx x |ψ(x)|2 = a mentre


R
p √
hx̂2 i = a2 + 1/(2α) per cui ∆x̂ = a2 + 1/(2α) − a2 = 1/ 2α. Inoltre, il valor medio p̄ è nullo
avendo scelto√la funzione d’onda reale e per l’incertezza resta il calcolo (merita nello spazio |pi )
p α~ ~
di hp̂2 i = √ per cui si verifica che il prodotto ∆x̂ · ∆p̂ = , ovvero il minimo.
2 2
Il secondo passaggio, viste le eq.(2.4) e (2.5) è il calcolo della funzione d’onda all’istante iniziale
nello spazio |pi

px
Z Z −i
e ~
ψ(p, 0) = dx hp|xihx|ψ(0)i = dx √ ψ(x, 0)
2π~
px
−i α(x − a)2

Z
e ~  α  1/4
= dx √ e 2
2π~ π
1/4 p2


1
= e 2α~2
πα~2

ovvero la trasformata di Fourier di una gaussiana è ancora una gaussiana (anche se di larghezza
inversa rispetto a quella nella base |xi consistentemente con il comportamento atteso per le
indeterminazioni nei due spazi). Questa espressione deve poi essere inserita in eq.(2.4) per
ottenere il risultato desiderato e quindi la funzione d’onda a un tempo generico t è data da:

px
p2 i 1/4 p2
−i
t e ~ −
Z 
1
ψ(x, t) = dp e 2m~ √ 2
e 2α~2
2π~ πα~
α(x − a)2
 α 1/4 1 −
= p e 2 (1 + i~αt/m)
π 1 + i~αt/m

quindi ancora una gaussiana on coefficiente complesso. A noi interessa comunque la distribuzione
di probabilità che è legata al modulo quadro:

α(x − a)2
 α 1/2 1 − 2 2 2 2
|ψ(x, t)|2 = p e (1 + ~ α t /m )
π 1 + ~2 α2 t2 /m2

che si può verificare essere sempre normalizzata ma il pacchetto si allarga.


Per mostrarlo possiamo ricorrere a un ragionamento valido in generale e poi applicarlo al caso
presente. L’impulso p̂ (e quindi una sua funzione) commuta con l’Hamiltoniana libera e quindi

83
l’incertezza sull’impulso non evolve nel tempo. Invece x̂ non commuta con l’Hamiltoniana libera
(con p̂) e quindi le sue funzioni, quali l’incertezza ∆x̂(t), evolvono nel tempo. In particolare
abbiamo visto in rappresentazione di Heisenberg che si ha:

i p̂2
 
d i p̂
x̂ = [Ĥ, x̂] = , x̂ =
dt ~ ~ 2m m

p̂(0)
che integrata fornisce x̂(t) = x̂(0) + t , dato che come detto p̂ non dipende dal tempo
m
(ricordiamo anche che gli operatori al tempo t = 0 coincidono nelle due rappresentazioni di
Schrodinger e Heisenberg). Quindi
* 2 +  2
2 p̂(0) p̂(0)
∆ x̂(t) = x̂(0) + t − x̂(0) + t
m m
t2 2 t
= ∆2 x̂(0) + 2
∆ p̂(0) + [hx̂(0)p̂(0) + p̂(0)x̂(0)i − 2hx̂(0)ihp̂(0)i]
m m

e quindi per grandi tempi sicuramente l’incertezza su x̂ aumenta dato che domina il termine
quadratico nel tempo e il prodotto delle indeterminazioni aumenta. E questo vale in generale.
Possiamo però andare oltre perchè essendo ψ(x, 0) ∈ R, ne segue hp̂(0)i = 0. Per lo stesso motivo
hx̂(0)p̂(0) + p̂(0)x̂(0)i = 0. Infatti {x̂, p̂} è un operatore hermitiano ma avendo rappresentazione
immaginaria pura (x̂ è reale mentre p̂ è immaginario puro) troveremmo un valore immaginario
con ψ(x, 0) ∈ R. Verifichiamolo comunque esplicitamente nel caso del pacchetto in esame:
scrivendo {x̂, p̂} = 2x̂p̂ − i~

Z a
hx̂(0)p̂(0) + p̂(0)x̂(0)i = ψ {x̂, p̂}ψdx
−a
Z a 
dψ 2
= −i~ 2x ψ +ψ dx
−a dx
Z a
= −i~ d(xψ 2 )
−a a
= −i~ xψ 2 = 0

−a

dato che la funzione d’onda si annulla agli estremi dell’intervallo di integrazione.


t2 2
Quindi resta: ∆2 x̂(t) = ∆2 x̂(0) + ∆ p̂(0) e quindi aumenta anche per tempi piccoli
m2
cosı̀ come il prodotto delle indeterminazioni dato che l’incertezza sull’impulso come detto resta
costante nel tempo.
Volendo si può scrivere il prodotto delle indeterminazioni
s
t2 ∆2 p̂(0)
∆p̂(t) · ∆x̂(t) = ∆p̂(0) · ∆x̂(0) · 1 +
m2 ∆2 x̂(0)

84

1 ~ α ∆2 p̂(0)
Riprendendo le espressioni ∆x̂(0) = √ , ∆p̂(0) = √ per cui 2 x̂(0)
= ~2 α2 si trova
2α 2 ∆
che il risultato per l’allargamento del pacchetto gaussiano è:
r
~ ~2 α2 t2
∆x̂(t) · ∆p̂(t) = · 1 +
2 m2

1 + ~2 α2 t2 /m2
che è quanto si ricava naturalmente anche dal calcolo diretto di hx̂2 (t)i = .

Per una particella macroscopica di m = 1gr e larghezza dell’ordine di 1f m in 30 anni si acqui-
sterebbe un allargamento a circa 10−5 cm e in 3 · 106 anni inferiore a 1cm.

2.3 Proprietà generali dell’equazione di Schroedinger

Vogliamo adesso discutere le proprietà generali delle soluzioni dell’equazione di Schroedinger per
un potenziale V (x̂) generico. Prima di tutto verifichiamo che vale una:

2.3.1 Equazione di continuità

Una delle proprietà dell’equazione di Schroedinger è che contiene in sè la legge di conservazione
della probabilità, che fisicamente ci aspettiamo perchè non trattiamo sistemi aperti. Formal-
mente si traduce in una equazione di continuità del tutto analoga a quella vista ad esempio
in elettromagnetismo con le equazioni di Maxwell che prevedono la conservazione della carica
elettrica.
Prendiamo l’equazione moltiplicata per ψ ∗ (x) e la sua complessa coniugata moltiplicata per
ψ(x):

∂ψ(x, t) ~2 ∗ ∂ 2 ψ(x, t)
i~ ψ ∗ (x, t) = − ψ (x, t) + ψ ∗ (x, t) V (x)ψ(x, t)
∂t 2m ∂x2

∂ψ (x, t) ~2 ∂ 2 ψ ∗ (x, t)
−i~ ψ(x, t) = − ψ(x, t) + ψ ∗ (x, t) V (x)ψ(x, t)
∂t 2m ∂x2

e sottraendo si trova (sottintendiamo per semplicità le variabili x, t):

~2 ∂ ∂ψ ∗
 
∂ ∗ ∂ψ
i~ |ψ|2 = − ψ − ψ
∂t 2m ∂x ∂x ∂x

ovvero
∂ψ ∗
 
∂ ~ ∂ ∗ ∂ψ
|ψ|2 + ψ − ψ =0
∂t 2im ∂x ∂x ∂x

85
che è della forma (la scriviamo direttamente nel caso multidimensionale):

∂ ~ · ~j = 0
ρ + ∇
∂t

dove

~j = ~ h ∗~   i 
~ ∗ ψ = ~ =m ψ ∗ ∇ψ
~

ρ(~x, t) = |ψ(~x, t)|2 ; ψ ∇ψ − ∇ψ
2im m

naturalmente, essendo adesso nel caso unidimensionale, con la sola dipendenza da x e la corrente
che è una funzione scalare.
Integrando nello spazio l’equazione di continuità ottenuta si arriva quindi a un’interpretazione
fisica analoga a quanto visto in elettromagnetismo a proposito della conservazione della carica
elettrica con la densità di probabilità che sostituisce la densità di carica e la densità di corrente
di probabilità che sostituisce la densità di corrente elettrica. Per una soluzione libera a impulso
definito:
i
px
e~
ψp (x) = √
2π~
si trova:
p
j= |ψp |2 = ρv
m

e quindi in questo caso di onda viaggiante l’espressione della corrente risulta collegata all’impul-
so come è intuitivo che sia. Se invece a esempio ψ ∈ R ne segue che ~j = 0 e infatti sappiamo in
questo caso che anche il valor medio dell’impulso è nullo.
Il caso stazionario può anche essere visto come quello nel quale ~j è costante o nulla, o comunque
a divergenza nulla (solenoidale). Ricommenteremo su questo quando studieremo stati legati per
opportuni potenziali V (~x). In questo caso comunque la densità di probabilità non dipende dal
∂ρ
tempo ossia = 0 (un esempio lo abbiamo visto con l’evoluzione libera del pacchetto gaussiano
∂t
senza valor medio dell’impulso iniziale).

2.3.2 Proprietà generali delle soluzioni nel caso stazionario

Per adesso abbiamo risolto l’equazione, ovvero trovato autovalori e autofunzioni dell’energia so-
lo nel caso libero, ma è evidente che saremo interessati principalmente a studiare problemi con
interazioni, ovvero potenziali variabili.
La prima grande distinzione da fare, fisicamente, riguarda il fatto che troveremo problemi nei
quali le soluzioni sono completamente determinate e situazioni nelle quali invece restano del-

86
le libertà residue. Ciò corrisponde nel primo caso a stati legati, ovvero stati per i quali la
probabilità di presenza nello spazio |xi è non nulla solo al finito perchè il potenziale lega appun-
to la particella in una zona limitata dello spazio e lo spettro dei possibili valori dell’energia è
quantizzato (discreto). In questi casi ci limitiamo a determinare autovalori e autofunzioni senza
alcuna libertà residua di poter eseguire scelte dall’esterno del sistema. Nel secondo caso invece si
tratterà di sistemi nei quali una particella o un fascio di particelle risentono di un potenziale in
una porzione dello spazio, o anche in tutto lo spazio, senza essere tuttavia confinate. In questo
caso quindi si rappresentano situazioni nelle quali a esempio l’intensità del fascio, o la regione
dal quale proviene, sono fissate consistentemente dall’esterno e quindi è logico che restino delle
libertà che corrispondono appunto a condizioni che sono specificate dall’esterno.
Matematicamente gli stati legati sono soluzioni con funzioni d’onda a quadrato sommabile, ov-
vero di classe L(2) , mentre in generale le soluzioni non di stato legato non sono normalizzabili
e quindi non sono a quadrato sommabile. Tuttavia sottolineiamo che qui parliamo di soluzioni
dell’equazione di Schroedinger, ovvero di autofunzioni dell’energia, che sono una base completa
per qualunque funzione d’onda nello spazio di Hilbert. Questo significa che anche nei casi in cui
abbiamo delle libertà dall’esterno, si possono considerare funzioni d’onda (pacchetti) a quadrato
sommabile. In altre parole la libertà dall’esterno consiste anche nello scegliere una combinazione
infinita di autofunzioni dell’energia che sia a quadrato sommabile. Un esempio lo abbiamo già
visto con l’allargamento del pacchetto gaussiano nel caso libero, che certo non ammette stati
legati.
Vediamo quindi il comportamento delle soluzioni ovvero quali sono le funzioni base per un
generico potenziale V (x̂), studiando l’eq.(2.2):

~2 ∂ 2 u(x)
− + V (x)u(x) = E u(x)
2m ∂x2

2mE 2mV (x)


Introducendo le quantità legate all’energia E = e al potenziale V(x) = ,
~2 ~2
riscriviamo intanto l’equazione nella forma:

00
h i
u (x) + E − V(x) u(x) = 0 (2.7)

Il prototipo di situazioni che studieremo sono per V(x) delle forme in figura.
Nel caso (a) si cercano stati legati mentre nei casi (b) e (c) si studia come il potenziale altera il
moto di una particella (o di un fascio di particelle) e quindi si descrivono problemi di urto (di
scattering, diffusione).
L’equazione di Schroedinger è del secondo ordine e quindi ammette in generale due soluzioni

87
linearmente indipendenti che (salvo eccezioni che vedremo) possiedono derivata prima continua.
R +∞
Chiaramente per avere stati legati è necessario che valga −∞ |u(x)|2 dx = 1 e quindi
u(x) ∈ L(2) (R).
Allora, per prima cosa, e partendo da V (x) continui per x ∈ (−∞, +∞), analizziamo il compor-
tamento asintotico delle soluzioni che dipende dal segno di [E − V(x)].
Per [E − V(x)] > 0 sono soluzioni oscillanti e quindi non sono normalizzabili, mentre per
[E − V(x)] < 0 le soluzioni sono esponenziali reali e quindi scartando opportunamente le solu-
zioni divergenti a ±∞ possono essere di classe L(2) (R).
Va subito detto che comunque si dovrà avere E > Vmin (x), perchè altrimenti le soluzioni non
sono accettabili in quanto gli esponenziali reali ovunque, anche scartando le soluzioni divergenti
a ±∞, non possono raccordarsi con continuità della derivata e in effetti non avrebbero senso
fisico avendosi energia cinetica negativa ovunque.
Il fatto che in qualche regione (per potenziali continui e con minimo al finito) e a ±∞ si abbia
E < V(x) implica sı̀ che l’energia cinetica sia negativa ma, come si può dimostrare, in modo non
osservabile (tuttavia l’esistenza di onde evanescenti è proprio una caratteristica peculiare della
MQ).
In conclusione quindi soluzioni di stato legato per potenziali continui con minimo al finito si
possono avere con andamento esponenzialmente decrescente a ±∞ e che si raccordino in modo
continuo (e con derivata continua) con soluzioni oscillanti al finito. Fisicamente ripetiamo che
quindi nella regione al finito si avrà energia cinetica positiva con onde evanescenti al di fuori dei
punti di inversione E = V(x).

Senza perdere generalità consideriamo un potenziale continuo con minimo al finito e con
limx→±∞ V(x) = V± come in figura.
(Il caso con il potenziale che abbia un massimo al finito avrà necessariamente E > M in(V+ , V− )
e quindi non avrà soluzioni di stato legato come vedremo con la barriera di potenziale)
Vediamo quindi le soluzioni nei vari regimi di energia:

1) - E > V+ , V− : sono soluzioni oscillanti ovunque e fisicamente accettabili. Restano due


parametri liberi (i coefficienti delle due soluzioni linearmente indipendenti), il che è anche giu-
stificato fisicamente perchè descrivono il fatto che si può stabilire dall’esterno l’intensità di un
fascio che può provenire sia da −∞ che da +∞. Si ha quindi uno spettro dell’energia doppia-
mente degenere e continuo.

2) - V + − > E > V− : sono soluzioni esponenzialmente depresse da un lato e oscillanti

88
dall’altro estremo (a ±∞ e viceversa scambiando il ruolo di V+ , V− ). In questo caso resta un
solo coefficiente libero perchè la particella (o il fascio) può provenire solo dal lato che ammette
soluzioni oscillanti. In questo caso lo spettro dell’energia è continuo e non degenere.

3) - E > Vmin con E < V− < V+ .


In questo caso sono esponenziali reali a ±∞ e oscillanti al finito e quindi possono descrivere
stati legati. Però i due coefficienti incogniti sono fissati dalle condizioni a ±∞ e come vedremo
poi (senza ricorrere a teoremi che comunque esistono) ci sarebbe solo la soluzione banale, nulla
ovunque. Esistono invece anche soluzioni non banali ∈ L(2) (R) ma solo per determinati valori
discreti dell’energia. Per questi valori dell’energia si perderebbe una condizione riguadagnando
la libertà di scegliere un parametro che tuttavia va invece fissato con la condizione di normaliz-
zazione e quindi non ci sono libertà residue come deve essere. In questo caso quindi lo spettro
è discreto e non degenere.

Per chiarire meglio la situazione del caso 3) consideriamo di approssimare il potenziale sud-
dividendolo in parti costanti a tratti.
Premettiamo che salti finiti del potenziale non impediscono di avere derivata continua della
soluzione, come si vede facilmente integrando l’equazione di Schroedinger attorno a una discon-
tinuità finita generica. Discontinuità infinite del potenziale non sono fisiche ma si usano come
approssimazioni utili in alcune situazioni e in questo caso la funzione d’onda resta continua ma
non la derivata.
Quindi se si hanno N regioni ci sono 2N parametri con 2N condizioni al contorno che consistono
in 2(N − 1) condizioni di raccordo per la funzione d’onda e la derivata ai punti di discontinuità
del potenziale e altre 2 per scartare le soluzioni divergenti a ±∞. Queste condizioni si traducono
sempre in sistemi lineari omogenei di 2N equazioni in 2N incognite per cui nel caso di equa-
zioni tutte linearmente indipendenti l’unica soluzione è quella banale, corrispondente a funzione
d’onda nulla. Se esiste la possibilità di avere soluzioni non banali questo passa quindi attraverso
l’imposizione della non indipendenza lineare del sistema di equazioni. Questo è eventualmente
possibile per valori discreti dell’energia nel qual caso resta, come anticipato all’inizio, un para-
metro libero che tuttavia libero non è perchè va fissato con la condizione di normalizzazione.
Vedrete che in pratica a volte si utilizzano altri metodi per trovare gli stati legati che tutta-
via sono equivalenti concettualmente alla procedura indicata adesso per il potenziale costante a
tratti.
Gli stati legati si trovano quindi imponendo opportune condizioni al contorno che a volte è pos-

89
sibile rispettare per determinati valori dell’energia. Va però detto che non sempre si possono
soddisfare matematicamente queste condizioni e ciò fisicamente equivale al fatto che non sempre
si hanno soluzioni di stato legato o comunque se ne possono avere un numero molto limitato
dipendentemente dalle caratteristiche del potenziale. Come detto si parla di stati legati perchè
la particella è “legata” al finito ovvero vincolata ad essere trovata solo in una regione al finito
dello spazio (si pensi ad esempio all’atomo di idrogeno con gli orbitali atomici).

2.3.3 Wronskiano e soluzioni in una dimensione

Mostriamo adesso che le soluzioni per gli stati legati in 1d non sono mai degeneri e che le
autofunzioni possono sempre essere scelte reali (quindi lo sono).
Riprendiamo ancora l’equazione di Schroedinger (2.7):

00
h i
u (x) + E − V(x) u(x) = 0

come abbiamo detto e visto l’equazione è del secondo ordine e ammette due soluzioni linearmene
indipendenti diciamo u1 , u2 .
Il Wronskiano è il determinante della matrice:
 
u1 u2
W (u1 , u2 ) = det   = u1 u02 − u2 u01
u01 u02

e un teorema ci dice che u1 , u2 sono linearmente indipendenti sse W (u1 , u2 ) 6= 0 ; ∀x ∈


R. Vogliamo mostrare che gli stati legati 1d non sono mai degeneri e che quindi u1 , u2 sono
linearmente dipendenti. Per vederlo è sufficiente considerare l’equazione di Schroedinger per u1
moltiplicata per u2 e viceversa:

00
h i
u1 u2 + E1 − V(x) u1 u2 = 0
00
h i
u2 u1 + E2 − V(x) u2 u1 = 0

Sottraendo le due equazioni:

00 00
u1 u2 − u2 u1 = (E2 − E1 ) u1 u2 (2.8)

90
Per E2 = E1 si trova W 0 (u1 , u2 ) = 0 e quindi W =cost. D’altra parte per gli stati legati
W (+∞) = W (−∞) = 0 e quindi W = 0 ovunque. Ma questo implica u01 u2 − u02 u1 = 0 ovvero:

d ln u1 d ln u2
=
dx dx

che a sua volta implica:

ln u1 = ln u2 + C −→ u1 = eC u2 −→ u1 ∝ u2

ovvero le soluzioni sono linearmente dipendenti e quindi in conclusione per E2 = E1 c’è una
sola soluzione ovvero non si ha degenerazione.
Dall’eq.(2.8), integrando si ha:

Z +∞ Z +∞
0
W (u1 , u2 ) dx = u1 u2 (E1 − E2 ) dx = W (+∞) − W (−∞) = 0
−∞ −∞

e quindi si ritrova l’ortogonalità di soluzioni relative ad autovalori distinti infatti l’espressione


precedente per E2 6= E1 si annulla solo se hu1 |u2 i = 0.
Si potrebbe obiettare nell’espressione precedente che compare u1 e non u∗1 per eseguire il prodotto
scalare, tuttavia una conseguenza dell’assenza di degenerazione in 1d è che le autofunzioni di
stato legato possono sempre essere scelte reali. Scriviamo infatti:

00
h i
u + E −V u = 0
00
h i
u∗ + E − V u∗ = 0

d’altra parte, per l’assenza di degenerazione, qualunque combinazione lineare di u e u∗ deve


essere ancora la soluzione a meno di un fattore di fase e si può quindi scegliere ∝ u + u∗ = uR .
Oppure, in altre parole, si può mettere a zero la fase della soluzione: ossia, presa u ∈ C si può
scrivere u = |u|eiθ e moltiplicando per il fattore di fase e−iθ scegliere come soluzione |u|.
Diamo infine, senza dimostrazione, il teorema di oscillazione.

Teorema:
Siano u1 , u2 soluzioni corrispondenti a E1 , E2 con E2 > E1 ; allora tra due zeri consecutivi di
u1 c’è almeno uno zero di u2 , che quindi oscilla più rapidamente. In particolare l’autofunzione
corrispondente all’autovalore n−esimo ha n − 1 nodi (zeri) al finito. Lo stato fondamentale non
ha zeri al finito.
Una conseguenza di questo teorema è che per V (x̂) = V (−x̂) la funzione d’onda dello stato

91
fondamentale ha sempre parità pari.
Abbiamo adesso tutti gli elementi più importanti per discutere problemi unidimensionali diversi
dal semplice caso di particella libera, ossia studieremo problemi con un potenziale variabile in
x.
Partiamo dallo studio di un paio di casi nei quali non si hanno stati legati e si studia l’influenza
del potenziale sulla probabilità di presenza nelle varie regioni dello spazio. Non trattandosi di
stati legati, come detto, avremo la libertà di scegliere se l’“oggetto” sottoposto al potenziale
sia una particella o un fascio di particelle perchè come abbiamo discusso le funzioni almeno
a ±∞ o in entrambe le regioni saranno onde piane che rappresentano un fascio di particelle,
ma potremmo anche sovrapporle per scegliere uno pacchetto normalizzabile che rappresenti una
particella viaggiante verso destra o verso sinistra a seconda della forma del potenziale o per
scelta arbitraria, come vedremo. Per semplicità di calcolo sceglieremo di rappresentare fasci di
particelle, ossia considereremo onde piane anche se fisicamente sarebbero più appropriate altre
scelte. I risultati principali sono in ogni caso gli stessi e differiscono da quanto ci attenderemmo
classicamente.
Passiamo subito quindi ai casi di barriera di potenziale e di gradino di potenziale. In questo pri-
mo caso come vedremo sceglieremo un fascio proveniente da sinistra, ma ovviamente avremmo
potuto scegliere di farlo provenire da destra o anche da entrambi i lati, avendo libertà su due
parametri. La sostanza fisica non cambia come è facile intuire.

2.4 Applicazioni a problemi di urto

2.4.1 Barriera di Potenziale Rettangolare - Effetto tunnel

92
Analizziamo l’urto in una dimensione contro una barriera di potenziale finita. Il problema è
intrinsecamente asimmetrico.
Una fascio di particelle arriva da sinistra ( )
I e viene in parte riflesso e in parte trasmesso.

Diversamente dal caso classico, si ha sempre una probabilità non nulla per la trasmissione, sia
per E < V0 che per E > V0 .
Questo effetto viene chiamato, nel caso E < V0 , effetto tunnel ed è puramente quantistico.
Ricordiamo che si ha in ogni caso E > Vmin quindi E > 0.
Comportamento asintotico:

x < 0

la ψ rappresenta un fascio incidente e uno riflesso (A) , (B) in figura

x > a fascio trasmesso verso destra in figura (C)

In queste regioni, dove V = 0 le soluzioni hanno energia e impulso definiti e sono esponenziali
complessi.
L’equazione differenziale è
2mE
u00 (x) + u(x) = 0
~2

con soluzioni

u(x) = Aeikx + Be−ikx √
x≤0

p 2mE
k= =
u(x) = Ceikx + De−ikx ~ ~
x≥a

Imporre che non vi siano onde provenienti da destra comporta D = 0.


Le soluzioni diventano quindi:

u(x) = Aeikx + Be−ikx

x≤0
u(x) = Ceikx

x≥a

Vediamo il significato fisico di A, B, C:



~ Jinc. − Jrif. = v(|A|2 − |B|2 )

(x ≤ 0)
J = (ψ ∗ ψ 0 − ψ ∗ 0 ψ) =
2im J 2
trasm. = v |C| (x ≥ a)

Con
p ~k
v= =
m m

93
J è indipendente da x e quindi ∂x J = 0 (∂t ρ = 0) ovvero

Jinc. − Jrif. = Jtrasm.

dividendo per Jinc. :

Jrif. Jtrasm. |B|2 |C|2


1= + =R+T = +
Jinc. Jinc. |A|2 |A|2
dove R e T sono detti rispettivamente i coefficienti di riflessione e di trasmissione (0 ≤ R ≤ 1,
0 ≤ T ≤ 1). La relazione R + T = 1 esprime la conservazione della probabilità.
Dato che non vi sono stati legati resta arbitrario il parametro (A), legato all’intensità del fascio
incidente.
Calcoliamo T (e quindi R = 1 − T ) nei casi E < V0 e E > V0 .

Caso (1) E < V0 , effetto tunnel

Nella regione
II abbiamo:

2m
u00 (x) − (V0 − E)u(x) = 0
~2

Ponendo
2m
β2 = (V0 − E) (β ∈ R per E < V0 )
~2

l’equazione differenziale si riduce a

u00 (x) − β 2 u(x) = 0

Le soluzioni sono quindi, nelle varie regioni:


 
Aeikx + Be−ikx x≤0 ikAeikx − ikBe−ikx x≤0

 


 


 

u(x) = Ge−βx + F eβx 0≤x≤a u0 (x) = −βGe−βx + βF eβx 0≤x≤a

 


 

Ceikx

x≥a ikCeikx

x≥a

Le condizioni di raccordo si trovano imponendo la continuità della funzione e della sua derivata

94
nei punti x = 0 e x = a:

A+B =G+F (2.9)

Ge−βa + F eβa = Ceika (2.10)

ik(A − B) = β(F − G) (2.11)

β(F eβa − Ge−βa ) = ikCeika (2.12)

Per ricavare T serve il rapporto C/A e conviene quindi eliminare F e G dalle precedenti equazioni:
sottraendo (2.11) - (2.9) e (2.12) - (2.10) si ottiene
     
ik ik −βa ik
2F = A 1 + +B 1− =e C 1+ eika (2.13)
β β β
     
ik ik βa ik
2G = A 1 − +B 1+ =e C 1− eika (2.14)
β β β

moltiplicando la (2.13) per (1 + ik/β) e la (2.14) per (1 − ik/β) e sottraendo (2.13) - (2.14) si
trova " 2  2 # " 2  2 #
ik ik ika ik −βa ik βa
A 1+ − 1− = Ce 1+ e − 1− e
β β β β

Svolgendo i conti si ottiene

" 2  2 #
ik ik ik
4 A = Ceika 1+ e−βa − 1 − eβa =
β β β

k2
   
ika ik
= Ce 4 cosh(βa) + 2 1 − 2 sinh(βa)
β β

da cui il rapporto cercato

4 ik −ika
C βe
=  
A 4 ik cosh(βa) + 2 1− k2
sinh(βa)
β β2

Possiamo adesso ricavare il coefficiente di trasmissione


2
|C|2 16 βk 2
T = =
|A|2
 2
2 k2
16 βk 2 cosh2 (βa) + 4 1 − β2
sinh2 (βa)

e utilizzando la relazione cosh2 (βa) = 1 + sinh2 (βa)

95
2
16 βk 2 4k 2 β 2
T = 2 =
4k 2 β 2 + (β 2 + k 2 )2 sinh2 (βa)

2 k2
16 βk 2 + 4 1 + β2
sinh2 (βa)

1
T = (β 2 +k2 )2
1+ 4k2 β 2
sinh2 (βa)

Per esprimere T in funzione di E e V0 ricordiamo che



k 2 =
 2mE
~2 2mV0
⇒ β 2 + k2 =
β 2 = 2m ~2
− E)

~2
(V0

Quindi in definitiva

1
T = q 
V02 2 2ma2 (V0 −E)
1+ 4E(V0 −E) sinh ~2

e per il coefficiente di riflessione


√ 
2ma2 (V0 −E)
V02 sinh2 ~
R=1−T =  p 
a
V02 sinh ~ 2m(V0 − E) + 4E(V0 − E)

L’effetto tunnel è importante solo se βa ∼ 1, cioè per 2m(V0 − E)a2 ∼ ~2 (in altre parole:
barriera sottile, particella leggera, V0 ' E)
Altrimenti per βa  1 o addirittura βa  1 si ha T ∼ e−2βa ovvero la trasmissione è esponen-
zialmente depressa.

Per ~ → 0 (formale), T → 0 (quindi l’effetto tunnel è un effetto quantistico).

Caso (2) E ≥ V0

Per passare a questo caso basta sostituire nell’espressione finale di T scritta in precedenza
β = iα. Dato che
2m
sinh(iβ) = i sin(β) (iβ)2 = (E − V0 )
~2

96
si ottiene

|C|2 1
T = = opacità della barriera
|A|2
q 
V02 2 2ma2 (E−V0 )
1+ 4E(E−V0 ) sin ~2

Quindi, mentre classicamente per E > V0 la barriera verrebbe sorpassata con probabilità 1,
quantisticamente vi è sempre anche riflessione.
Per E = V0 :
1
T (E = V0 ) = ma2 V0
1+ 2~2

Notiamo infine che la barriera diventa completamente trasparente per βa = nπ, il che accade
quando si formano onde stazionarie nella zona della barriera. Tale condizione implica infatti

2m(E − V0 )a2 n2 π 2 ~2
= n2 π 2 ⇒ (E − V0 ) =
~ 2ma2

p2
ma E − V0 = 2m , quindi sostituendo k 2 = ~p2 :

n2 π 2 ~2 4π 2 n2 π 2 n2 λ2
p2 = ⇒ k2 = = ⇒ a2 =
a2 λ2 a2 4


a=
2

cioè quando la barriera è larga un numero intero di semi-lunghezze d’onda di De Broglie.

97
Nota sull’impossibilità di localizzare una particella nella regione con energia cinetica negativa

2.4.2 Gradino di potenziale

Sia dato il potenziale:

V0 x>0

V (x) =

0 x<0

Classicamente, se una particellar proviene da x < 0:


2E
per E < V0 viaggia a velocità v = per x < 0 e rimbalza indietro in x = 0;
rm r
2E 0 2(E − V0 )
per E > V0 viaggia a velocità v = per x < 0 e v = per x > 0 .
m m
Se proviene da x > 0:
ha necessariamente E > V0 , e in x = 0 la velocità passa da −v 0 a −v.

Quantisticamente
vediamo il comportamento a energia E fissata, comunque E > 0 ovvero E > Vmin :
~2 00
Regione I x<0: − ψ = Eψ
2m
con soluzione generale: ψI = A eikx + B e−ikx
e la corrente:

~
jI = =m(ψ ∗ ψ 0 )
m
~k  2   
= |A| − |B|2 = v |A|2 − |B|2
m
= jinc − jrif l

~2 00
Regione
II x>0: − ψ + V0 ψ = Eψ −→ ψ 00 + k 02 ψ = 0
2m
2m mv 0
con k 02 = (E − V0 ) =
~2 ~

Caso E > V0 :

0 0
In questo caso k 0 ∈ R e quindi ψII = Ceik x + De−ik x ; x>0
Per ragioni fisiche D = 0 perchè il termine rappresenta un’onda che proviene da +∞ (il problema
è asimmetrico e noi vogliamo considerare un’onda che proviene da sinistra, anche perchè in questo
caso possiamo discriminare due regimi di energia, mentre con l’onda proveniente da destra si ha

98
solo il cambiamento di velocità, in analogia formale con quanto avviene in ottica nel passaggio
di un’onda da un mezzo con un indice di rifrazione a un altro con indice differente).
Quindi:
0
ψII = Ceik x ; x>0

e la corrente relativa:
~k 0 2
jII = |C| = v 0 |C|2 ≡ jtr
m

Allora dalla conservazione della corrente jI = jII , definiamo:

jI j jrif l jtr
= II −→ 1− = −→ 1−R=T
jinc jinc jinc jinc

|B|2 k 0 |C|2
R+T =1 ; R= 2
; T =
|A| k |A|2

Per ottenere R, T (contano solo questi, dato che l’intensità dell’onda incidente è arbitraria)
imponiamo la continuità in x = 0:

ψ(0) −→ A + B = C
k
ψ 0 (0) −→ ik(A − B) = ik 0 C −→ (A − B) = C
k0

Quindi:
k
A+B = (A − B) −→ (k − k 0 )A = (k + k 0 )B
k0

da cui

B k − k0
=
A k + k0
C k − k0 2k
= 1+ 0
=
A k+k k + k0

e in conclusione

(k − k 0 )2
R =
(k + k 0 )2
k 0 4k 2 4kk 0
T = =
k (k + k 0 )2 (k + k 0 )2

Per E  V0 si ha k 0 → k e di conseguenza R → 0 mentre T → 1.


La novità rispetto al caso classico è che per E > V0 c’è sempre, a causa di una perturbazione nel
potenziale, una probabilità finita di riflessione all’indietro della particella. Il comportamento è
analogo al fenomeno ottico di riflessione al passaggio in un mezzo con indice di rifrazione diverso.

99
Caso E < V0 :

Essendo E < V0 si ha k 02 < 0 e quindi k 0 = iβ con β ∈ R.


In questo caso come soluzione generale si avrebbe

ψII = Ce−βx + Deβx ; x>0

con il secondo termine da scartare perchè divergente e cosı̀:

ψII = Ce−βx ; x>0

Dalle condizioni di continuità:

ψ(0) −→ A + B = C

ψ 0 (0) −→ ik(A − B) = −βC −→ ikA − ikB = −βA − βB

si trova:
B ik + β k − iβ
= =
A ik − β k + iβ

e quindi
|k − iβ|2
R= =1
|k + iβ|2

infatti jtr = 0 perchè ψII ∈ R. Si ha quindi riflessione totale anche se si ha l’onda evanescente
C B 2k
reale con =1+ = che è un effetto quantistico.
A A k + iβ

Riguardando la discussione generale sull’equazione di Schroedinger si osservi che per E > V0


siamo nel caso di spettro continuo e doppiamente degenere e si sarebbe pouto far arrivare il
fascio da +∞, mentre per E < V0 siamo nel caso di spettro continuo e non degenere e il fascio
si poteva far provenire solo da −∞.

100
2.5 Applicazioni a stati legati

2.5.1 Buca di potenziale simmetrica di altezza infinita (buca rigida)

Premessa: Ricordiamo che per una particella libera l’equazione di Schroedinger stazionaria è

~2 d2 u(x)
− + V (x) u(x) = E u(x) (2.15)
2m dx2

ed ha soluzione generale
ψ(x) = A eikx + B e−ikx

Le autofunzioni dell’energia sono combinazioni lineari di autofunzioni dell’impulso con



p = ~k = 2mE e lo spettro dell’energia è continuo e doppiamente degenere.
Prendiamo adesso in esame il caso più semplice di spettro discreto dell’energia, ovvero la par-
ticella confinata in una regione all’interno della quale è libera. Vale la pena sottolineare subito
che sebbene la particella sia libera nella regione interna, essa non lo è in tutto lo spazio e quindi
le autofunzioni dell’energia non potranno essere anche autofunzioni dell’impulso.
(Infatti con ”particella libera” si intende infatti non soggetta a forze e quindi in un potenziale
nullo o comunque costante in tutto lo spazio e quindi indipendente dalla posizione. Nel caso in
esame la particella non è ovunque libera, o in altre parole il potenziale dipende dalla posizione
e quindi, dato che gli operatori impulso e posizione non commutano, energia e impulso non
ammettono autofunzioni simultanee.)
Si consideri quindi la buca di potenziale di larghezza 2a, ponendo l’origine delle coordinate al
centro, come in figura.
Nelle regioni esterne (nelle quali il potenziale è infinito) dovrà essere u(x) = 0 (altrimenti il
termine V (x)u(x) dell’equazione di Schrödinger sarebbe infinito).
Le condizioni di raccordo con continuità si possono imporre solo sulla funzione d’onda nei punti
a e −a, ma non sulla sua derivata.
Conviene esprimere le soluzioni nella regione |x| < a come funzioni trigonometriche (anche se la
forma esponenziale è altrettanto corretta). La soluzione generale è quindi della forma

= A cos(kx) + B sin(kx) ; |x| < a

u(x)

= 0 ; |x| > a

101
Le condizioni al contorno sono, come anticipato

u(a) = A cos(ka) + B sin(ka) = 0

(2.16)
u(−a) = A cos(ka) − B sin(ka) = 0

che è un sistema lineare omogeneo nelle incognite A e B. Se le due equazioni fossero linearmente
dipendenti, l’unica soluzione sarebbe quella banale, che non ha interesse fisico. Imponendo
quindi che le equazioni siano linearmente dipendenti ovvero imponendo che il determinante sia
nullo:
cos(ka) sin(ka)

= −2 cos(ka) sin(ka) = 0
cos(ka) − sin(ka)

che si verifica per


nπ nπ
ka = ovvero k = kn =
2 2a

si determinano quindi i possibili valori per lo spettro discreto dell’energia

p2 ~2 k 2 ~2 π 2 n2
En = = = n = 1, 2, 3, ...
2m 2m 8ma2

~2 π 2 n2
En = autovalori dell’energia
8ma2

Osserviamo che la soluzione

 nπ   nπ 
un (x) = A cos x + B sin x
2a 2a

comporta che esistano due classi di soluzioni che soddisfano le condizioni di raccordo in x = ±a:
quelle con n dispari, per le quali B = 0 (di parità pari) e quelle con n pari, per le quali A = 0
(di parità dispari).
Scritte esplicitamente sono (n 6= 0):



un (x) = A cos
2a x n dispari



u (x) = B sin 
n 2a x n pari

Ribadiamo che, come è immediato verificare, le autofunzioni trovate non sono autofunzioni
dell’impulso.

102
Imponendo la condizione di normalizzazione si ricavano i coefficienti A e B. Ponendo a esempio

Z a  nπx 
2
hu2n |u2n i = 1 ⇒ |B| sin2 dx = 1 ⇒ |B|2 · a = 1
−a a

e lo stesso per A. In definitiva le soluzioni dell’equazione di Schroedinger all’interno della buca


sono 
 √1 cos nπ

2a x n = 1, 3, 5, ...

a
un (x) =
 √1 sin
 nπ

a 2a x n = 2, 4, 6, ...

con autovalori
~2 π 2 2
En = n con n 6= 0
8ma2

Come atteso da proprietà generali dell’equazione di Schroedinger le autofunzioni hanno parità


definita e la funzione d’onda dello stato fondamentale è pari e non ha nodi all’interno della
regione |x| < a, mentre la funzione d’onda del generico livello n ha n − 1 nodi (vedi figura). La
differenza di energia tra due livelli consecutivi è:

~2 π 2 2 ~2 π 2 2 ~2 π 2
∆En = En+1 − En = (n + 1) − n = (2n + 1)
8ma2 8ma2 8ma2

e quindi ∆En → 0 per a → ∞, ossia lo spettro tende a diventare continuo (particella libera).

103
Commentiamo anche il fatto che il minimo autovalore dell’energia non è nullo e ciò è connesso
al principio di indeterminazione. Si può infatti dare una stima della minima energia ammessa
considerando:
~ ~ (∆p)2 ~2
∆pmin ∼= ∼ −→ Emin ∼ ∼
∆x a 2m 2ma2

Un ultimo commento riguarda il valor medio dell’impulso che è sempre nullo su autofunzioni
dell’energia. Il modo più diretto per dimostrarlo formalmente è osservare che le autofunzioni
dell’energia in una dimensione possono sempre essere scelte reali e quindi il valor medio dell’im-
pulso se non nullo sarebbe un numero immaginario puro in contraddizione con il fatto che p̂ è
una osservabile fisica

Z a

hun |p̂x |un i = u∗n (x) · (−i~) un (x) dx = 0
−a ∂x

2.5.2 Buca infinita asimmetrica di larghezza a

Imponiamo le condizioni al contorno

u(0) = 0 ⇒ B=0 ⇒ u(x) = A sin(kx)

u(a) = 0 ⇒ A sin(ka) = 0 ⇒ ka = nπ

104
nπ ~2 kn2 ~2 π 2 n2
kn = ⇒ En = =
a 2m 2ma2

per trovare A si impone la condizione di normalizzazione

Z a  nπx 
|A|2 sin2 dx = 1
0 a

nπx a
ponendo y = a (dx = nπ dy)

Z nπ
a2 y nπ a nπ a
|A| sin (y) dy = |A|2
2
= |A|2 = 1
nπ 0 2 0 nπ 2 nπ

si trova quindi
r r
2 2  nπx 
|A| = ⇒ un (x) = sin
a a a

Esercizio 1

Si consideri la funzione d’onda



0 x<0






ψ(x) = A x(a − x) 0≤x≤a




0

x>0

Determinare la distribuzione dei livelli energetici.

Svolgimento

P P
ψ(x) = hx|ψi = hx n un ihun |ψi = n cn un (x)

r 2 5
Z a Z a
2  nπx  A 23 a2
cn = hun |ψi = dx hun |xihx|ψi = dx sin A x (a − x) = [1 − (−1)n ]
0 0 a a π 3 n3

per trovare la costante A si normalizza

Z a

2 2 2
 30
|A| ax − x dx = 1 ⇒ A= 5
0 a2

105
in definitiva 2 5
A 23 a2
cn = [1 − (−1)n ]
π 3 n3
240 480
Pn = c2n = 6 6
[2 − 2(−1)n ] = 6 6 [1 − (−1)n ]
π n π n

se adesso calcoliamo la probabilità che la particella si trovi nello stato fondamentale (n = 1):

480 960
P1 = 6
· 2 = 6 ' 0, 999
π π

cioè la particella si trova praticamente sempre nello stato fondamentale! Questo è dovuto al fatto
che la funzione d’onda assegnata è lo sviluppo in serie, ovvero un’approssimazione polinomiale,
della funzione d’onda dello stato fondamentale.

Esercizio 2
Nella stessa buca di potenziale si consideri, a t = 0 lo stato:

|ψi = c1 |u1 i + c2 |u2 i ; |c1 |2 + |c2 |2 = 1

a) - Calcolare hEi, hp̂i in funzione di c1 , c2 ∈ R


b) - Calcolare ψ(x, t) con c1 , c2 ∈ R e nuovamente i valori medi di energia e impulso al tempo t
c) - Calcolare P (0, a/2) in funzione di c1 ∈ R+ e c2 ∈ C, determinando c1 , c2 che massimizzano
la probabilità
d) - Calcolare dopo quanto tempo la probabilità P (0, a/2) diventa minima.

Svolgimento

~2 π 2 2
a) - hEi = c21 E1 + c22 E2 = (c + 4c22 ) ; hp̂i = 0 perchè ψ ∈ R.
2ma2 1
Nota: Nel dettaglio sarebbe hp̂i = c21 p̂11 + c22 p̂22 + c1 c2 (p̂12 + p̂21 ) dove p̂ij = hui |p̂|uj i è la
matrice rappresentativa di p̂ sulla base degli autostati dell’Hamiltoniana. Questa matrice deve
essere hermitiana per cui ad esempio gli elementi diagonali devono essere reali. Nel caso specifico
p̂11 = p̂22 = 0 essendo le un ∈ R. Per gli elementi simmetrici rispetto alla diagonale si avrà
p̂12 + p̂21 = 0 perchè saranno necessariamente immaginari puri e quindi di segno opposto sempre
per l’hermitianità della matrice.

106
b) -

ψ(x, t) = hx|ψ(t)i
i
− Ht
= hx|e ~ |ψ(0)i
i
− Ht
= hx|e ~ |c1 u1 + c2 u2 i
i i
− E1 t − E2 t
= c1 u1 (x) e ~ + c2 u2 (x) e ~
r
2  πx  − i E1 t r
2
  i
2πx − E2 t
= c1 sin e ~ + c2 sin e ~
a a a a

Il valor medio dell’energia resta costante nel tempo perchè [H, U (t)] = 0.
Per il valore medio dell’impulso al tempo t si ha:

 i

hψ(t)|p̂|ψ(t)i = c21 p̂11 + c22 p̂22 + c1 c2 p̂12 e ~ (E1 −E2 )t + c.c

= 2i c1 c2 sin(ω12 t) p̂12

essendo al solito nulli i termini diagonali ed essendo p̂12 = −p̂21 immaginario puro e
ω12 = (E1 − E2 )/~.
Per l’elemento di matrice si trova:

Z a
r r  
2  πx  d 2 2πx 8
p̂12 = −i~ sin sin dx = i~
0 a a dx a a 3a

per cui in definitiva il valor medio dell’impulso oscilla nel tempo:

3~π 2 t
 
16~ 16~
hψ(t)|p̂|ψ(t)i = − sin(ω12 t) c1 c2 = − sin c1 c2
3a 3a 2ma2

c) - Con c1 ∈ R+ , c2 ∈ C e c21 + |c2 |2 = 1 si ha:

 
|ψ(x)|2 dx = c21 u21 + |c2 |2 u22 + 2 c1 Re(c2 ) u1 u2 dx

quindi

Z a/2 Z a/2 Z a/2


P (0, a/2) = c21 u21 dx + |c2 | 2
u22 dx + 2 c1 Re(c2 ) u1 u2 dx
0 0 0
1 1 4
= c21 · + |c2 |2 · + 2 c1 Re(c2 )
2 2 3π
1 8
= + c1 Re(c2 )
2 3π

107
Parametrizziamo i coefficienti:

c1 = sin δ

c2 = cos δ eiϕ

con δ ∈ (0, π) per avere c1 ∈ R.


Ricerca del massimo:

∂P (0, a/2) ∂ h1 4 i 8
= + sin 2δ cos ϕ = cos ϕ cos 2δ = 0
∂δ ∂δ 2 3π 3π

π 3π
che si annulla per δ1 = , δ2 = ∈ (0, π).
4 4
Quindi scegliendo δ = δ1 con ϕ = 0 oppure δ = δ2 con ϕ = π:

1 4
PM (0, a/2) = +
2 3π

1
In ambedue i casi c1 = c2 = √ .
2
d) -

1 8 h i
P (0, a/2)(t) = + Re c∗1 (t)c2 (t)
2 3π
1 4
Re ei(ω1 − ω2 )t
h i
= +
2 3π
1 4
= + cos[(ω1 − ω2 )t]
2 3π

Il minimo è raggiunto quando:

π~ 2ma2
(ω1 − ω2 )t = π −→ t= =
E2 − E1 3π~

108
2.5.3 Buca quadrata simmetrica di altezza finita

Si consideri la buca di potenziale di larghezza 2a descritta in figura.


Si cercano gli stati legati del sistema, quindi l’energia −V0 < E < 0. Il problema è stazionario e
l’equazione di Schrodinger è:

~2 00 h i
− u (x) + V (x) − E u(x) = 0
2m

che nella regione


II diventa (E = −|E|)

2m  
u00 (x) + V0 − |E| u(x) = 0
~2
 
2m
e posto β 2 = ~2
V0 − |E| , con β reale perchè |E| < V0 per ipotesi, si vede che le soluzioni sono
funzioni oscillanti (esponenziali complessi o seni e coseni).
Nelle regioni
I e
III l’equazione è invece

2m|E|
u00 (x) − u(x) = 0
~2

2m|E|
e ponendo α2 = ~2
> 0 e le soluzioni sono esponenziali reali.
Quindi la soluzione generale nelle varie regioni è


C1 eαx + D1 e−αx


 I


u(x) = A sin(βx) + B cos(βx)
II




C3 eαx + D3 e−αx


III

109
Imponendo le condizioni u(x) → 0 per x → ±∞ si ottiene D1 = C3 = 0.
In definitiva 
C1 eαx


 I


u(x) = A sin(βx) + B cos(βx)
II




D3 e−αx


III

e per le derivate 
αC1 eαx



 I


u0 (x) = βA cos(βx) − βB sin(βx)
II




−αD3 e−αx


III

Imponendo la continuità di u(x) e u0 (x) nei punti x = ±a, si ottiene



−A sin(βa) + B cos(βa) = C1 e−αa







A sin(βa) + B cos(βa) = D3 e−αa

βA cos(βa) + βB sin(βa) = αC1 e−αa









βA cos(βa) − βB sin(βa) = −αD3 e−αa

Queste equazioni costituiscono un sistema omogeneo nelle incognite A, B, C1 , D3 con soluzione


banale se linearmente indipendenti. Imporne la dipendenza lineare permetterebbe in linea di
principio di determinare le energie degli stati legati. Tuttavia è più pratico procedere in altro
modo che in sostanza conduce allo stesso risultato.
Sommando e sottraendo quindi a coppie le equazioni, si riscrive il sistema nella forma

2B cos(βa) = (D3 + C1 )e−αa







2A sin(βa) = (D3 − C1 )e−αa

2βA cos(βa) = α(C1 − D3 )e−αa









2βB sin(βa) = α(C1 + D3 )e−αa

dividendo la quarta con la prima e la terza con la seconda si ottiene:



β tan(βa) = α

oppure B = D3 + C1 = 0
β cot(βa) = −α

oppure A = D 3 − C1 = 0

110
Le due condizioni sono incompatibili dato che moltiplicandole si avrebbe

β 2 = −α2

che è impossibile essendo α e β entrambi reali. Le soluzioni sono quindi distinte in classe pari e
dispari soddisfacendo le condizioni

1) β tan(βa) = α e A = D3 − C1 = 0

2) β cot(βa) = α e B = D3 + C1 = 0

dato che la soluzione A = D3 + C1 = A = D3 − C1 = 0 non ha alcun interesse fisico, perchè


implicherebbe u(x) = 0.
Il fatto che le soluzioni abbiano parità definita discende naturalmente dalla simmetria del
potenziale ovvero dell’Hamiltoniana. Le autofunzioni della prima classe sono quindi

−αx

I C1 eαx
II B cos(βx)
III C1 e

con β tan(βa) = α. Queste funzioni sono di classe pari e i coefficienti B e C1 sono legati da
un’equazione del sistema e determinabili normalizzando la funzione d’onda.
Le autofunzioni della seconda classe sono


I C1 eαx
II A sin(βx)
III − C1 e−αx

con −β cot(βa) = α. Queste funzioni sono dispari, i coefficienti sono sempre legati da un’equa-
zione del sistema e determinabili mediante la normalizzazione.

Autovalori dell’energia

Consideriamo le equazioni
 
β tan(βa) = α
 βa tan(βa) = αa


−β cot(βa) = α
 −βa cot(βa) = αa

111
definendo x = βa e y = αa queste diventano

y = x tan(x)

y = −x cot(x)

con x > 0 e y > 0 essendo β ed α usati nella scrittura delle soluzioni generali dell’equazione di
Schrodinger implicitamente positivi. Inoltre, essendo appunto
r r
2m 2m|E|
β= (V0 − |E|) e α=
~2 ~2

si ha che
2mV0
x2 + y 2 = a2 β 2 + α2 = a2 2 ≡ R2

~

è un vincolo indipendente da E e quindi gli autovalori dell’energia si possono trovare risolvendo


il sistema 
y = x tan(x)

classe pari
x2 + y 2 = R2

Mentre per le soluzioni di classe dispari gli autovalori dell’energia sono le soluzioni del sistema

y = −x cot(x)

classe dispari
x2 + y 2 = R2

Dato che, come già detto, x e y sono positivi, le soluzioni sono quelle nel primo quadrante.

112

Il numero di stati legati, fissata la massa della particella, dipende dal prodotto a V0 , quindi
aumentando la larghezza e/o la profondità della buca aumentano in numero.

Classe pari Esiste sempre uno stato legato u0 (x) perchè come si vede dal grafico la tangente
”esce” dall’origine, perciò il primo stato legato è garantito per ogni valore di R. Il numero totale
di stati è la parte intera di 1 + R
 
π

Classe dispari Per avere almeno uno stato legato deve essere R > π2 , in numero sono la parte
intera di 21 + R
 
π
h i
In totale il numero di stati legati è quindi la parte intera 1 + Rπ , con i possibili livelli energetici
2

aventi |E| < V0 , E < 0.


Si nota inoltre che gli autovalori dell’energia crescono (in modulo) con y e quindi l’energia dello
stato fondamentale corrisponde a quello con il max valore di y .
La funzione d’onda dello stato fondamentale non ha zeri al finito, quella successiva ne ha uno e
cosı̀ via.

113
2.5.4 Buca di potenziale a δ di Dirac

Si consideri la buca di potenziale con:

V (x) = −a V0 δ(x)

Chiaramente per avere stati legati dovremo avere energia compresa tra il massimo e il minimo
del potenziale e quindi comunque E < 0. Notiamo anche che il coefficiente a serve per motivi
h i h i
dimensionali dato che δ(x) dx = 1 implica che δ = `−1 e quindi a = `.
R

Possiamo imporre la continuità in x = 0:

00
h i
u (x) + E − V(x) u(x) = 0

2mE 2mV (x)


E= 2
; V(x) = Nelle regioni
I e
II con x < 0 e x > 0 il potenziale V (x) = 0 e
~ ~2
quindi (E < 0) l’equazione diventa:

00
u (x) − |E| u(x) = 0

con soluzioni, scartando quelle divergenti a ±∞:

uI = A ekx

uII = B e−kx

2m|E|
con k 2 = . La continuità in x = 0 implica A = B per cui si hanno soluzioni di classe pari:
~2

uI = A ekx ; uII = A e−kx

La derivata prima della funzione d’onda non è continua dato che il potenziale ha una disconti-
nuità infinita.
Integrando attorno alla discontinuità si ottiene:

~2 
du0  
Z Z Z
− dx − aV0 δ(x)u(x) dx = E u(x) dx
2m − dx − −

ovvero:
~2 h 0 i
− u () − u0 (−) = aV0 u(0) + 2E u(0)
2m

114
Nel limite  → 0 l’ultimo termine si annulla e usando le espressioni per le soluzioni si trova:

~2 h i
− − ku(0) − ku(0) = aV0 u(0)
2m

k~2
ovvero = aV0 e in definitiva:
m

~2 k 2 ma2 V02
E=− = −
2m 2~2

che è l’energia del solo stato legato, e di classe pari.

2.6 Oscillatore armonico

L’oscillatore armonico è un problema esattamente risolubile e la sua quantizzazione nella base


del numero di occupazione, che sarà riassunta poco avanti, introduce un formalismo che trova
applicazione in vari campi e ricorre in molti corsi successivi. Mentre rimandiamo ai molteplici
testi sulla materia per considerazioni e approfondimenti, in questa sede ci limitiamo a sottolineare
un argomento che basta a giustificare l’importanza dello studio del potenziale armonico, ovvero
che la prima approssimazione di qualunque potenziale liscio con minimo al finito, attorno al
minimo, è appunto armonica. Quindi ad esempio, se le correzioni anarmoniche non sono grandi,
si può ricorrere a metodi approssimati quali la teoria perturbativa (che introdurremo più avanti)
per ottenere buone approssimazioni delle soluzioni sviluppando attorno alla soluzione armonica.

2.6.1 Soluzione dell’oscillatore armonico risolvendo l’equazione differenziale

Cerchiamo autovalori e autofunzioni per l’Hamiltoniana

p̂2 1 p̂2 1
H= + k x̂2 = + mω 2 x̂2
2m 2 2m 2

con ω 2 = k/m.
Ci aspettiamo una infinità numerabile di livelli in quanto V (x̂)x→±∞ → +∞.
Li troveremo imponendo opportune condizioni al contorno a ±∞. L’equazione di Schroedinger
si scrive:
~2 00 1
− u (x) + mω 2 x2 u(x) = Eu(x)
2m 2

115
r

Introduciamo variabili adimensionali. Posto α = che ha dimensioni dell’inverso di una
~
lunghezza, sia ξ = αx per cui:

00
 2mE m 2 ω 2 x2 
u (x) + − u(x) = 0
~2 ~2

E
diventa, posto  ≡

00
2 − ξ 2

u (ξ) + u(ξ) = 0 (2.17)

Risolviamo l’equazione differenziale cercando prima il comportamento asintotico e poi vicino


all’origine.
Per |x| → ∞ anche |ξ| → ∞ e l’equazione si può approssimare in questo regime con

00 00
2 − ξ 2 u(ξ) ∼ u (ξ) − ξ 2 u(ξ) = 0

u (ξ) + ; |ξ| → ∞

e cerchiamo soluzioni di stato legato per cui |u(x)||ξ|→∞ → 0


Cercando soluzioni della forma:
2
u = A ξ m e−ξ /2

si trova:

2
−ξ
h i
u 0
= Ae /2 mξ m−1
− ξ m+1

2
A e−ξ /2 m(m − 1) ξ m−2 − mξ m − (m + 1)ξ m + ξ m+2
00
h i
u =

Essendo dominante l’ultimo termine, si vede che per grandi valori di ξ l’equazione è soddisfatta.
2 /2
Quindi per ξ → ±∞ : u(ξ) ∼ A ξ m e−ξ .
Studiamo adesso il comportamento vicino ξ = 0:
In questo caso l’equazione si approssima con:

00
u (ξ) + 2 u(ξ) = 0

e dato che  > 0 (E > Vmin ) le soluzioni sono della forma:

√  √ 
u ∼ A cos 2 ξ + B sin 2 ξ ∼ A + C ξ + O(ξ 2 )

Quindi la soluzione generale si potrà scrivere nella forma:

2 /2
u(ξ) = φ(ξ) e−ξ (2.18)

116
con:

A + C ξ + O(ξ 2 ) ; ξ→0

φ(ξ) ∼

ξm ; ξ → ±∞

Sostituiamo l’espressione (2.18) nell’equazione iniziale (2.17). Essendo:

2 /2
u = e−ξ φ
2 /2
 
u0 = e−ξ φ0 − ξ φ
00 2 /2
 00

u = e−ξ φ − 2ξφ0 − φ + ξ 2 φ

si trova l’equazione per φ(ξ):

00
φ (ξ) − 2ξ φ0 (ξ) + (2 − 1) φ(ξ) = 0 (2.19)

Cerchiamo una soluzione per serie di potenze, visti i comportamenti in x = 0 e x → ±∞


X
φ(ξ) = cn ξ n
n=0

e cerchiamo una equazione di ricorrenza per i cn . Si ha:


X ∞
X
0 n−1 0
φ = nξ cn −→ ξφ = nξ n cn
n=1 n=0
∞ h i ∞
00
X X
φ = n(n − 1)ξ n−2 cn = (n + 2)(n + 1)ξ n cn+2
n=2 n=0

Sostituendo in (2.19)

∞ h
X i
(n + 2)(n + 1) cn+2 + (2 − 1 − 2n) cn ξ n = 0
n=0

e l’equazione di ricorrenza cercata è:

2n + 1 − 2
cn+2 = cn (2.20)
(n + 2)(n + 1)

117
Però vedremo che la serie va troncata per ottenere soluzioni valide per gli stati legati. Infatti,
studiando il comportamento asintotico della serie per grandi n, si vede che

cn+2 2
∼n→∞
cn n

2
che darebbe un andamento divergente come e+ξ per ξ → ±∞. Infatti

∞ ∞ ∞
ξ2
X ξ 2n X ξk X
e = =   ≡ bk ξ k
n! k
n=0 k=0 ! k=0
2

e  
k
!
bk+2 2 1 2
=   = ∼ ; k→∞
bk k+2 k k
! +1
2 2

Quindi vediamo che senza troncare la serie non potremmo avere soluzioni ∈ L(2) (R). Questo
vediamo che è possibile solo se i cn nella relazione di ricorrenza (2.20) si annullano da un certo
punto in poi, il che è possibile solo se

1
2n + 1 − 2 = 0 −→  = n +
2

ovvero per  
1
En = ~ω n + ; n = 0, 1, 2, ... (2.21)
2

ossia per valori discreti dell’energia, gli autovalori cercati.


Sottolineiamo che imporre il troncamento della serie è parente di quanto fatto quando richiedeva-
mo che le equazioni per i coefficienti delle soluzioni nelle buche quadrate non fossero indipendenti,
il che accadeva solo per valori discreti dell’energia.
La relazione di ricorrenza collega i cn+2 ai cn e cosı̀ si possono azzerare alternativamente
i coefficienti di indice pari e quelli di indice dispari. Le soluzioni per φ(ξ) sono i polinomi di
Hermite di grado n e parità (−1)n : Hn (αx) .
Vediamo esempi:

1
n = 0: c0 = 1, c1 = 0 −→ c2n+1 = 0. Si ha 0 = e dalla relazione di ricorrenza c2 = 0 e
2
quindi anche tutti i c2n successivi sono nulli. H0 (ξ) = 1.

n = 1: c0 = 0 −→ c2n = 0. Si sceglie c1 = 2 (arbitrarietà che resta e la scelta è per la


3 3 − 2
normalizzazione dello stato). Si ha 1 = e c3 = c1 = 0 e tutti i c2n+1 successivi nulli.
2 6

118
H1 (ξ) = 2ξ.

5
n = 2: c0 = 1, c1 = 0 −→ c2n+1 = 0. Si ha 2 = e dalla relazione di ricorrenza
2
1 − 22 5 − 22
c2 = c0 = −2c0 e si sceglie c0 = −2 e di conseguenza c2 = 4. Inoltre c4 = c2 = 0
2 2
e i successivi c2n = 0. H2 (ξ) = 4ξ 2 − 2.
Le autofunzioni dell’oscillatore armonico normalizzate sono:

r
α 2
−ξ /2
un (ξ) = √ Hn (ξ) e
π2n n!

2
I polinomi di Hermite sono polinomi ortogonali rispetto alla funzione peso e−ξ

Z +∞ √
2 /2
Hn (ξ) Hm (ξ) e−ξ dξ = δmn π 2n n!
−∞

Inoltre verificano le equazioni di ricorrenza:

Hn0 = 2n Hn−1

Hn+1 = 2ξ Hn − 2n Hn−1

Verifichiamo a esempio:

H10 = 2ξ 0 = 2 = 2 · 1 · H0 = 2

H2 = 2ξ H1 − 2 H0 = 2ξ · 2ξ − 2 · 1 = 4ξ 2 − 2 cvd

Quindi l’energia è quantizzata con infiniti livelli equispaziati con ∆E = ~ω.


Notare che si ritrova lo spettro di valori che se usato per il corpo nero fornisce la formula di
Planck.
Confronto con il caso classico: ci si tende per grandi numeri quantici dove non è più possibile
∆E
apprezzare la spaziatura dei livelli, ovvero E molto piccolo.
Esempio: per una massa m = 1gr, ω = 102 rad/s, x0 = 1cm.
cm2
E(ẋ = 0) = 12 mω 2 x20 = 0.5 · 104 · 1gr 2 = 5 · 103 erg mentre ~ω ' 10−25 erg = ∆E.
s
∆E 10−25 −29
Quindi E ' 5·103 ' 2 · 10 . Per ottenere l’energia dell’oscillatore servirebbero numeri quan-
tici n ' 1029 .

Primi Polinomi di Hermite


H0 = 1, H1 = 2ξ, H2 = 4ξ 2 − 2, H3 = 8ξ 3 − 12ξ, H4 = 16ξ 4 − 48ξ 2 + 12,

119
H5 = 32ξ 5 − 160ξ 3 + 120ξ
00
Equazione differenziale: Hn − 2ξ Hn0 + 2n Hn = 0
2
Funzione generatrice: S(ξ, λ) = e−λ + 2λξ

dn
Hn (ξ) = S(ξ, λ)

dλn

λ=0
2 ∂ n −ξ 2
Hn (ξ) = (−1)n e ξ e
∂ξ n

Parità: Hn (−ξ) = (−1)n Hn (ξ). Numero di zeri al finito = n.

2.6.2 Soluzione algebrica dell’oscillatore armonico

Vediamo adesso la soluzione algebrica per gli autovalori e gli autostati dell’oscillatore armonico.
Questa trattazione è molto più importante della derivazione precedente perchè introduce gli
operatori di salita e discesa (o anche chiamati in molti contesti di creazione e distruzione) che
ritroverete in molti campi della fisica di qui in avanti.
Ripartiamo quindi dall’Hamiltoniana dell’oscillatore armonico unidimensionale:

p̂2 1
H= + mω 2 x̂2 (2.22)
2m 2
p
con la pulsazione ω = k/m . Riscriviamo rl’Hamiltoniana in termini di variabili adimensionali

e quindi fattorizzando ~ω. Definiamo α = che ha dimensioni dell’inverso di una lunghezza
~

e introduciamo le variabili adimensionali P = e Q = αx̂ ≡ ξ.

In termini di queste variabili l’Hamiltoniana diventa:

~ω  2 2

H= P +Q (2.23)
2

Notiamo che la variabile di posizione è stata sostituita da quella adimensionale ξ = αx, e di


conseguenza anche la nuova variabile associata all’impulso:
 
1 d d
P = −i~ = −i
~α dx dξ

Si verifica subito che


[Q, P ] = i (2.24)

120
e che si può scrivere:

~ω n o
H = (Q − iP ) (Q + iP ) − i[Q, P ]
2
~ω n o
= (Q − iP ) (Q + iP ) + 1 (2.25)
2

A questo punto introduciamo gli operatori di discesa e salita non hermitiani:

Q + iP
a = √
2
Q − iP
a† = √ (2.26)
2

e scriviamo anche le relazioni inverse:

a + a† a − a†
ξ = √ ; P = √
2 2i
a + a† a − a†
x̂ = √ ; p̂ = ~α √ (2.27)
2α 2i

La regola di commutazione tra a e a† è, in conseguenza della (2.24):

1 1 
[a, a† ] = [Q + iP, Q − iP ] = i [P, Q] − i [Q, P ] = 1 (2.28)
2 2

e l’Hamiltoniana, espressa in termini di a, a† , dalla (2.25) diventa:


 
† 1
H = ~ω a a + (2.29)
2

Lo studio dello spettro e degli autostati di H, si riduce quindi a trovare autostati e autovalori
dell’operatore hermitiano N̂ = a† a, dato che l’Hamiltoniana è proporzionale a questo a parte
una costante proporzionale all’identità.
Essendo N̂ un operatore hermitiano, ammetterà autostati |νi ortonormali, ovvero

N̂ |νi = ν|νi

con hν|0 νi = δν 0 ν , avendo dato per scontato che lo spettro sia discreto per le caratteristiche
del potenziale armonico. Per quanto riguarda gli autovalori, questi non solo saranno reali, ma
anche non negativi, ossia ν ∈ {0, R+ } essendo N̂ un operatore non negativo come si verifica
immediatamente:
2
hν|N̂ |νi = hν|a† a|νi = a|νi ≥ 0 (2.30)

121
Ovviamente sarà:  
1
hν|H|νi = ~ω ν +
2

Si tratta quindi di determinare i valori che può assumere ν e di conseguenza la forma degli
autostati |νi. Per far questo useremo la non negatività di ν e la regola di commutazione:

[N̂ , a] = [a† a, a] = [a† , a]a = −a (2.31)

che implica:
N̂ (a|νi) = aN̂ |νi + [N̂ , a]|νi = aν|νi − a|νi = (ν − 1) (a|νi) (2.32)

la quale a sua volta implica che sia a|νi è autostato di N̂ con autovalore ν − 1, sia deve essere
a|νi = 0.
Se a|νi 6= 0, segue che a|νi = λν |ν − 1i non essendoci degenerazione per gli stati legati in una
dimensione.
Vediamo che per iterazione si trova che:

       
N̂ an = aN̂ + [N̂ , a] an−1 = aN̂ − a an−1 = a N̂ − 1 an−1 = a N̂ a − a an−2
     
= a aN̂ + [N̂ , a] − a an−2 = a aN̂ − 2a an−2 = a2 N̂ − 2 an−2
 
= .... = an N̂ − n (2.33)

Di conseguenza:
N̂ an |νi = (ν − n) an |νi (2.34)

Quindi abbiamo di nuovo le due possibilità: an |νi = 0 oppure an |νi è autostato di N̂ con
autovalore ν−n; d’altra parte, sapendo che gli autovalori di N̂ non possono essere negativi, fissato
ν, n non può essere arbitrariamente grande ovvero n ≤ ν altrimenti si avrebbe un autovalore
di N̂ negativo. Supponiamo quindi che fissato ν si consideri un n tale che n < ν < n + 1.
Dall’assunzione ν < n + 1 deriva an+1 |νi = 0, che è ammissibile mentre dalla disuguaglianza
ν > n se ne dedurrebbe che an |νi =
6 0 con ν − n 6= 0, che non è possibile. Infatti si avrebbe:

η ≡ hν|a†n a† aan |νi = hν|a†n N̂ an |νi ∝ ν − n 6= 0

mentre chiaramente η = 0 perchè an+1 |νi = 0. L’unica possibilità è quindi che ν = n, e quindi
gli autovalori di N̂ sono numeri interi non negativi.
In conclusione per l’operatore N̂ = a† a, detto anche operatore numero, vale N̂ |ni = n|ni con
n = 0, 1, 2, 3, ... (l’autovalore n è detto anche numero di occupazione).

122
Per l’energia di conseguenza si ha:
 
1
En = hn|H|ni = ~ω n + ; n = 0, 1, 2, ... (2.35)
2


Il valore minimo ammissibile per gli autovalori dell’energia E0 = si ha in corrispondenza
2
del minimo autovalore n = 0 dell’operatore numero, con lo stato fondamentale |0i definito
dall’equazione:
a|0i = 0 (2.36)

Siamo anche adesso in grado di calcolare la normalizzazione di stati a|ni con n 6= 0. Infatti se
a|ni = cn |n − 1i segue che n = hn|a† a|ni = |cn |2 hn − 1|n − 1i = |cn |2 (ricordiamo che abbiamo

legittimamente assunto che |ni sia una base ortonormale). Quindi si può scegliere cn = n (a
meno di una fase) e:

a|ni = n|n − 1i (2.37)

√ p
Evidentemente iterando si avrà ad esempio a2 |ni = n a|n − 1i = n(n − 1)|n − 2i e cosı̀ via
per applicazioni successive dell’operatore di discesa a.
Il nome operatore di salita per a† è anch’esso dovuto alla regola di commutazione con N̂ :

[N̂ , a† ] = a† (2.38)

infatti
 
N̂ a† |ni = a† N̂ + [N̂ , a† ] |ni = (n + 1)a† |ni

e quindi a† |ni ∝ |n + 1i non potendo essere nullo in quanto

hn|aa† |ni = hn|a† a|ni + hn|ni = (n + 1)hn|ni = n + 1 6= 0 (2.39)

Quindi
a† |ni = λn |n + 1i

dall’equazione precedente e dalla (2.39)

n + 1 = hn|aa† |ni = |λn |2 hn + 1|n + 1i = |λn |2


si ha in definitiva, a meno di un fattore di fase λn = n + 1.
In definitiva

a† |ni = n + 1|n + 1i

123

ed è immediato verificare che a†n |0i = n!|ni e gli autostati |ni si possono ottenere da quello
fondamentale attraverso l’azione ripetuta dell’operatore di salita

a†n
|ni = √ |0i
n!

Abbiamo quindi trovato autostati ed autovalori per via puramente algebrica sulla base dell’ope-
ratore numero (o numero di occupazione) N̂ . Questo spazio si chiama spazio di Fock e ritroverete
molto spesso questo formalismo nei prossimi corsi.
Vale la pensa comunque di mostrare come si possono ritrovare i risultati già ottenuti per le
funzioni d’onda sulla base delle |xi. Infatti, essendo:

d
Q + iP ξ + dξ
a = √ = √
2 2
d
Q − iP ξ − dξ
a† = √ = √
2 2

proiettando l’equazione che definisce lo stato fondamentale a|0i = 0 sulla base |xi si ottinene
un’equazione differenziale per la funzione d’onda dello stato fondamentale u0 (x) = hx|0i:
 
d
hx|a|0i = ξ+ u0 (x) = 0
dx

con soluzione:
ξ2

u0 (x) = N0 e 2

e dalla normalizzazione

Z +∞ √ r
2 −α
2 2
x dx = π α
h0|0i = 1 = |N0 | e |N0 |2 −→ N0 = √
−∞ α π

da cui
r α 2 x2
α −
u0 (αx) = √ e 2
π

e per gli stati eccitati:


 n
1 d
un (αx) = √ hx|a†n |0i = Nn ξ− u0 (ξ)
n! dξ

124
α
r
con Nn = √ . Per le autofunzioni di ordine n vale la formula di Rodriguez:
π2n n!

2 dn
 
2 2 2
un (ξ) = Nn e−ξ /2 n
(−1) e ξ e −ξ
= Nn e−ξ /2 Hn (ξ)
dξ n

2.6.3 Operatori x̂, x̂2 , x̂3 ed elementi diagonali di x̂4

È utile per varie applicazioni riassumere con un certo dettaglio la forma che prendono alcune
potenze dell’operatore x̂ in termini di operatori di creazione e distruzione per poi studiarne gli
a + a†
elementi di matrice tra autostati dell’energia. Studiamo quindi, essendo x̂ = √ , la forma

che prendono le potenze di a + a† fino al terzo grado. Partiamo dagli elementi del primo grado:

√ √
hm|a + a† |ni = nδm,n−1 + n + 1δm,n+1

Gli elementi di matrice di x̂ sono quindi:

1 √ √ 
x̂mn = √ n δm,n−1 + n + 1 δm,n+1

ovvero una matrice reale simmetrica con elementi non nulli solo sulle diagonali adiacenti quella
principale. Per il secondo grado si ha:

(a + a† )2 = (a + a† )(a + a† ) = a2 + aa† + a† a + a†2 = a2 + a†2 + 2a† a + 1 = a2 + a†2 + 2N̂ + 1

e gli elementi di matrice di x̂2 sono quindi:

1 hp p i
x̂2mn = n(n − 1) δ m,n−2 + (n + 1)(n + 2) δm,n+2 + (2n + 1) δm,n
2α2

ovvero partendo da uno stato n si connettono stati con |∆n| = |m − n| = 0, 2 (e la matrice è


sempre reale simmetrica come per qualunque potenza di x̂). Per il terzo grado si ha, usando il
risultato del grado due (oltre al commutatore [a, a† ] = 1):

(a + a† )3 = (a + a† )(a + a† )2 = (a + a† )(a2 + a†2 + 2a† a + 1)

= (a3 + aa†2 + 2aa† a + a + a† a2 + a†3 + 2a†2 a + a† )

= a3 + a†3 + 3aa† a + 3a† aa†

125
e quindi x̂3 connette stati con |∆n| = 1, 3:

1hp p
x̂3mn = √ n(n − 1)(n − 2) δm,n−3 + (n + 1)(n + 2)(n + 3) δm,n+3
23 α3
√ p i
+ 3 n3 δm,n−1 + 3 (n + 1)3 δm,n+1

È facile intuire che x̂4 connette stati con |∆n| = 0, 2, 4. Per il quarto grado ci limitiamo
a calcolarne gli elementi diagonali, considerando che contribuiranno solo i termini con ugual
numero di operatori di innalzamento e di abbassamento:

hn|(a + a† )4 |ni = hn|(a + a† )2 (a + a† )2 |ni

= hn|(a2 + a†2 + 2a† a + 1)(a2 + a†2 + 2a† a + 1)|ni

= hn|a2 a†2 + a†2 a2 + (2N̂ + 1)2 |ni

= (n + 2)(n + 1) + n(n − 1) + 4n2 + 4n + 1

= 6n2 + 6n + 3

Per l’operatore impulso ricorrono più frequentemente il calcolo dei suoi elementi di matrice di
p̂ e di p̂2 . Lasciamo per esercizio il calcolo esplicito, comunque p̂mn risulta immaginaria pura (e
quindi antisimmetrica) con elementi non nulli solo nelle diagonali adiacenti a quella principale
essendo anche p̂ come x̂ lineare in a, a† mentre p̂2mn risulta reale simmetrica con connessione tra
stati con |∆n| = 0, 2.

2.6.4 Oscillatore shiftato

Una generica forma quadratica del potenziale in una dimensione rappresenta sempre un oscilla-
tore armonico, centrato nell’origine se è assente il termine lineare. Se consideriamo a esempio
l’Hamiltoniana
p̂2 1
H = + kx̂2 − β x̂
2m 2

completando la forma quadratica e riscrivendo

β2 p̂2 β 2
 
1
H + = + k x̂ −
2k 2m 2 k

si vede che si tratta di un oscillatore armonico centrato non più in x̂ = 0 bensı̀ in x0 = β/k (e
notiamo che l’impulso associato non cambia). I livelli energetici sono quindi, a parte uno shift
β2
costante che non cambia la fisica del problema, gli stessi dell’oscillatore armonico non shif-
2k  
1
tato En = ~ω n + , mentre le autofunzioni saranno della stessa forma ma funzioni di x−x0 .
2

126
2.6.5 Ulteriori osservazioni

Come abbiamo visto quindi le soluzioni per lo spettro e gli autostati dell’oscillatore armonico
hanno una serie di caratteristiche che merita in parte riassumere e in parte approfondire.
Oltre a essere discreto lo spettro è composto da livelli equispaziati ~ω. Il limite classico di
spettro continuo si approssima quando la spaziatura tra i livelli è piccola rispetto alle energie in
∆E 1
gioco =  1 ovvero per grandi numeri quantici, al quale ci si riferisce in vari casi
E n + 1/2
come limite classico.
Un altro modo per vedere che per grandi numeri quantici si ottengono risultati che somigliano
a quelli classici si ottiene confrontando le caratteristiche del moto classico e della probabilità di
presenza classica con quelle quantistiche in funzione del numero quantico n.
Ricordiamo quindi che nel caso classico, dalla soluzione

x(t) = x0 cos(ωt + φ)

dove x0 è l’ampiezza dell’oscillazione e φ la fase, sostituendo nell’espressione dell’energia si trova:

1 1 1
E = T + V = mẋ2 + mω 2 x2 = mω 2 x20
2 2 2

da cui  1/2
2E 1/2
ẋ = − ω 2 x2 = ω x20 − x2
m

Il moto classico è quindi limitato per |x| ≤ x0 con la velocità che si annulla in ±x0 che per questo
si chiamano turning points. Confrontando con il caso quantistico si vede subito che invece la
funzione d’onda non si annulla per |x| > x0 e quindi che sussiste una probabilità, anche se
esponenzialmente depressa, di trovare la particella nella regione classicamente proibita. Inoltre
le densità di probabilità classica e quantistica differiscono fortemente per bassi numeri quantici
e in particolare nello stato fondamentale è massima per x = 0 dove classicamente è minima. In
effetti la probabilità classica essendo proporzionale al tempo di transito in una data regione di
x è inversamente proporzionale alla velocità e diverge per x → x0 dove la velocità si annulla ed
è invece minima nell’origine. In formule si ha, classicamente:

dx
Pcl (x)dx ∝ dt =
v(x)

127
e quindi, tenendo conto che in un semiperiodo T /2 = π/ω la probabilità integrata tra i turning
Rx
points deve essere uno, ovvero −x0 0 Pcl (x)dx = 1 si trova:

1 1
Pcl (x) = 1/2
π x20 − x2

mentre quantisticamente come sappiamo:

Z +∞ Z +∞
Pq (x)dx = |un (x)|2 dx = 1
−∞ −∞

ed utilizzando le espressioni esplicite per le autofunzioni dell’oscillatore armonico si può notare


che al crescere di n si manifesta sempre più evidente che la curva della probabilità quantistica
oscilla attorno alla curva classica.
Un’altra caratteristica che distingue drasticamente il caso quantistico da quello classico è il fatto
che l’energia minima ammissibile non è nulla. Questo è legato al principio di indeterminazione
e non è una caratteristica peculiare della buca armonica ma di qualunque potenziale con stati
legati. Ciò che invece è peculiare del potenziale armonico è che un calcolo approssimato fornisca
il risultato esatto per l’energia minima ammissibile. Infatti si avrà:

hp2 i 1
hEi = hHi = + khx2 i
2m 2

ma come sappiamo sugli autostati dell’oscillatore armonico hpi = hxi = 0 per cui possiamo anche
riscrivere:
(∆p)2 1
hEi = + k(∆x)2
2m 2

e quindi, utilizzando il principio di indeterminazione ∆x · ∆p ≥ ~/2:

~2 1
hEi ≥ 2
+ k(∆x)2 (2.40)
8m(∆x) 2

~
da cui, annullando la derivata rispetto a ∆x si trova che il minimo si ha per (∆x)2 = che
2mω

sostituito nella (2.40) fornisce hEimin = .
2
Sempre utilizzando anche il fatto che i valori medi di posizione e impulso su autostati dell’energia
sono nulli svolgiamo infine un calcolo dei valori medi hn|x2 |ni e hn|p2 |ni per ottenere due
risultati, uno riguardante il prodotto delle indeterminazioni (∆x) · (∆p) e di energia cinetica e
potenziale hn|T |ni e hn|V |ni su un generico autostato. Tenendo conto che:

a + a†
x = √

128

p = √ (a − a† )
2i

si ha (per x2 lo avevamo già ricavato):

1 1
hn|x2 |ni = 2
hn|a2 + a†2 + 2a† a + 1|ni = (2n + 1)
2α 2α2
~2 α2 ~2 α2
hn|p2 |ni = − hn|a2 + a†2 − aa† − a† a|ni = (2n + 1)
2 2

2n + 1
da cui (∆x) · (∆p) = ~, che restituisce, per n = 0 dove l’autofunzione è una gaussiana, il
2
valore minimo atteso ~/2. Inoltre si ottiene:

~2 α2 (2n + 1)
hn|T |ni = (2n + 1) = ~ω
4m 4
mω 2 (2n + 1)
hn|V |ni = (2n + 1) = ~ω
4α2 4

quindi l’energia si ripartisce in ugual misura tra il termine cinetico e quello di energia potenziale.

2.6.6 Oscillatore fermionico

È interessante e importante considerare l’oscillatore di Dirac, o fermionico, con l’hamiltoniana


 
1
H = ~ω a† a +
2

e con gli operatori a e a† che stavolta obbediscono a regole di anticommutazione anzichè di


commutazione, ovvero:

{a, a†} = {a† , a† } = 0

{a, a† } = {a† , a} = 1

Per gli autostati e lo spettro definiamo ancora N̂ = a† a che è evidentemente sempre un


operatore definito positivo, ovvero con autovalori non negativi. D’altra parte dalle regole di
anticommutazione si ha che
a2 = a†2 = 0

ed è quindi facile verificare che l’operatore N̂ 2 = N̂ infatti:

 
a† aa† a = a† 1 − a† a a = a† a

129
essendo, come si vede dalle regole di anticommutazione a†2 = 0 = a2 .
Quindi gli autovalori di N̂ = a† a nel caso fermionico sono 0 e 1.
Gli operatori a, a† sono ancora operatori di abbassamento e innalzamento, come si può vedere
dal commutatore [N̂ , a]. Vale la pena notare che il commutatore tra due operatori, dei quali
almeno uno bilineare in altri operatori si può esprimere in termini di anticommutatori:

[AB, C] = ABC − CAB = ABC + ACB − ACB − CAB = A{B, C} − {A, C}B

e applicando al caso [N̂ , a]:

[a† a, a] = a† {a, a} − {a† , a}a = −a

e prendendo l’hermitiana coniugata di questa equazione si trova [N̂ , a† ] = a† . Si possono quindi


ripetere passaggi e considerazioni fatte per l’oscillatore armonico standard (bosonico) trovando
che ci sono solo due stati possibili, |0i e |1i , corrispondenti agli atovalori 0 e 1 dell’operatore
numero, con lo stato fondamentale al solito definito dall’equazione a|0i = 0 e a† |0i = |1i.
Naturalmente vale anche a|1i = |0i mentre a† |1i = a†2 |0i = 0.

2.6.7 Stati coerenti dell’oscillatore armonico

Gli stati coerenti dell’oscillatore armonico sono autostati dell’operatore di distruzione, non sono
quindi autostati dell’Hamiltoniana. Vediamone alcune caratteristiche ma prima verifichiamo
∂f
preliminarmente che data una funzione f (a† ) = n cn a†n si ha [a, f (a† )] =
P
. Vediamolo fino
∂a†
al terzo ordine:

[a, c0 ] = 0
h i
a, c1 a† = c1
h i  h i h i 
†2
a, c2 a †
= c2 a a, a + a, a a† = 2c2 a†
† †
h i  h i h i   
a, c3 a†3 = c3 a† a, a†2 + a, a† a†2 = c3 2a†2 + a†2 = 3c3 a†2

e quindi " #
X X ∂f
a, cn a†n = cn (a† )n−1 =
n n
∂a†

Con quanto visto siamo in grado di verificare che lo stato


|λi = A eλa |0i

130
è autostato dell’operatore a. Infatti:
    
† † † † †
a|λi = A a eλa |0i = A a, eλa +eλa a |0i = A λe λa +e λa a |0i = λ|λi

essendo come sappiamo a|0i = 0.


Naturalmente dato che [a, a† a] = a 6= 0, lo stato |λi, che si chiama stato coerente dell’oscilla-
tore armonico, essendo autostato di a non può essere autostato simultaneamente dell’operatore
numero (e quindi dell’Hamiltoniana). La sua espansione sulla base degli autostati dell’energia
a†n
|ni = √ |0i è:
n! n
∞ ∞
X λa† X λn
|λi = A |0i = A √ |ni
n! n!
n=0 n=0

e la distribuzione di probabilità per i diversi valori di n è:


∞ 2
X λm |λ|2n 2 |λ|2n
P (n) = |hn|λi|2 = A √ hn|mi = |A|2 = e−|λ|

m! n! n!
m=0

2
essendo |A| = e−|λ| /2 come si trova dalla condizione di normalizzazione:

† (λ∗ )m (λ)n X |λ|2n 2


1 = hλ|λi = h0|A∗ eλa Aeλa |0i = |A|2 = |A|2 e|λ|
X
hm| √ √ |ni = |A|2
m,n m! n! n
n!

per cui lo stato coerente normalizzato, a meno di un fattore di fase è:

|λ|2 †
|λi = e− 2 eλa |0i

Il valor medio dell’energia su uno stato coerente è


 
~ω † ~ω 2 2 1
hλ|H|λi = + ~ωhλ|a a|λi = + ~ω |a|λi| = ~ω |λ| +
2 2 2

È interessante vedere che sugli stati coerenti il prodotto delle indeterminazioni ∆x̂ · ∆p̂ si man-
tiene costante nel tempo e uguale al minimo consentito ~/2. Per questo calcoliamo prima
l’evoluzione temporale dello stato |λi:

i
Ht−
|λi(t) = e ~ |λi
i
− Ht X |λ|2 λn
= e ~ e− 2 √ |ni
n n!

131
ωt
|λ|2 −i X e−iωtn λn

= e 2 e 2 √ |ni
n n!
 n
ωt −iωt a†n
|λ|2 −i X λe
= e− 2 e 2 |0i
n
n!
ωt
−i |λ|2 †
= e 2 e− 2 eλ(t)a |0i

= e−iωt/2 |λ(t)i (2.41)

ossia resta uno stato coerente con λ → λ(t) = λ e−iωt .


Calcoliamo quindi hx̂(t)i a un tempo generico:

2 a + a†
hλ(t)|x̂|λ(t)i = e−iωt/2 hλ(t)| √ |λ(t)i


2 Re λe−iωt

= √


2
= λR (t) (2.42)
α

essendo λR (t), λI (t) le parti reale e immaginaria di λ(t).


Con calcoli analoghi si trova il valor medio nell’impulso:


hλ(t)|p̂|λ(t)i = √ hλ(t)|a − a† |λ(t)i
2i

= √ 2 Im λe−iωt

2

= 2~αλI (t) (2.43)

Per le indeterminazioni servono anche i valori medi di xˆ2 e pˆ2 :

1
hλ(t)|xˆ2 |λ(t)i = hλ(t)|a†2 + a2 + 2a† a + 1|λ(t)i
2α2
1  ∗2
λ (t) + λ2 (t) + 2|λ(t)|2 + 1

= 2

1  2 2 2 2

= 2λ R (t) − 2λ I (t) + 2λR (t) + 2λ I (t) + 1
2α2
2λ2R (t) 1
= 2
+ 2
α 2α

e quindi
1
∆x̂(t) = √

132
Per l’impulso si trova:

~2 α2
hλ(t)|pˆ2 |λ(t)i = hλ(t)|2a† a + 1 − a2 − a†2 |λ(t)i
2
~2 α2 
2|λ(t)|2 + 1 − λ2 (t) − λ∗2 (t)

=
2
~2 α2  2
2λR (t) + 2λ2I (t) + 1 − 2λ2R (t) + 2λ2I (t)

=
2
~2 α2
= 2~2 α2 λ2I (t) +
2

e quindi

∆p̂(t) = √
2
In definitiva:
~
∆x̂(t) · ∆p̂(t) =
2

e notiamo che il risultato non dipende da λ(t) ovvero è indipendente dal tempo quindi lo stato
(pacchetto) coerente oscilla nel tempo mantenendo sempre il minimo prodotto delle indetermi-
nazioni tra x̂ e p̂.
Riprendendo le soluzioni per i valori medi in eq.(2.42),(2.43) si vede che possono essere riscritte:

2
hx̂i(t) = [λR cos(ωt) + λI sin(ωt)]
α
hp̂i0
= hx̂i0 cos(ωt) + sin(ωt)


hp̂i(t) = 2~α [λI cos(ωt) − λR sin(ωt)]

= hp̂i0 cos(ωt) − mωhx̂i0 sin(ωt)

che sono le soluzioni calssiche per un moto armonico (sostituendo ai valori medi le variabili
dinamiche x, p). In questo senso gli stati coerenti “somigliano” a quelli classici. Notiamo infine
che gli stati coerenti, benchè normalizzati, non sono un set ortonormale in quanto non sono tra
loro ortogonali. La cosa non deve sorprendere essendo autostati di un operatore non hermitiano:

0
0 0 2 /2 2 /2
X λ ∗m λn
hλ |λi = e−|λ | e−|λ| hm| √ √ |ni
m,n m! n!
 0 n
0 2 +|λ|2 X λλ ∗
= e−(|λ | )/2
n
n!
0∗ 0 2 +|λ|2
= eλλ e−(|λ | )/2 (2.44)

133
Sono un set sovracompleto.

134
Capitolo 3

Passaggio a più dimensioni e/o più


gradi di libertà (Postulato V)

3.1 Prodotto tensoriale di spazi vettoriali

Siano dati due spazi vettoriali V1 , V2 di dimensioni N1 , N2 . Il prodotto tensoriale dei due spazi
si denota con V1 ⊗ V2 e ha dimensione N = N1 · N2 . Se |v1 i ∈ V1 ; |v2 i ∈ V2 −→ |v1 i ⊗ |v2 i ∈
V1 ⊗ V2 .
Per convenzione il vettore “1” sta a sinistra e il “2” a destra e l’operazione è bilineare ovvero:

 
α|v1 i + α0 |v10 i ⊗ |v2 i = α|v1 i ⊗ |v2 i + α0 |v10 i ⊗ |v2 i
 
|v1 i ⊗ β|v2 i + β 0 |v20 i = |v1 i ⊗ β|v2 i + |v1 i ⊗ β 0 |v20 i

∀ α, α0 , β, β 0 ∈ C (3.1)

L’elemento nullo di ognuno degli spazi presenti nello spazio prodotto diretto mappa qualunque
vettore nel vettore nullo dello spazio prodotto:

0 ⊗ |v2 i = |v1 i ⊗ 0 = 0

Per spazi con prodotto interno la regola per il prodotto interno dello spazio prodotto è:

   
hv1 | ⊗ hv2 | · |w1 i ⊗ |w2 i = hv1 |w1 ihv2 |w2 i

135
Una base ortonormale per ciascuno dei due spazi: |ei1 i ∈ V1 ; |ei2 i ∈ V2 fornisce una base
ortonormale ∈ V1 ⊗ V2 :

|Ei1 ,i2 i = |ei1 i ⊗ |ei2 i

hEi1 ,i2 |Ei0 1 ,i0 2 i = δi1 ,i0 1 δi2 ,i0 2 (3.2)

Tuttavia non tutti i vettori dello spazio prodotto sono esprimibili come prodotto di due vettori
appartenenti uno a V1 e l’altro a V2 . Questi sono gli stati entangled. Un esempio semplice:

|ψi = |v1 i ⊗ |v2 i + |w1 i ⊗ |w2 i

che chiaramente appartiene a V1 ⊗ V2 perchè può essere espanso sulla base |Ei1 ,i2 i:

X 
|ψi = vi1 vi2 + wi1 wi2 |ei1 i ⊗ |ei2 i
i1 ,i2

ma non può essere espresso come prodotto di un vettore di V1 per uno di V2 ovvero nella forma
P  P 
i1 vi1 |ei1 i ⊗ i2 vi2 |ei2 i .

In termini di basi assegnate in V1 e V2 i vettori possono essere rappresentati da colonne (o righe


per i bra). Prendiamo ad esempio N1 = 2, N2 = 3, allora:
 
  w1
v1  
|v1 i ∈ V1 ↔  ; |w2 i ∈ V2 ↔  w2 
  
v2  
w3

Allora:  
v 1 w1
 
v 1 w2 
   

  w1  
v1 v 1 w3 
   

|v1 i ⊗ |w2 i ↔  ⊗ w2  = 
 
  
v2    v 2 w1 
w3 




 v 2 w2 

v 2 w3

Operatori che agiscono negli spazi V1 , V2 e agiscono su |ai ∈ V1 e |bi ∈ V2 hanno generalizzazione
diretta nello spazio prodotto. Come esempio: Â ∈ V1 −→ Â|ai = |a0 i è generalizzato da:

 
 ⊗ I −→  ⊗ I |ai ⊗ |bi = |a0 i ⊗ |bi

136
Similmente per B̂ ∈ V2 −→ B̂|bi = |b0 i varrà:

 
I ⊗ B̂ −→ I ⊗ B̂ |ai ⊗ |bi = |ai ⊗ |b0 i

L’azione su stati più generali è ovvia:

  
 ⊗ B̂ λ|ci ⊗ |di + µ|ei ⊗ |f i = λ|c0 i ⊗ |d0 i + µ|e0 i ⊗ |f 0 i

La rappresentazione matriciale del prodotto tensoriale di operatori può essere ottenuta in modo
diretto come:

X  X 
 ⊗ B̂ = |ei1 ihei1 |Â|ej1 ihej1 | ⊗ |ei2 ihei2 |B̂|ej2 ihej2 |
i1 ,j1 i2 ,j2
X
= |ei1 iAi1 j1 hej1 | ⊗ |ei2 iBi2 j2 hej2 |
i1 ,j1 ,i2 ,j2
X
= |Ei1 i2 iAi1 j1 Bi2 j2 hEi2 j2 |
i1 ,j1 ,i2 ,j2

Oppure se Ĉ = Â ⊗ B̂ −→ Ci1 i2 j1 j2 = Ai1 j1 Bi2 j2 .


Ad esempio prendiamo il prodotto tensoriale di due operatori di spin:
   
~2  0 1   0 1
S1x ⊗ S2x = ⊗ 
4 1 0 1 0
     
0 1 0 1
 0  1  
2 1 0 1 0
 
~  
=     
4  0 1 0 1


 1  0  
1 0 1 0
 
0 0 0 1
 
2
~  0 0 1 0 
 

=  (3.3)
4  0 1 0 0 

 
1 0 0 0

Spesso il simbolo ⊗ verrà omesso e scriveremo solo |ai|bi o anche più spesso |a, bi. Però
dovremo distinguere nella nostra mente a seconda del contesto se sono indici che si riferiscono
ad osservabili di un set massimale nello stesso spazio o in spazi diversi. È comunque chiaro
che operatori che agiscono in un uno spazio dello spazio prodotto commutano con qualunque
operatore agisca in un altro spazio dello stesso spazio prodotto. Come detto incontreremo il
~ insieme a quello di spin
prodotto tensoriale quando tratteremo il momento angolare orbitale L

137
~ oppure a proposito di sistemi di particelle identiche. Adesso a noi serve per introdurre lo
S
spazio |~xi degli autostati generalizzati dell’operatore x̂. Un operatore tipo V (x̂) dovrebbe a
rigore essere scritto come V (x̂) ⊗ Iy ⊗ Iz ma dal punto di vista pratico lo daremo per scon-
tato. Gli autostati simultanei di x̂, ŷ, ẑ stanno nello spazio prodotto diretto e sono del tipo
|~xi = |xi ⊗ |yi ⊗ |zi = |xi|yi|zi = |x, y, zi.
Come detto, per alleggerire il formalismo, ometteremo quasi sempre il simbolo ⊗ del prodot-
to tensoriale in particolare nel passaggio a più dimensioni spaziali e nel caso di Hamiltoniane
separabili in R3 , nella base |~xi invece di scrivere H = Hx ⊗ Iy ⊗ Iz + Ix ⊗ Hy ⊗ Iz scriveremo
semplicemente H = Hx + Hy + Hz . In questo caso, o riconducibile a questo con trasformazio-
ni unitarie, con i vari termini che commutano tra loro, gli autovalori saranno la somma degli
autovalori e gli autostati (e le autofunzioni) il prodotto degli autostati (o delle autofunzioni) di
singola dimensione.
Vedremo anche come questo si accorda con le proprietà delle soluzioni delle equazioni differen-
ziali a variabili separabili.

3.2 Generalizzazione a più dimensioni e più gradi di libertà

Il formalismo che abbiamo introdotto e utilizzato fino ad ora è sufficiente per trattare problemi
di una particella in un potenziale assegnato in una dimensione.
Dobbiamo adesso generalizzare il formalismo a una particella in due o tre dimensioni e anche per
applicazioni future a più di una particella in più dimensioni. In tutti questi casi il formalismo
va appunto generalizzato e lo spazio di Hilbert complessivo va visto quale è di volta in volta.
In pratica va introdotto quanto serve per trattare spazi di Hilbert che sono prodotto diretto
(tensoriale) di spazi riferentesi a gradi di libertà distinti, come ci dice il postulato V:

“Lo spazio di un sistema composto da più sistemi è il prodotto tensoriale degli spazi dei
singoli sistemi componenti. Se abbiamo n sistemi e l’i-esimo sistema è preparato nello stato
|ψi i, allora il sistema totale è nello stato |ψ1 i ⊗ |ψ2 i ⊗ .... ⊗ |ψn i ”.

In realtà tratteremo più avanti sistemi composti, per adesso vogliamo generalizzare problemi
affrontati in una dimensione al caso di due e tre dimensioni, ma formalmente la questione è
analoga, se siamo in presenza di Hamiltoniane separabili, ovvero somma di Hamiltoniane relative
a una dimensione, o riducibili a questo caso, e commutanti tra loro. Per questo sottolineiamo
che in più dimensioni si hanno le regole di commutazione tra gli operatori posizione e impulso

138
nelle varie dimensioni:
[x̂i , x̂j ] = [p̂i , p̂j ] = 0

[x̂i , p̂j ] = i~ δij

Per esemplificare partiamo dalla generalizzazione più semplice, ovvero dalla particella libera in
due dimensioni dove avremo:
p̂2x p̂2y
H = +
2m 2m

con H = Hx + Hy e [Hx , Hy ] = 0 (formalmente non sarebbe cambiato niente considerando due


particelle libere ciascuna in 1d).
∂ ∂
È evidente che si avrà: hx|p̂x |x0 i = −i~ δ(x − x0 ) e anche hy|p̂y |y 0 i = −i~ δ(y − y 0 ) e
∂x ∂y
l’equazione agli autovalori per l’energia sarà:

H|ψi = E|ψi −→
~2 ∂2 ∂2
 
−→ − + ψ(x, y) = E ψ(x, y)
2m ∂x2 ∂y 2

Ovvero, e di qui in avanti generalizziamo direttamente con estensione ovvia a tre dimensioni:

~2 ~ 2
− ∇ ψ(~x) = E ψ(~x) (3.4)
2m

Le soluzioni di particella libera le conosciamo ed è evidente che in questo caso diventano il


prodotto delle soluzioni 1d, ovvero:

i
1 − p~ · ~x
ψ(~x) = p e ~ = ψpx (x) · ψpy (y) · ψpz (z)
(2π~)3

p~ 2
Cosı̀ come è evidente che l’energia è la somma delle energie in ciascuna direzione, ovvero gli
2m
autovalori sono la somma degli autovalori.
Come si formalizza nell’ambito del formalismo introdotto? Siamo in presenza di quanto visto
precedentemente per cui avremmo dovuto scrivere H = Hx ⊗ Iy ⊗ Iz + Ix ⊗ Hy ⊗ Iz + Ix ⊗ Iy ⊗ Hz
e per l’equazione agli autovalori:

 
Hx ⊗ Iy ⊗ Iz + Ix ⊗ Hy ⊗ Iz + Ix ⊗ Iy ⊗ Hz |Ex i ⊗ |Ey i ⊗ |Ez i = E |Ex i ⊗ |Ey i ⊗ |Ez i

con E = Ex + Ey + Ez che naturalmente risolve l’equazione.

139
La proiezione sulla base |~xi = |xi ⊗ |yi ⊗ |zi fornisce infatti:

 
hx|⊗hy|⊗hz| Hx ⊗Iy ⊗Iz +Ix ⊗Hy ⊗Iz +Ix ⊗Iy ⊗Hz |Ex i⊗|Ey i⊗|Ez i = E hx|Ex ihy|Ey ihz|Ez i

dalla quale si arriva a riscrivere l’eq.(3.4)

~2 ~ 2
− ∇ ψE (~x) = E ψE (~x)
2m
  
essendo chiaramente ψE (~x) = hx| ⊗ hy| ⊗ hz| |Ex i ⊗ |Ey i ⊗ |Ez i = hx|Ex ihy|Ey ihz|Ez i
e usando tutte le proprietà imparate in 1d a esempio:

h~x|~x0 i = δ(~x − ~x0 ) = δ(x − x0 ) · δ(y − y 0 ) · δ(z − z 0 )

o la completezza:
Z Z Z Z
d3 x|~xih~x| = dx|xihx| dy|yihy| dz|zihz| = I

Similmente l’interpretazione del modulo quadro della funzione d’onda sarà che |ψ(~x)|2 d3 x è la
probabilità di trovare la particella in un elemento di volume tra x e x + dx, y e y + dy, z e z + dz
eccetera. Con questo in mente merita alleggerire il formalismo e scrivere direttamente a esempio
H = Hx + Hy + Hz , ed evitare di usare il simbolo di prodotto tensoriale. Una volta sulla base
|~xi avremo equazioni differenziali per ψ(~x) a variabili separabili per cui le soluzioni saranno il
prodotto delle soluzioni di singola dimensione e gli autovalori la somma degli autovalori. Il caso
interagente è formalmente analogo e per il momento non serve aggiungere altro.

3.3 Problemi di stati legati in due dimensioni

Vediamo di seguito applicazioni a stati legati in due dimensioni

3.3.1 Oscillatore isotropo in due dimensioni

L’Hamiltoniana è:
p2x p2y 1 1
H = + + kx2 + ky 2
2m 2m 2 2

il problema formalmente è uguale a quello di due oscillatori disaccoppiati in una dimensione


p
con la stessa frequenza propria ω = k/m. La soluzione è quindi data per gli autovalori dalla
somma degli autovalori e per gli autostati dal prodotto tensoriale degli autostati e quindi per le

140
autofunzioni dal prodotto delle autofunzioni:

Enx ,ny ≡ E~n = ~ω (nx + ny + 1) ; nx , ny = 0, 1, 2, 3, ...

α2 2
(x + y 2 )

u~n (x, y) = unx (αx)uny (αy) = Nnx Nny Hnx (αx)Hny (αy) e 2

p
(con al solito α = mω/~).
Naturalmente il problema può essere risolto per via algebrica sulla base dell’energia ovvero dei
numeri di occupazione N̂x = a† a, N̂y = b† b, legati a x̂, ŷ dalle relazioni

a + a† b + b†
x̂ = √ ; ŷ = √
2α 2α

e chiaramente con [b, b] = [b† , b† ] = 0 e [b, b† ] = 1 come per gli operatori a, a† . In questa base
naturalmente gli autostati saranno espressi come:

|nx i ⊗ |ny i ≡ |~ni ≡ |nx , ny i ≡ |nx i|ny i

(come detto il simbolo di prodotto tensoriale sarà generalmente evitato per non appesantire il
formalismo). Ogni operatore numero agisce nel suo spazio:

N̂x |nx , ny i = nx |nx , ny i

N̂y |nx , ny i = ny |nx , ny i

Diversamente dal caso unidimensionale in questo caso si ha una degenerazione dei livelli uguale
a nx + ny + 1. Infatti il livello fondamentale E0,0 è non degenere, corrispondendo solo allo stato
|0, 0i, il primo livello eccitato E1,0 = E0,1 è doppiamente degenere corrispondendo agli stati |1, 0i
e |0, 1i e cosı̀ via.

3.3.2 Forma quadratica in due dimensioni

Facciamo l’esempio di una forma quadratica in due dimensioni, facendo comunque il caso più
semplice, ovvero consideriamo l’Hamiltoniana

p2x p2y 1 1
H = + + kx2 + ky 2 + cxy
2m 2m 2 2

141
che non è somma di due Hamiltoniane commutanti, ma che come ormai sappiamo può essere
ricondotta a quel caso introducendo nuove coordinate. Introdurre infatti

x+y x−y
ξ= √ ; η= √
2 2

è equivalente a diagonalizzare la matrice associata alla forma quadratica e va sottolineato anche


che questa trasformazione ortogonale lascia diagonale anche il termine di energia cinetica espresso
in termini delle nuove variabili di impulso associate a ξ, η. In termini delle nuove coordinate
l’Hamiltoniana assume la forma

p2ξ p2η 1 1
H= + + (k + c) ξ 2 + (k − c) η 2
2m 2m 2 2
p
e corrisponde a due oscillatori disaccoppiati con pulsazioni ω± = (k ± c)/m.
È quindi immediato scrivere gli autovalori:
   
1 1
En+ ,n− = ~ω+ n+ + + ~ω− n− + (3.5)
2 2

e gli autostati |n+ , n− i. Si capisce quindi che (salvo valori particolari di k, c) la degenerazione
è completamente rimossa rispetto al caso isotropo, non essendoci in generale due stati con la
stessa energia.

142
Capitolo 4

Teoria delle perturbazioni stazionarie

L’equazione di Schroedinger è esattamente risolubile solo in un numero limitato di casi al di fuori


dei quali si cerca di risolverla con metodi numerici o si cercano soluzioni approssimate con metodi
analitici. Uno di questi ultimi è il metodo perturbativo, che si applica in presenza di un’Hamilto-
niana detta appunto di perturbazione che viene aggiunta a un termine imperturbato del quale
si conosce la soluzione. Il termine perturbazione naturalmente è giustificato (consideriamo il
caso di spettro discreto) se la struttura dei livelli energetici dell’Hamiltoniana imperturbata non
viene pesantemente alterata dalla perturbazione. Fisicamente, dato che i processi sono legati
a scambi energetici, questo significa che l’approccio è giustificato se le correzioni dovute alla
perturbazione sono piccole rispetto alle separazioni dei livelli imperturbati. In queste condizioni
si scrive l’Hamiltoniana complessiva
H = H0 + H1

e si dice che l’Hamiltoniana di perturbazione H1 è “piccola” rispetto ad H0 .


In questa sezione ci occupiamo di discutere la trattazione perturbativa nel caso di Hamiltoniane
indipendenti dal tempo, il caso stazionario. Ricaveremo le correzioni ai livelli imperturbati e
agli autostati nel caso sia di livello non degenere che di livello degenere agli ordini più bassi.
Partiamo dal caso non degenere.

4.1 Caso non degenere

Partiamo dal caso di spettro imperturbato non degenere e scriviamo l’Hamiltoniana complessiva

H = H0 + λ H1

143
avendo introdotto λ da utilizzare per eseguire uno sviluppo in serie di potenze e riconoscere
i termini dello stesso ordine. Alla fine del procedimento si porrà λ = 1 e supponiamo che
sussistano le condizioni per la convergenza della serie.
Consideriamo quindi l’equazione agli autovalori per l’Hamiltoniana totale H

H|un i = En |un i (4.1)

e supponiamo che autostati e autovalori siano sviluppabili in serie di potenze di λ:


X
|un i = λi |un(i) i
i=0

X
En = λj En(j) (4.2)
j=0

Inserendo gli sviluppi nell’eq.(4.1) si ha:


X ∞
X
i
(H0 + λ H1 ) λ |un(i) i = λi+j En(j) |un(i) i (4.3)
i=0 i,j=0

Una ipotesi di partenza è di conoscere le soluzioni di ordine zero

H0 |u(0) (0) (0)


n i = En |un i

Al primo ordine in λ si ottiene:

H0 |u(1) (0) (1) (0) (0) (1)


n i + H1 |un i = En |un i + En |un i (4.4)

(0)
Proiettando su hun | si determina la correzione al primo ordine del livello n, infatti:

hu(0) (1) (0) (0) (1) (0) (0) (0) (0) (1)
n |H0 |un i + hun |H1 |un i = En hun |un i + En hun |un i

Utilizzando l’equazione agli autovalori all’ordine zero si vede subito che il primo termine del
membro di sinistra si elide con il secondo termine del membro a destra e quindi:

En(1) = hu(0) (0)


n |H1 |un i (4.5)

144
(0) (1)
Notiamo anche che a questo passaggio resta indeterminata la proiezione hun |un i.
(0)
Proiettando l’eq.(4.4) su hum | con m 6= n si ottiene:

hu(0) (1) (0) (0) (1) (0) (0) (0) (0) (1)
m |H0 |un i + hum |H1 |un i = En hum |un i + En hum |un i

ovvero, usando l’equazione agli autovalori e l’ortogonalità degli stati con m 6= n di ordine zero:

(0) (0)
hum |H1 |un i
hu(0) (1)
m |un i = (0) (0)
(4.6)
En − Em

che sono i coefficienti che permettono di calcolare la correzione agli autostati al primo ordine.
Infatti usando la completezza della base di ordine zero si può scrivere, per la correzione allo
stato:
X
|u(1)
n i = |u(0) (0) (1)
m ihum |un i
m

(0) (1)
Resta da determinare hun |un i. A questo scopo imponiamo la condizione di normalizzazione
al primo ordine ovvero non della correzione ma dello stato al primo ordine, ovvero considerando
i primi due termini della serie in eq.(4.2):

  
1 = hu(0)
n | + λ hu(1)
n | |u(0)
n i + λ |u(1)
n i
 
= 1 + λ hu(0) (1) (1) (0)
+ O λ2

n |un i + hun |un i (4.7)

e quindi al primo ordine in λ la condizione di normalizzazione è soddisfatta se:

hu(0) (1) (1) (0)


n |un i = −hun |un i

(0) (1)
ovvero se hun |un i = iη ; η ∈ R ovvero se è una quantità puramente immaginaria. Quindi
al primo ordine avremo:

|un i = |u(0) (1)


n i + λ |un i
X
= |u(0) (0) (0) (1)
n i + λ |un ihun |un i + λ |u(0) (0) (1)
m ihum |un i
m6=n
X
= |u(0)
n i (1 + iλη) + λ |u(0) (0) (1)
m ihum |un i
m6=n

e quindi notiamo che ridefinendo la fase dello stato ovvero moltiplicandolo per e−iλ il coefficiente
dipendente da η si annulla consistentemente al primo ordine in λ e ponendo alla fine λ = 1 si

145
può scrivere la soluzione perturbativa per gli autostati al primo ordine:

(0) (0)
X hum |H1 |un i
|un i = |u(0)
n i + |u(0)
m i (0) (0)
(4.8)
m6=n En − Em

Notiamo anche che in questo modo la correzione del primo ordine è ortogonale all’autostato
(0) (1)
imperturbato ovvero hun |un i = 0.
Per la correzione agli stati ci fermiamo qui, rimandando ad altri testi per le correzioni di ordine
superiore, mentre ricaviamo adesso anche le correzioni del secondo ordine per i livelli energetici.
Riprendendo l’eq.(4.3) si scrivono i termini del secondo ordine in λ:

H0 |u(2) (1) (2) (0) (1) (1) (0) (2)


n i + H1 |un i = En |un i + En |un i + En |un i

(0)
e proiettandola su hun |, utizzando l’equazione agli autovalori di ordine zero e utilizzando il
(0) (1)
risultato trovato hun |un i = 0, si ricava subito la correzione del secondo ordine:

En(2) = hu(0) (1)


n |H1 |un i

che usando la correzione degli stati al primo ordine dalla (4.8) si può riscrivere:

X hu(0) (0) (0) (0)


n |H1 |um ihum |H1 |un i
En(2) = (0) (0)
m6=n En − Em
(0) 2

(0)
hu
X n |H |u
1 m i
= (0) (0)
(4.9)
m6=n En − Em

e quindi i livelli al secondo ordine saranno:

En = En(0) + En(1) + En(2)


(0) 2

(0)
X hun |H1 |um i
= En(0) + hu(0) (0)
n |H1 |un i + (0) (0)
m6=n En − Em

Per terminare facciamo due osservazioni. La prima è che guardando a esempio all’espressio-
ne della correzione degli autostati al primo ordine e richiedendo consistemente all’approccio
(1) (0)
perturbativo che sia |un i  |un i si trova che deve valere

hu(0) |H |u(0) i
m 1 n
(0) (0)
 1 (4.10)
En − Em

146
ovvero, riagganciandoci a quanto detto a inizio sezione, l’espansione perturbativa è giustificata
se gli elementi di matrice dell’Hamiltoniana di perturbazione sono piccoli rispetto alla separa-
zione tra i livelli impertubati.
La seconda osservazione riguarda la correzione ai livelli energetici del secondo ordine che riscri-
viamo per comodità nella forma

X hu(0) (0) (0) (0)


n |H1 |um ihum |H1 |un i
En(2) = (0) (0)
m6=n En − Em

e notiamo intanto che se il denominatore non dipendesse dall’indice m, sommando e sottraendo


il termine con m = n e usando la completezza, il risultato sarebbe proporzionale all’incertezza
(0)
quadratica di H1 sull’autostato imperturbato |un i. Questo suggerisce anche che in casi speciali
si possano eliminare i denominatori della serie e quindi risommarla trovando un operatore Ω tale
che [Ω, H0 ] = H1 . Infatti in questo caso si avrebbe:

X hu(0) (0) (0) (0)


n |H1 |um ihum |ΩH0 − H0 Ω|un i
En(2) = (0) (0)
m6=n En − Em
X
= hu(0) (0) (0) (0)
n |H1 |um ihum |Ω|un i
m6=n

= hu(0) (0) (0) (0) (0) (0)


n |H1 Ω|un i − hun |H1 |un ihun |Ω|un i (4.11)

4.2 Caso degenere

Passiamo al caso di spettro discreto con livelli imperturbati degeneri. Ricordiamo prima di tutto
che in presenza di degenerazione la base degli autostati dell’Hamiltoniana imperturbata H0 non
è univocamente determinata nel senso che nel sottospazio degenere qualunque base ortonormale
diagonalizza H0 che in quel sottospazio è proporzionale all’identità. Se l’Hamiltoniana di per-
turbazione H1 commuta con H0 esiste una base simultanea che le diagonalizza entrambe e se
lo spettro di H1 non è degenere una sua base di autostati ortonormali diagonalizza anche H0
rimuovendo anche la degenerazione e quindi in questo caso si cerca di risolvere esattamente il
problema piuttosto che utilizzare l’approccio perturbativo (che può essere comunque usato). Più
in generale H1 non commuterà con H0 . Tuttavia, come si capisce rappresentando i due ope-
ratori come matrici su una base di autostati di H0 , le due matrici commuteranno sicuramente
nel sottospazio degenere (essendo appunto H0 proporzionale all’identità in tale sottospazio). Di
conseguenza il problema si risolve nel cercare una trasformazione unitaria che diagonalizzi H1
nel sottospazio degenere.
Notiamo comunque intanto che nel caso di livello degenere la condizione di validità dell’approccio

147
perturbativo cosı̀ come l’avevamo scritta nella (4.10) non può essere soddisfatta a causa dell’an-
nullarsi del denominatore mentre il numeratore in generale (a meno che H1 non sia già diagonale
nel sottospazio degenere) non si annullerà. Introduciamo quindi un indice di degenerazione del
livello α = 1, 2, ..., d dove appunto d è la degenerazione e riscriviamo l’equazione agli autovalori
di ordine zero:
H0 |u(0) (0) (0)
n , αi = En |un , αi ; α = 1, 2, ..., d (4.12)

e ribadiamo che la base in questo sottospazio di dimensione d è solo una delle possibili basi
accettabili. Considerando l’Hamiltoniana completa H = H0 + λ H1 (con al solito λ = 1
alla fine del procedimento) potremo avere una serie di possibilità. La più banale è il caso nel
quale anche H1 sia proporzionale all’identità nel sottospazio degenere. In questo caso la base
di ordine zero resta indeterminata e gli autovalori resteranno degeneri anche se subiranno un
spostamento a causa della perturbazione. Un altro caso semplice è quello nel quale la base
di ordine zero diagonalizza ancora H1 che però non ha tutti i d autovalori uguali. In questo
caso la degenerazione è in parte rimossa ed è completamente rimossa se tutti i d autovalori
di H1 sono distinti. Più in generale si dovrà diagonalizzare come detto H1 nel sottospazio
degenere determinando le correzioni al livello energetico al primo ordine e la base di ordine zero
che diagonalizza sia H0 che H1 (sempre beninteso nel sottospazio degenere di H0 ). In queste
condizioni la degenerazione sarà rimossa in parte o completamente a seconda della molteplicità
degli autovalori di H1 . Per il caso degenere ci fermiamo qui, rimandando ad altre fonti per
approfondimenti, anche se la sostanza è stata qui esposta.
Per mettere un pò in formule quanto detto, consideriamo l’identità (ricordiamo che 0 ≤ λ ≤ 1 e
che alla fine λ = 1):

hu(0) (0) (0) (0)


n,α |λH1 |un,β i = hun,α |H − H0 |un,β i = (En,β − En )hun,α |un,β i (4.13)

Essendo la differenza tra gli autovalori nel membro a destra della precedente equazione
(0) (1)
En − En = λEn + O(λ2 ), per avere il risultato al primo ordine in λ è sufficiente considerare
gli stati descritti dai ket nella precedente equazione all’ordine zero. Tuttavia, a causa della
degenerazione, per questi si può solo affermare che saranno dati in generale da una combinazione
lineare degli stati nel sottospazio degenere, ovvero:

X X
lim |un,β i = |u(0) (0)
n,γ ihun,γ |un,β i = aγβ |u(0)
n,γ i
H1 →0
γ γ

148
e quindi al primo ordine in λ l’eq. (4.13) diventa:

X X
hu(0) (0)
n,α |H1 |un,γ iaγβ = En(1) hu(0) (0)
n,α |un,γ iaγβ
γ γ

ossia, data l’ortonormalità degli stati nel sottospazio degenere:

X 
hu(0)
n,α |H |u(0)
1 n,γ i − E (1)
n αγ aγβ = 0
δ
γ

che per non avere la soluzione banale equivale a risolvere l’equazione agli autovalori e alla
diagonalizzazione della matrice di perturbazione nel sottospazio degenere.
Notiamo che se andiamo a riconsiderare la condizione di validità dell’approccio perturbativo che
avevamo trovato dallo studio del caso non degenere al primo ordine, eq.(4.10), passando al caso
degenere notiamo che dopo avere diagonalizzato H1 nel sottospazio degenere gli elementi fuori
diagonale si annullano insieme ai denominatori e quindi l’espressione non è più divergente anche
nel caso degenere.

4.3 Applicazioni

Per vedere un esempio sia di caso non degenere che degenere, procediamo con un esempio
semplice, che è il caso della forma quadratica in due dimensioni trattata alla fine del capitolo
precedente. Questo è un esempio istruttivo perchè come abbiamo visto il problema si risolve
esattamente e si può quindi verificare, oltre al funzionamento dell’approccio perturbativo, come
questo corrisponda semplicemente a uno sviluppo in serie.
Riconsideriamo quindi

p2x + p2y 1
H = H0 + H1 = + k(x2 + y 2 ) + cxy
2m 2

con c  k e il termine cxy che rappresenta quindi la perturbazione H1 .


Cerchiamo quindi ad esempio la correzione al primo e secondo ordine dell’energia del livello
fondamentale. In questo caso il livello non è degenere e avremo che la correzione del primo
ordine è data dalla formula in eq.(4.5), riscrivendola per l’autostato del livello fondamentale
(1) (1)
ovvero |0i ⊗ |0i ≡ |0, 0i e rinominando En ≡ ∆En per sottolineare che è una correzione
all’energia che si aggiunge a quella di ordine zero. Scriviamo quindi:

(1)
∆E0,0 = h0, 0|cxy|0, 0i = c h0|x|0ih0|y|0i

149
(ricordiamo come visto all’inizio del capitolo precedente che ogni operatore agisce nel suo spazio).
Manifestamente la correzione del primo ordine all’energia è nulla in quanto lo sono entrambi i
fattori, come si può facilmente vedere ricorrendo ad argomenti di parità, ma anche ad esempio
al fatto che l’operatore posizione non ha elementi diagonali essendo lineare negli operatori di
salita e discesa. Si deve quindi andare al secondo ordine dove va utilizzata la formula (4.9) che
adattata al caso attuale si scrive:

(2)
X |h0, 0|cxy|nx , ny i|2
∆E0,0 = (0) (0)
nx ,ny 6=0,0 E0,0 − Enx ,ny
X |h0|x|nx ih0|y|ny i|2
= c2 (0) (0)
nx ,ny 6=0,0 E0,0 − Enx ,ny

da cui si vede, riprendendo quanto visto nella trattazione algebrica dell’oscillatore armonico e
pagine seguenti, che contribuisce solo il termine con nx = 1, ny = 1 per il quale si trova facilmente
che l’elemento di matrice
1
h0|x|1ih0|y|1i =
2α2

mentre
(0) (0)
E0,0 − E1,1 = −2~ω

per cui
(2) c2 c2 ~
∆E0,0 = − = − (4.14)
8~ωα4 8m2 ω 3
r
k±c
Se adesso prendiamo la formula esatta per i livelli energetici (3.5) con ω± = troviamo
m
che l’energia dello stato fondamentale esatta è:
r r !
~ ~ k+c k−c
E0,0 = (ω+ + ω− ) = +
2 2 m m

Questa, sviluppata in serie di potenze di c/k, fornisce: il giusto risultato ~ω all’ordine zero,
il primo ordine nullo e il secondo ordine coincidente (come deve essere) con il risultato (4.14)
ottenuto con la teoria perturbativa.
Come applicazione del caso degenere cerchiamo la correzione al primo livello eccitato, che come
sappiamo è doppiamente degenere. Calcoliamo quindi gli elementi di matrice dell’Hamiltoniana
di perturbazione (H1 )αβ con α, β = 1, 2 che numerano gli stati degeneri |1, 0i e |0, 1i. Si ha
quindi:  
h1, 0|H1 |1, 0i h1, 0|H1 |0, 1i
(H1 )αβ =  
h0, 1|H1 |1, 0i h0, 1|H1 |0, 1i

150
Dato che, come abbiamo già visto, x e y non hanno elementi diagonali, i termini diagonali
sono nulli, mentre:
c
h1, 0|cxy|0, 1i = c h1|x|0i h0|y|1i =
2α2
ax + a†x ay + a†y
come si ricava facilmente da x = √ ; y = √ . Il termine simmetrico rispetto
2α 2α
alla diagonale è ovviamente uguale essendo H1 un operatore hermitiano.
 Quindi la matrice ha

c 1 1
autovalori λ± = ± 2
con autovettori rispettivamente v± = √   e quindi la base di
2α 2 ±1
ordine zero che diagonalizza simultaneamente H0 e H1 nel sottospazio degenere del primo livello
eccitato dell’oscillatore imperturbato è:

|1, 0i + |0, 1i c
√ con autovalore 2~ω +
2 2α2
|1, 0i − |0, 1i c
√ con autovalore 2~ω − 2
2 2α

e la degenerazione è completamente rimossa.

Perturbazione in x3 per un oscillatore unidimensionale

Vediamo ancora un altro esercizio, aggiungendo una perturbazione V1 = γx3 all’hamiltoniana


H0 di un oscillatore armonico unidimensionale. Supponendo γ piccolo in modo da giustificare
l’approccio perturbativo, si determini la correzione al primo ordine in γ ai livelli imperturbati e
la correzione al secondo ordine al livello fondamentale

Soluzione
La correzione del primo ordine ai livelli è:

∆En(1) = hn|V1 |ni = γhn|x3 |ni = 0

non avendo x3 elementi diagonali, come già visto.


Al secondo ordine si ha, per il livello fondamentale:

(2)
X |h0|V1 |ni|2 X |h0|x3 |ni|2
∆E0 = (0) (0)
= γ2 (0) (0)
n6=0 E0 − En n6=0 E0 − En

a3 + a†3 + 3aa† a + 3a† aa† p


e ricordando che x3 = 3/2 3
(α = mω/~), si vede che ci sono due
2 α
termini che coinvolgono gli stati con n = 1 e n = 3 per i quali vanno valutati i termini:

(0) (0)
h0|3aa† a|1i = 3 ; E0 − E1 = −~ω

151
√ (0) (0)
h0|a3 |3i = 6 ; E0 − E3 = −3~ω

per cui:

(2) |h0|V1 |1i|2 |h0|V1 |3i|2


∆E0 = (0) (0)
+ (0) (0)
E0 − E1 E − E3
2
 0
γ 9 6
= − 6 +
8α ~ω 3~ω
11γ 2 11γ 2 ~2
= − 6 =−
8α ~ω 8m3 ω 4

Pendolo quantistico

Vediamo adesso un esercizio classico, ovvero i livelli delle piccole oscillazioni di un pendolo quan-
tistico con la prima correzione ai livelli dovuta al termine anarmonico. Si consideri quindi una
particella di massa m in un piano verticale (x, y) soggetta alla forza di gravità e vincolata a
distanza ` da un punto fisso.
Si scriva la Lagrangiana del sistema prendendo come coordinata lagrangiana l’arco di traietto-
ria misurato dal punto di equilibrio, l’Hamiltoniana approssimata per piccole oscillazioni dalla
posizione di equilibrio, determinando in questo regime autovalori e autofunzioni dell’energia e
infine si calcoli lo spostamento dei livelli energetici, al primo ordine in teoria delle perturbazioni
dovuto al primo termine anarmonico, discutendo il limite di validità dell’approccio perturbativo.

Soluzione
Prendiamo come coordinata lagrangiana l’arco di traiettoria q = `θ e quindi q̇ = `θ̇, con θ
angolo di spostamento rispetto alla posizione di equilibrio presa come zero dell’energia potenziale.
Questa sarà cosı̀ V = mg` (1 − cos θ) e per la Lagrangiana:

1 h qi
L(q, q̇) = T − V = q̇ 2 − mg` 1 − cos
2 `

Per L’Hamiltoniana si ha:

p2 h qi
H(q, p) = pq̇(p) − L(q, q̇(p)) = + mg` 1 − cos
2m `

e per piccoli θ = q/`, ovvero q  `:

p2 q2 q4
 
H' + mg` − + ...
2m 2`2 24`4

Quindi il termine dominante fornisce l’Hamiltoniana di un oscillatore armonico di pulsazione

152
p
ω= g/`:
p2 1 g
H0 = + m q2
2m 2 `

che prendiamo come termine imperturbato. Dalla quantizzazione ritroviamo quindi le soluzioni
già studiate per autofunzioni e autovalori dell’energia con la sola sostituzione per la pulsazione.
Dallo sviluppo in serie per piccoli angoli visto in precedenza si vede che il termine anarmonico da
considerare come una perturbazione, sempre nel limite di piccoli angoli è, posto al solito ξ = αq:

mg 4 mg ξ 4 ~2
H1 = − q = − = − ξ4
24`3 24`3 α4 24m`2

(a + a† )4
Avendo già studiato in precedenza gli elementi diagonali di ξ 4 = , possiamo quindi
4
scrivere direttamente la correzione al primo ordine perturbativo dell’energia dei livelli

~2
∆En(1) = hn|H1 |ni = − 2

2n + 2n + 1
32m`2

Per la validità dell’approccio perturbativo deve valere:

|∆En(1) |  |En(0) − En−1 (0)| = ~ω

per cui:
~2
2n2 + 2n + 1  ~ω

32m` 2

153
Capitolo 5

Momento angolare

5.1 Momento angolare orbitale

Classicamente il momento angolare di una particella rispetto ad un punto è dato da

L=r×p

Notiamo intanto che l’estensione quantistica che si ottiene dal principio di corrispondenza so-
stituendo a posizione e impulso i relativi operatori quantistici fornisce, come deve essere, un
operatore hermitiano. Infatti:

ijk xj pk = ijk (pk xj + [xj pk ]) = ijk pk xj + i~ijk δjk = ijk pk xj

Quindi l’ordinamento di ~x e p~ non conta a causa del tensore completamente antisimmetrico ed


è cosı̀ immediato verificare l’hermitianità.
Sempre dalla definizione iniziale, per l’estensione quantistica nello spazio delle configurazioni, si
ha:
L = −i~ r × ∇


o esplicitamente (∂x ≡ ∂x ecc.)

Lx = −i~ (y ∂z − z ∂y )

Ly = −i~ (z ∂x − x ∂z )

Lz = −i~ (x ∂y − y ∂x )

154
che con una somma sugli indici ripetuti sottintesa e l’ausilio del tensore di Levi-Civita ijk
(completamente antisimmetrico con 123 = 1) si può riscrivere in forma compatta:

Li = −i~ ijk xj ∂k

Calcoliamo il commutatore

[Lx , Ly ] = [y pz − z py , z px − x pz ] = [y pz , z px ] − [z py , x pz ] =

= y [pz , z, px ] + [y, z px ] pz − z [py , x pz ] − [z, x pz ] py = −i~ y px + i~ x py = i~ Lz

risultati analoghi si trovano per le altre combinazioni. In generale si può scrivere

[Li , Lj ] = i~ ijk Lk

Se invece consideriamo il quadrato del momento angolare

L2 = L2x + L2y + L2z

si ha che esso commuta con le componenti del momento stesso:

 2 
L , Li = [Lj Lj , Li ] = Lj [Lj , Li ] + [Lj , Li ]Lj = i~ jik (Lj Lk + Lk Lj ) = i~ jik {Lj , Lk } = 0

Infatti jik è antisimmetrico e {Lj , Lk } simmetrico sugli indici j, k. Sommando su questi si


ottiene zero. Quindi in definitiva
L2 , Li = 0
 

Poichè [Li , Lj ] 6= 0 le varie componenti del momento angolare non sono diagonalizzabili simul-
taneamente, ed il massimo insieme di operatori commutanti dato da L2 ed una componente di
L, convenzionalmente Lz .
Le componenti degli operatori posizione e impulso xi ,pi obbediscono alle seguenti regole di
commutazione con le componenti del momento angolare:

[Li , xj ] = ik` [xk p` , xj ] = −i~ik` xk δ`,j = i~ijk xk

e analogamente
[Li , pj ] = i`k [x` pk , pj ] = i~i`k pk δ`,j = i~ijk pk

155
Questo comporta che [Li , x2 ] = [Li , p2 ] = 0 infatti:

[Li , x2 ] = [Li , xj xj ] = i~ijk (xj xk + xk xj ) = 0

e analogamente per p2 . Ciò implica, ad esempio, che come atteso per potenziali centrali V = V (r)
il momento angolare sia conservato, in quanto [Li , H] = 0. Inoltre il fatto che [Li , r] = 0,
suggerisce che le componenti del momento angolare, espresse come operatori differenziali nella
base delle coordinate, una volta passati a un sistema di coordinate sferiche non conterranno
derivate rispetto a r ma solo rispetto agli angoli polare e azimutale θ, ϕ. Questo è anche coerente
con il fatto che le componenti del momento angolare siano i generatori delle rotazioni nello spazio
e quindi appunto dipendano dagli angoli e non dalla coordinata radiale.
Passiamo quindi a coordinate sferiche per trovare la forma esplicita delle componenti Li .

si ha  
∂r = ∂r xi ∂xi ∂r x = sin θ cos ϕ

 


 


 

∂θ = ∂θ xi ∂xi ∂r y = sin θ sin ϕ

 

 
∂ϕ = ∂ϕ xi ∂x
 ∂r z = cos θ

i

 
∂θ x = r cos θ cos ϕ ∂ϕ x = −r sin θ sin ϕ

 


 

 
∂θ y = r cos θ sin ϕ ∂ϕ y = r sin θ cos ϕ

 

 
∂θ z = −r sin θ
 ∂ϕ z = 0

156

∂r = sin θ cos ϕ ∂x + sin θ sin ϕ ∂y + cos θ ∂z





∂θ = r cos θ cos ϕ ∂x + r cos θ sin ϕ ∂y − r sin θ ∂z



∂ϕ = −r sin θ sin ϕ ∂x + r sin θ cos ϕ ∂y

cos θ cos ϕ sin ϕ


∂x r = x/r = sin θ cos ϕ ; ∂x θ = ; ∂x ϕ = −
r r sin θ
cos θ sin ϕ cos ϕ
∂y r = y/r = sin θ sin ϕ ; ∂y θ = ; ∂y ϕ =
r r sin θ
sin θ
∂z r = z/r = cos θ ; ∂z θ = − ; ∂z ϕ = 0
r

1 1 sin ϕ
∂x = sin θ cos ϕ ∂r + cos θ cos ϕ ∂θ − ∂ϕ
r r sin θ
1 1 cos ϕ
∂y = sin θ sin ϕ ∂r + cos θ sin ϕ ∂θ − ∂ϕ
r r sin θ
1
∂z = cos θ ∂r − sin θ∂θ
r

Per le componenti del momento angolare si ottiene quindi:

 
Lx = −i~ y ∂z − z ∂y
 
h 1
= −i~ r sin θ sin ϕ cos θ ∂r − sin θ ∂θ
r
 i
1 1 cos ϕ
−r cos θ sin θ sin ϕ, ∂r + cos θ sin ϕ∂θ + ∂ϕ
r r sin θ
 
= −i~ sin ϕ ∂θ + cot θ cos ϕ ∂ϕ

 
Ly = −i~ z ∂x − x ∂z
h  1
= −i~ r cos θ sin θ cos ϕ) ∂r + cos θ cos ϕ ∂θ −
 r
1 sin ϕ 1 i
− ∂ϕ − r sin θ cos ϕ cos θ ∂r − sin θ ∂θ
r sin θ r
 
= −i~ cos ϕ ∂θ − cot θ sin ϕ ∂ϕ

157
 
Lz = −i~ x ∂y − y ∂x
  
1 1 cos ϕ
= −i~ r sin θ cos ϕ sin θ sin ϕ ∂r + cos θ sin ϕ ∂θ + ∂ϕ
r r sin θ
 
1 1 sin ϕ
−r sin θ sin ϕ sin θ cos ϕ ∂r + sin θ cos ϕ ∂θ − ∂ϕ
r r sin θ
= −i~ ∂ϕ

Riassumendo:   
L = −i~ sin ϕ ∂ + cot θ cos ϕ ∂

x ϕ

 θ


  
Ly = −i~ cos ϕ ∂ θ − cot θ sin ϕ ∂ϕ



Lz = −i~ ∂ϕ

Inoltre si trova:  
2 2 1 1
∂2

L = −~ ∂θ sin θ ∂θ + (5.1)
sin θ sin2 θ ϕ

5.1.1 Rotatore rigido piano

Prima di procedere alla ricerca delle autofunzioni simultanee di L2 , Lz in tre dimensioni, facciamo
un passo indietro con un esercizio su un sistema piano con invarianza per rotazioni attorno
all’asse perpendicolare. Con questo esempio si ricavano immediatamente le autofunzioni di Lz
(prendendo il piano in (x, y)). Si consideri quindi una sbarretta lineare omogenea di massa m e
momento di inerzia I, libera di ruotare nel piano (x, y) con il baricentro fisso, nel quale poniamo
l’origine delle coordinate.
Scriviamo l’Hamiltoniana del sistema prendendo come coordinata lagrangiana l’angolo ϕ tra la
sbarretta e l’asse x e determiniamo autofunzioni e autovalori dell’energia. Avremo:

1
L = T = I ϕ̇2
2

ed essendo il momento coniugato:

∂L
pϕ = = I ϕ̇ = Lz
∂ ϕ̇

l’Hamiltoniana è:

p2ϕ L2
H(ϕ, pϕ ) = pϕ ϕ̇(pϕ ) − L(ϕ, ϕ̇(pϕ )) = = z
2I 2I

Quanto visto fin qui è classico. Adesso, promuovendo H e Lz ad operatori, e tenendo conto che
il problema ha un solo grado di libertà, l’equazione agli autovalori H|Ei = E|Ei proiettata nella

158
base delle coordinate e passando in coordinate polari (come fatto nella trattazione precedente
in tre dimensioni), prenderà la forma:

L2z
uE (ϕ) = E uE (ϕ)
2I


e con pϕ = Lz = −i~ e [ϕ, pϕ ] = i~:
∂ϕ

00 2I
u (ϕ) + E u(ϕ) = 0
~2

essendo chiaramente E > 0 le soluzioni hanno la forma:


r
2IE
i± ϕ
uE (ϕ) = Ae ~2

e imponendo la monodromia: uE (ϕ) = uE (ϕ + 2nπ) si trova:


r
2IE
=m ; m∈Z
~2

quindi gli autovalori sono discreti:

~2 2
Em = m ; m = 0, ±1, ±2, ±3, ...
2I
R 2π
e infine, richiedendo che 0 u∗m (ϕ)um0 (ϕ)dϕ = δm,m0 , le autofunzioni normalizzate di H (e Lz )
sono:
1
um (ϕ) = √ eimϕ ; m∈Z

e lo spettro è doppiamente degenere eccetto per m = 0.
Si noti l’analogia con la particella libera in una dimensione quando si divida lo spazio in intervalli
di lunghezza L ponendo condizioni periodiche u(x) = u(x+L) dove in possibili valori dell’impulso
(e dell’energia) risultavano discretizzati.
L’esempio visto adesso mostra già quali saranno le autofunzioni di Lz anche in 3 − d, quando si
scelga Lz come operatore da diagonalizzare simultaneamente a L2 e vedremo che le autofunzioni
simultanee, le Armoniche Sferiche, risulteranno il prodotto delle autofunzioni di Lz moltiplicate
(a parte fattori di normalizzazione) per dei polinomi, i polinomi di Legendre. Le armoniche
sferiche saranno naturalmente ortogonali e normalizzate nell’angolo solido.

159
5.1.2 Armoniche Sferiche

Procediamo adesso alla determinazione della forma delle autofunzioni simultanee di L2 e Lz .


Siano Yλm (θ, ϕ) le soluzioni delle equazioni agli autovalori


L2 Y m (θ, ϕ) = ~2 λ Y m (θ, ϕ)

λ λ
(5.2)
L Y m (θ, ϕ) = ~ m Y m (θ, ϕ)

z λ λ

Riscrivendo la seconda delle (5.2) con Lz = −i~ ∂ϕ si ottiene l’equazione

∂ Yλm
−i~ ∂ϕ Yλm (θ, ϕ) = ~ m Yλm (θ, ϕ) ⇒ = i m ∂ϕ
Yλm

le cui soluzioni sono del tipo

Yλm (θ, ϕ) = Θm
λ (θ) e
imϕ

con m ∈ Z per la monodromia: Yλm (θ, ϕ) = Yλm (θ, ϕ+2nπ). Sostituendo questa espressione nella
prima equazione delle (5.2), e sostituendo ad L2 l’operatore differenziale scritto in precedenza
si ottiene:    
1 1 2 m imϕ
− 2 ∂θ sin θ ∂θ + 2 ∂ϕ Θλ (θ) e = λ Θm
λ (θ) e
imϕ
sin θ sin θ

che svolgendo la derivata ∂ϕ2 Θm


λ (θ) e
imϕ = −m2 Θm (θ) eimϕ può essere riscritta come
λ

m2
   
1
∂θ sin θ ∂θ − + λ Θm
λ (θ) e
imϕ
=0
sin2 θ sin2 θ

In definitiva, l’equazione per la funzione incognita Θ(θ, ϕ) è:

m2
   
1
∂θ sin θ ∂θ − + λ Θm
λ (θ) = 0
sin2 θ sin2 θ

Conviene fare un cambio di variabile: ponendo cos θ = w l’equazione diventa

m2
 
∂w (1 − w2 ) ∂w − + λ Θm
λ (w) = 0
1 − w2

da cui
m2
 
00 m m
2
(1 − w ) Θλ (w) − 2w Θ0 λ (w) + λ− Θm
λ (w) = 0
1 − w2

Questa è un’equazione differenziale nota, con soluzioni non singolari in w = ±1 (θ = ±π) per
λ = `(` + 1) con ` ∈ N .

160
Le soluzioni per Θm m
λ (w) risultano cosı̀ i polinomi associati di Legendre P` (w), costruiti a

partire dai polinomi di Legendre

1 d`
P` (w) = (w2 − 1)`
2` `! dw`

ed aventi la forma
|m| d|m|
P`m (w) = (1 − w2 ) 2 P` (w)
dw|m|

Risulta evidente che se |m| > ` il polinomio associato si annulla identicamente. Fisicamente ciò
implica il fatto (ragionevole) che una componente (in questo caso Lz ma vale ovviamente anche
~ In realtà, per il
per le altre) non possa assumere un valore maggiore del modulo del vettore L.
principio di indeterminazione, una singola componente non può neanche uguagliare il modulo di
~ e infatti gli autovalori di L2 sono (`2 + `)~2 , mentre m può assumere valori compresi tra −` e
L
+` e gli autovalori di Lz sono m~.
Riassumiamo adesso alcune proprietà dei polinomi di Legendre:

1) P` (1) = 1

2) P` (−w) = (−1)` P` (w) (parità definita)

3) (` + 1)P`+1 = (2` + 1)P` + `P`−1 = 0 (ricorrenza)


Z +1
2 (` + m)!
4) Pkm (w)P`m (w)dw = δk` (ortogonalità)
−1 2` + 1 (` − m)!

e l’espressione dei primi polinomi:

3 1
P0 = 1 , P1 = ω ; P2 = w 2 −
2 2

5 3 35 4 15 2 3
P3 = w3 − w ; P4 = w − w +
2 2 8 4 8

Le autofunzioni simultanee di L2 e di Lz si chiamano armoniche sferiche e sono quindi della


forma:
Y`m (θ, ϕ) = N`m P`m (cos θ) eimϕ

Esse formano un set ortonormale:

Z
0
dΩ Y`∗m (θ, ϕ) Y`m
0 (θ, ϕ) = δmm0 δ``0

161
Esplicitamente:

1
(−1)`+m 2` + 1 (` − m)! 2 d`+m

Y`m (θ, ϕ) = (sin θ)m (sin θ)2` eimϕ
(2`)!! 4π (` + m)! (d cos θ)`+m

Le principali proprietà sono:

1) Y`∗m (θ, ϕ) = (−1)m Y`−m (θ, ϕ)

2) Y`m (π − θ, ϕ + π) = (−1)` Y`−m (θ, ϕ) (parità)


  1
2` + 1 (` − m)! 2 m
3) Y`m (θ, ϕ) = (−1)m P` (cos θ) eimϕ
4π (` + m)!
∞ X
+`
X δ(θ − θ0 )δ(ϕ − ϕ0 )
4) Y`m ∗ (θ, ϕ) Y`m (θ0 , ϕ0 ) = ≡ δ(Ω − Ω0 ) (completezza)
sin θ
`=0 m=−`

Le prime armoniche sferiche sono:


r r r
1 3 3 −1 3
Y00 = √ 0
Y1 = cos θ 1
Y1 = sin θ eiϕ
Y1 = sin θ e−iϕ
4π 4π 8π 8π
r r r
5 15 15
Y20 = 2
(3 cos θ − 1); 1
Y2 = − 2iϕ
sin θ cos θ e ; 2
Y2 = sin2 θ e2iϕ
16π 8π 32π

Concludiamo con un’osservazione su qualcosa che viene in genere dato per scontato sui testi,
ovvero: benchè il momento angolare viva naturalmente nello spazio 3 − d, L2 , Lz dipendono solo
dagli angoli polare e azimutale e la coordinata radiale quindi “scompare” dal gioco, si fattorizza.
Questo, insieme al fatto che nel passaggio a coordinate sferiche non vengono introdotti nuovi
operatori corrispondenti ad osservabili connesse a r, θ, ϕ, può portare a domandarsi come eseguire
le manipolazioni formali che portano dal formalismo di Dirac con operatori e ket ad equazioni
per le funzioni d’onda, che come sappiamo sono la proiezione del vettore di stato su una base
di autostati a esempio dell’osservabile posizione o impulso. La risposta è che naturalmente si
possono sempre ripetere le manipolazioni già utilizzate con le coordinate cartesiane, proiettando
sulla base ad esempio delle |xi ed eseguendo i passaggi che servono a calcolare probabilità, valori
medi ecc. e al momento opportuno cambiare coordinate. Tuttavia, trattando del momento
angolare orbitale, si possono introdurre dei ket labellati dagli angoli: |Ωi ≡ |θ, ϕi, con hΩ0 |Ωi =
δ(Ω − Ω0 ) e |ΩihΩ| = I e si avrà:
R

Y`m (θ, ϕ) = hθ, ϕ|`, mi

162
dove |`, mi sono gli autostati simultanei di L2 , Lz (labellati quindi dai relativi numeri quantici):

L2 |`, mi = ~2 `(` + 1)|`, mi

Lz |`, mi = ~m|`, mi

Proiettando ad esempio la prima sulla base |Ωi:

Z
dΩ0 hΩ|L2 |Ω0 ihΩ0 |`, mi = hΩ|~2 `(` + 1)|`, mi
Z
dΩ0 L2 (Ω0 )δ(Ω − Ω0 )Y`m (Ω0 ) = ~2 `(` + 1)Y`m (Ω)

L2 (θ, ϕ)Y` , m(θ, ϕ) = ~2 `(` + 1)Y`m (θ, ϕ)

dove L2 (Ω) = L2 (θ, ϕ) è l’operatore differenziale trovato nella eq.(5.1) e l’equazione è la prima
delle eq.(5.2) con λ = `(` + 1).
Aggiungiamo anche una ultima osservazione: come abbiamo visto in precedenza quando è stato
richiamato il prodotto tensoriale, è stato detto che il simbolo ⊗ viene praticamente sempre
omesso e che quasi sempre gli stati sono scritti come ket che contengono la sequenza dei numeri
quantici che specificano il set massimale di operatori mutuamente commutanti. È bene comunque
ricordarsi che questi numeri quantici possono essere a volte relativi a operatori che vivono nello
stesso spazio come nel caso di L2 , Lz , mentre altre volte come ad esempio vedremo per gli stati
con determinato momento angolare e spin, relativi a osservabili che vivono in spazi distinti. La
semplificazione del formalismo non deve quindi far dimenticare cosa si sta facendo di volta in
volta.

163
5.1.3 Armoniche sferiche, potenze delle componenti del vettore posizione e
contenuto di momento angolare

Una domanda tipica è, assegnata la funzione d’onda di una particella, quale sia il contenuto
di momento angolare, ovvero quali siano i possibili risultati di una misura di L2 e Lz ed
eventualmente anche con quali probabilità. Ciò serve per calcolare ad esempio il valor medio
atteso di osservabili, eseguendo misure ripetute su sistemi identicamente preparati nello stato
descritto appunto dalla funzione d’onda assegnata. Ad esempio, nel caso di funzioni d’onda che
non dipendono dagli angoli la risposta è con certezza ` = 0, m = 0 e vale la pena sottolineare
che per funzioni d’onda indipendenti dagli angoli si intendono funzioni d’onda dipendenti solo
p
dal modulo del vettore posizione r = |~x| = x2 + y 2 + z 2 e non da una potenza qualsiasi di una
o più sue componenti (che non sia comunque una combinazione scrivibile come funzione di r).
Quindi se lo stato di una particella nello spazio è descritto da una funzione d’onda della forma:

ψ(~x) = F (r)

indipendente dagli angoli, una misura di momento angolare fornisce con certezza risultato ` = 0
(e quindi anche m = 0).
Supponiamo comunque come sempre che hψ|ψi = 1, ovvero che:

Z Z ∞ Z
d3 ~x |ψ(~x)|2 = r2 dr dΩ |F (r)|2 = 1
0

dove naturalmente:

Z Z 2π Z π Z 2π Z 1
dΩ = dϕ sin θ dθ = dϕ dw (w = cos θ)
0 0 0 −1

Ricordiamo che il modulo quadro della funzione d’onda fornisce la densità di probabilità di pre-
senza per cui se questa ha simmetria sferica il momento angolare orbitale è nullo con probabilità
uno, ossia con certezza.
Come si giustifica ovvero come si dimostra formalmente? E quale è in pratica il modo più rapi-
do per rispondere alla domanda generale di quale sia il contenuto di momento angolare di una
funzione d’onda assegnata?
La risposta in generale si ottiene nel modo più rapido decomponendo la funzione d’onda sulla
base delle armoniche sferiche, dopo averla eventualmente dovuta riscrivere in coordinate sferiche,
ovvero nella forma:
X
ψ(~x) = ψ(r, θ, ϕ) = c`,m (r)Y`m (θ, ϕ) (5.3)
`,m

164
La condizione di normalizzazione hψ|ψi = 1 comporta:

Z
1 = d3 ~x ψ ∗ (~x)ψ(~x)
Z ∞ Z
= r2 dr dΩ ψ ∗ (r, θ, ϕ)ψ(r, θ, ϕ)
0
XXZ ∞ Z
= r dr c`0 ,m0 (r)c`,m (r) dΩ Y`∗0 ,m0 (θ, ϕ)Y`,m (θ, ϕ)
2 ∗

`,m `0 ,m0 0
XZ ∞
= r |c`,m (r)|2 dr
2
(5.4)
`,m 0

e, dato che come sappiamo questa espressione deve avere una interpretazione probabilistica,
questa è proprio la risposta che cercavamo, ovvero le probabilità di un certa coppia `, m come
risultato di una misura di L2 , Lz sono proprio:

Z ∞
P (`, m) = r2 |c`,m (r)|2 dr (5.5)
0

Ci sarebbero molte osservazioni da fare, vediamone alcune: la prima è che in generale la risposta
alla domanda coinvolge il dover “risommare” sulla variabile r. Questo non deve sorprendere
perchè il contenuto di momento angolare ha che fare con la dipendenza dalle variabili angolari
e non da r; quindi come è logico su una variabile “cieca” si deve risommare per ottenere la
probabilità totale . Infatti la stessa cosa vale ad esempio per determinare la probabilità di una
misura di Lz indipendentemente da L2 per ottenere la quale si deve risommare su `, ovvero:

XZ ∞
P (m) = r2 |c`,m (r)|2 dr
` 0

La differenza è che ` è un indice discreto e associato a una osservabile, mentre r è una variabile
continua. Inoltre la domanda sul contenuto di momento angolare è ben posta anche senza speci-
ficare la forma dell’Hamiltoniana e quindi con r non associata a una osservabile. Diversamente
infatti, come a esempio nel caso dell’atomo di idrogeno, uno stato legato è sviluppabile sulla base
di polinomi ortogonali dipendenti da r e associati a un numero quantico n legato all’energia.
Una seconda osservazione è che la risposta data vale nel caso più generale ma spesso la domanda
si può presentare nel caso di dipendenza da r fattorizzabile, ovvero se:

ψ(r, θ, ϕ) = f (r)g(θ, ϕ) (5.6)

165
In questo caso la risposta è più semplice, in quanto avremmo i coefficienti dell’espansione (5.3)
fattorizzabili come
c`,m (r) = f (r)c`,m

e quindi la (5.5) diventerebbe semplicemente:

Z ∞
2
P (`, m) = |c`,m | r2 |f (r)|2 dr = |c`,m |2 (5.7)
0

2
P
(con, naturalmente: `,m |c`,m | = 1 ) dovendo essere già normalizzata la funzione d’onda sulla
parte radiale perchè ovviamente la probabilità di trovare la particella a una qualunque distanza
indipendentemente dalla posizione nell’angolo solido dovrà risultare uguale ad uno.
Nel caso di funzione d’onda con la parte radiale fattorizzabile quindi la parte radiale è com-
pletamente ininfluente e può non essere considerata per rispondere alla domanda. Notiamo che
la cosa non è diversa dal caso ad esempio di una funzione d’onda in 2 dimensioni cartesiane
fattorizzabile come:
ψ(x, y) = f (x)g(y)

e ad esempio nel rispondere alla domanda della distribuzione di probabilità in x la parte dipen-
dente da y può essere completamente ignorata.
Altra osservazione è che nel caso di funzione d’onda fattorizzabile (5.6) la probabilità si potrebbe
derivare facilmente anche scrivendo formalmente

P (`, m) = |h`, m|ψi|2

e inserendo completezze sull’angolo solido. Solo che l’espressione appena scritta è ambigua e in
qualche modo sbagliata perchè non c’è un solo stato |`, mi ma un sottospazio per cui andrebbe
definito un proiettore coinvolgendo quindi la somma su tutti i vettori |`, mi del sottospazio,
come accennato nella parte iniziale alla presentazione del postulato sulla misura. Il fatto è che,
ripetiamo, se la dipendenza da r è fattorizzata tutto funziona utilizzando in modo un pò sportivo
il formalismo dei bra e dei ket con i proiettori e tutto quanto come visto a esempio nel caso
unidimensionale. Questo suggerisce l’ultima osservazione che riguarda proprio il formalismo
di Dirac e le manipolazioni che spesso abbiamo usato con questo formalismo. L’osservazione
è che mentre è sicuramente un formalismo molto agile e utile in molti casi, in altri, quali ad
esempio quello appena discusso, mostra dei limiti. Infatti, ad esempio ricavare il risultato di
questo paragrafo utilizzando proiettori nel formalismo di Dirac è naturalmente possibile ma
meno pratico di quanto abbiamo fatto. Ripetiamo infatti quanto detto alla fine del paragrafo

166
precedente ossia che quando scriviamo un ket deve essere tenuto ben presente quale stato in
quale spazio di Hilbert rappresenta.
Avendo tutto questo in mente, utilizziamo la (5.7) per giustificare che una funzione d’onda
dipendente solo da r rappresenta un autostato di momento angolare con ` = m = 0. Come
visto infatti l’armonica sferica con ` = 0, m = 0 è una costante, ossia non dipende dagli angoli,
e quindi si ricorda facilmente dovendo essere uguale ad uno l’integrale del suo modulo quadro
sull’angolo solido quindi:

Z
1
|Y00 |2 dΩ = |Y00 |2 · 4π = 1 −→ Y00 = √

Di conseguenza:

ψ(r, θ, ϕ) = F (r) = F (r) 4πY00

e quindi si deve supporre che


Z ∞
4π|F (r)|2 r2 dr = 1
0

essendo la parte angolare già normalizzata ad uno sull’angolo solido. Inoltre dovendo identificare:

X
ψ(r, θ, ϕ) = 4πF (r)Y00 = 4πF (r) c`,m Y`,m
`,m

avremo c00 = 1 e tutti gli altri nulli e quindi P (` = 0, m = 0) = 1 e tutte le altre probabilità
nulle.
Procedendo sempre nello stesso modo, salvo il fatto che quando la funzione d’onda non è fatto-
rizzabile come nella (5.6) per le probabilità va usata la (5.5), ci domandiamo quale contenuto di
momento angolare hanno funzioni d’onda lineari, quadratiche, ecc., nelle componenti del vettore
posizione ~x e lo facciamo nel caso fattorizzabile, perchè non cambia niente per i possibili valori
di `, m, nel caso fattorizzabile o meno.
Intanto sappiamo che la parità per riflessioni (quindi di uno o tutti e tre gli assi coordinati in
quanto la riflessione di due è equivalente a una rotazione attorno al terzo asse) le armoniche
sferiche hanno parità (−1)` e quindi monomi o polinomi nelle coordinate di parità pari (dispari)
contengono solo armoniche sferiche di ` pari (dispari). Si verifica anche che il grado del monomio
o polinomio corrisponde al massimo valore di `. Partiamo quindi dalle coordinate del vettore
~x
posizione che corrispondono a stati con ` = 1 come si vede decomponendo le componenti di
r
sulla base delle armoniche sferiche. In particolare x, y sono come è facile verificare mescolamenti
con uguale probabilità di stati con ` = 1 e m = ±1, mentre z con certezza fornisce ` = 1, m = 0.
Le combinazioni delle componenti del vettore posizione con corrispondenza uno a uno con le

167
x ± iy
armoniche sferiche con ` = 1 sono le “componenti sferiche” x± = √ e z.
2
Funzioni d’onda quadratiche nelle componenti e senza termini lineari descrivono stati con ` = 2
e eventualmente anche ` = 0 in particolare le cinque componenti indipendenti del tensore sferico
a traccia nulla:
~x2
Tij = xi xj − δij
3

sono in relazione con le cinque armoniche sferiche con ` = 2 (non in corrispondenza uno a uno).
I termini lineari compaiono a esempio in interazioni tipo dipolo, lineari nel vettore posizione e
quelle del tensore sferico in termini di quadrupolo.
Lasciamo per esercizio la verifica di quanto detto ed eventualmente anche lo studio di potenze
superiori nelle componenti del vettore posizione.

5.1.4 Momento angolare come generatore delle rotazioni

~ = ~r ∧ p~ sappiamo che si conserva nei problemi


Una componente del momento angolare L
invarianti per rotazioni attorno al suo asse, ovvero nel piano perpendicolare. Vediamo a esempio
le rotazioni attorno l’asse z. Consideriamo
 
r cos ϕ
~x =  
r sin ϕ

Sotto una rotazione di un angolo infinitesimo α diventa:


   
r cos(ϕ + α) r(cos ϕ − α sin ϕ)
~x →R ~x0 =  ' 
r sin(ϕ + α) r(sin ϕ − α cos ϕ)

e quindi  
−αr sin ϕ
δ~x = ~x0 − ~x '  
αr cos ϕ

ovvero (rinominando x, y, z → x1 , x2 , x3 ):

δx1 ' −αx2

δx2 ' αx1

168
mentre ruotando attorno all’asse x3 si ha δx3 = 0. Quindi in 3 − d:
 
−x2
 
δ~x = α  x1
 

 
0

che si può scrivere:


(3)
δxi = αi3k xk = αijk nj xk

(con n̂(3) = (0, 0, 1)) che in notazione vettoriale si scrive:

δ~x = αn̂(3) ∧ ~x

Quanto visto vale per un generico versore per cui in generale:

δ~x = αn̂ ∧ ~x

Vediamo che la carica di Noether conservata per una rotazione attorno l’asse ` è proprio L` . A
questo scopo consideriamo che per una rotazione intorno all’asse ` il versore avrà componente
ni = δi` e la variazione della componente xj sarà:

 
(`)
δ` xj = α n̂(`) ∧ ~x = αjik ni xk = αjik δi` xk = αj`k xk
j

Quindi la carica di Noether conservata è:

1 ∂L
Q` = δ` xj = pj j`k xk = (~x ∧ p~)` = L`
α ∂ ẋj

e come visto per l’impulso e per l’Hamiltoniana e come abbiamo accennato nel primo capitolo
vale in generale, una carica di Noether conservata genera la relativa trasformazione e questo vale
sia classicamente che quantisticamente.
Verifichiamo quindi che anche nel caso quantistico il momento angolare L` = −i~`jk xj ∂k
genera le rotazioni attorno all’asse `:

i (`) ~
αn̂ · L i
Rα(`) =e ~ ~ + O(α2 )
= I + αn̂(`) · L
~

169
i cui elementi nella base delle coordinate sono:

i (`) ~
αn̂ · L
h~x|Rα(`) |ψi = h~x|e ~ |ψi
(`)
= ψ(~x) + αijk ni xj ∂k ψ(~x) + o(α2 )

= ψ(~x) + α`jk xj ∂k ψ(~x) + o(α2 )

da cui si vede che in effetti è generata una rotazione, ovvero:

 
ψ(~x) → ψR(`) (~x) = ψ ~x + δ (`) ~x
~ x) + O(α2 )
= ψ(~x) + δ (`) ~x · ∇ψ(~

= ψ(~x) + αk`j xj ∂k ψ(~x) + O(α2 )

170
5.2 Teoria generale del momento angolare

Ci sono altre osservabili in fisica rappresentate da operatori che obbediscono alle regole di com-
mutazione degli operatori di momento angolare orbitale. Si definiscono in generale operatori di
momento angolare Ji ; i = 1, 2, 3 quelli che soddisfano l’algebra

[Ji , Jj ] = i ijk Jk

e di conseguenza
 2 
J , Ji = 0

(algebra del gruppo SU (2) delle matrici speciali e unitarie con rappresentazione fondamentale
di dimensione due)
Definiamo per comodità operatori adimensionali ji = Ji /~. Vediamo che dalle regole di commu-
tazione segue che si può formalmente scrivere

~j ∧ ~j = i ~j

infatti

 
~j ∧ ~j = ijk jj jk
i
 
[jj , jk ] + {jj , jk }
= ijk
2
[jj , jk ]
= ijk
2
i
= ijk jkm jm
2
i
= (δkk δim − δik δkm ) jm
2
i
= (3δim − δim ) jm
2
= i ji (5.8)

(nel calcolo la saturazione del tensore di Levi Civita, antisimmetrico, per l’anticommutatore,
simmetrico, da risultato nullo). Come si vede il fatto che le componenti di un operatore di mo-
mento angolare non commutino tra loro fa sı̀ che il prodotto vettoriale (formale) tra il vettore
formato con le componenti degli operatori di momento angolare non dia risultato nullo, come
accade invece per i vettori con componenti numeriche.
Ciò detto, torniamo all’algebra e alla ricerca di autostati e autovalori caratterizzanti il set mas-
simale di osservabili mutuamente commutanti, che in questo caso (non consideriamo qui altri

171
operatori oltre a quelli di un momento angolare J~ ) sono J 2 e una componente che tradizional-
mente viene scelta come Jz .
Quindi, diagonalizzando simultaneamente J 2 e Jz si avranno autostati simultanei |λ, mi labellati
dai numeri quantici dei due operatori e le equazioni agli autovalori:

j 2 |λ, mi = λ|λ, mi

jz |λ, mi = m|λ, mi

Introduciamo gli operatori non hermitiani:

j± = jx ± ijy


che evidentemente soddisfano j± = j∓ e le regole di commutazione:

[jz , j± ] = [jz , jx ± ijy ] = ijy ± i (−ijx ) = ±j±

[j+ , j− ] = [jx + ijy , jx − ijy ] = 2jz


 2 
j , j± = 0

quindi j± alzano o abbassano l’autovalore di jz e lasciano invariato quello di j 2 , infatti:

jz (j± |λ, mi) = (j± jz + [jz , j± ]) |λ, mi = (m ± 1) (j± |λ, mi)

quindi j± |λ, mi o è nullo o è autostato di jz con autovalore m ± 1 e di j 2 con autovalore invariato


λ. In conclusione
j± |λ, mi = N± |λ, m ± 1i

Usiamo adesso

j+ j− = (jx + ijy ) (jx − ijy ) = jx2 + jy2 + i[jy , jx ] = j 2 − jz2 + jz

j− j+ = j+ j− + [j− , j+ ] = j 2 − jz2 + jz − 2jz = j 2 − jz2 − jz

e quindi essendo gli autostati |λ, mi un set ortonormale si avrà:

|N+ |2 = hλ, m|j− j+ |λ, mi = ||j+ |λ, mi||2 = λ − m2 − m = λ − m(m + 1)

|N− |2 = hλ, m|j+ j− |λ, mi = ||j− |λ, mi||2 = λ − m2 + m = λ − m(m − 1)

172
D’altra parte dovrà essere

λ − m2 − m ≥ 0

λ − m2 + m ≥ 0

La due disuguaglianze sono soddisfatte rispettivamente per


r r
1 1 1 1
− +λ≤m≤ + +λ
2 4 2 4

e per r r
1 1 1 1
− − +λ≤m≤− + +λ
2 4 2 4

e quindi sono soddisfatte entrambe per


r r
1 1 1 1
− +λ≤m≤− + +λ (5.9)
2 4 2 4

Se applichiamo k volte j+ al vettore |λ, mi:

k
j+ |λ, mi ∝ |λ, m + ki

ma d’altra parte m non può crescere indefinitamente dovendo rispettare la (5.9) e quindi dovrà
esistere un valore massimo di m che chiamiamo j tale che j+ |λ, ji = 0 e in corrispondenza di
questo per quanto visto precedentemente λ − j 2 − j = 0 ovvero λ = j(j + 1). Similmente
k |λ, j̄i = 0 e questo implica
dovrà esistere un valore minimo di m che chiamiamo j̄ tale che j−
λ − j̄ 2 + j̄ = 0 ovvero λ = j̄(j̄ − 1). Uguagliando i due valori di λ trovati rispettando i limiti
massimi e minimi per m si ha quindi

j(j + 1) = j̄(j̄ − 1)

che ha soluzioni j̄ = j + 1 e j̄ = −j con la prima che va scartata perchè deve essere ovviamente
j̄ < j. Quindi la soluzione accettabile è j̄ = −j ovvero −j ≤ m ≤ j (vedere ancora la (5.9)) e
gli autovalori di j 2 sono λ = j(j + 1).
Dato che m, variando con j± a passi di una unità, assume 2j + 1 valori, che deve essere un
numero naturale, ne segue che j può assumere valore j = 0 o valori seminteri e interi ossia
j = 0, 1/2, 1, 3/2, 2, 5/2, ...

Il momento angolare orbitale, che vive nello spazio delle configurazioni, è quindi un caso

173
particolare di operatore di momento angolare nel quale il numero quantico principale j = `
assume solo valori interi. Il caso di j semintero riguarda ad esempio lo spin dell’elettrone del
quale tratteremo tra breve, ma ci sono anche altri esempi come l’isospin in fisica nucleare e
quindi non solo il momento angolare orbitale. Di qui in avanti il simbolo j sarà mantenuto solo
~ e come
per un generico momento angolare, mentre come già visto per il momento angolare L,
~ useremo appunto simboli specifici perchè sia chiaro il momento angolare
vedremo per lo spin S,
particolare che si sta esaminando.

5.2.1 Ulteriori proprietà dell’algebra

L’utilizzo degli operatori j± = jx ± i jy permette di ottenere rapidamente alcuni risultati.


Uno di questi è la costruzione esplicita delle matrici jx , jy di una generica rappresentazione,
ovvero con j fissato. Sappiamo infatti che la matrice rappresentativa di j 2 sarà proporzionale
all’identità moltiplicata per j(j + 1) e jz = diag(j, j − 1, ...., −j + 1, −j), mentre, conoscendo
l’azione di j± su un autostato simultaneo di j 2 e jz :

p
j± |j, mi = j(j + 1) − m(m ± 1) |j, m ± 1i

si possono appunto ottenere le matrici rappresentative di jx e jy :

1
hj, m0 |jx |j, mi = hj, m0 |j+ + j− |j, mi
2
1
hj, m0 |jy |j, mi = hj, m0 |j+ − j− |j, mi
2i

Prima di costruirle esplicitamente in un esempio, notiamo che dalla linearità di jx e jy in j± si


vede subito che i valori medi su autostati di jz sono nulli, ovvero che le matrici non hanno elementi
diagonali: hj, m|jx |j, mi = hj, m|jy |j, mi = 0 e naturalmente, essendo arbitraria la componente
di ~j che si decide di diagonalizzare simultaneamente a j 2 , si può affermare in generale che il
valore medio di una qualunque componente di ~j su autostati di j 2 e di un’altra componente è
necessariamente nullo. La stessa cosa non varrà per i valori medi del quadrato di una componente
di ~j su autostati di un’altra componente, altrimenti risulterebbe nulla l’incertezza, e con essa il
prodotto delle incertezze di due componenti che non commutano tra loro. Per fare un esempio
consideriamo sempre di avere diagonalizzato j 2 e jz e vediamo cosa risulta per hjx2 i e hjy2 i che
appunto non potranno essere nulli per quanto detto. Infatti:

1 2
jx2 = 2

j+ + j+ j− + j− j+ + j−
4

174
quindi
1 1 1
hm|jx2 |mi = hm|j+ j− + j− j+ |mi = j(j + 1) − m2
4 2 2

ed eseguendo un calcolo analogo si trova lo stesso risultato per hm|jy2 |mi come d’altra parte si
poteva dedurre dall’uguaglianza:

hm|jx2 |mi + hm|jy2 |mi = hm|~j 2 |mi − hm|jz2 |mi

e sfruttando il fatto che per invarainza per rotazioni attorno l’asse z sicuramente hm|jx2 |mi = hm|jy2 |mi .
Quindi in conclusione il prodotto delle incertezze (∆jx ) · (∆jy ) su autostati di jz è:

1 1
(∆jx ) · (∆jy ) = j(j + 1) − m2
2 2

ed è minimo quindi per m = j dove vale j/2 . Ricordando che stiamo usando operatori adi-
~
mensionali ~j = J/~, se confrontiamo con la formula ricavata in generale per il prodotto delle
indeterminazioni, avremmo trovato:

1 ~2
(∆Jx ) · (∆Jy ) ≥ |hm|~Jz |mi| = |m|
2 2

~2
che è compatibile con il risultato trovato prima j in quanto l’uguaglianza non è raggiungibile
2
perchè mentre hm|{Jx , Jy }|mi = 0, come si può facilmente verificare sempre usando J+ , J− , non
è soddisfatta in generale la relazione Jx |j, mi ∝ Jy |j, mi se non per |m| = j che non fornisce il
minimo nella disuguaglianza. Vale la pena anche sottolineare che il valore massimo del quadrato
di una componente come Jz2 , che ha massimo j 2 , è sempre inferiore all’autovalore di J~2 che è
j 2 + j: anche questo è legato al principio di indeterminazione sulle componenti Jx , Jy .
Vediamo adesso le matrici di Jx , Jy per j = 1. Ordinando gli stati in modo che gli indici
di riga e di colonna 1, 2, 3 siano in corrispondenza rispettivamente con gli stati |j = 1, mi =
| + 1i, |0i, | − 1i si trova ad esempio

1 1 1 p 1
(jx )12 = h+1|j+ + j− |0i = h+1|j+ |0i = h+1| 1(1 + 1) − 0(0 + 1)|0i = √
2 2 2 2

e in definitiva, sfruttando l’hermitianità e le proprietà studiate, con il calcolo di un solo altro


elemento si trova facilmente:  
0 1 0
  ~  
Jx =√  1 0 1
 

ij 2 
0 1 0

175
e anche:  
0 −i 0
  ~  
Jy = √ −i 
 
 i 0
ij 2 
0 i 0

mentre ovviamente:
   
1 0 0 1 0 0
       
2 2
Jz = ~ 0 0 0 J = 2~  0 1 0
  
 
ij   ij  
0 0 −1 0 0 1

Avendo le rappresentazioni esplicite per le matrici del momento angolare per j = 1, possiamo
lasciare per esercizio la ricerca degli autovettori della matrice che rappresenta un operatore di
momento angolare lungo una generica direzione n̂ = (cos ϕ sin θ, sin ϕ sin θ, cos θ) per j = 1,
ovvero della matrice:

sin θ e−iϕ
 
 cos θ √ 0
2 
 sin θ eiϕ sin θ e−iϕ
   
J~ · n̂

= ~ √ 0 √ 
ij 
 2 2 

 sin θ eiϕ 
0 √ − cos θ
2

che come è facile verificare e intuibile ha sempre autovalori +~, 0, −~. Verificare ad esempio che
l’autovettore relativo all’autovalore ~, ovvero che soddisfa J~ · n̂|~in̂ = ~|~in̂ è rappresentato, a
meno di un fattore di fase, dal vettore colonna:
 
1 + cos θ −iϕ
e

 2 √ 

|~in̂ ↔ 
 sin θ/ 2 

 1 − cos θ iϕ 
e
2

Si lascia per esercizio anche la ricerca dei due autovettori relativi agli autovalori 0, −~.

5.3 Spin

Lo spin, che abbiamo di fatto già introdotto parlando dell’esperienza di Stern-Gerlach, non ha
analogo classico ed è una proprietà dell’elettrone contenuta nella teoria quando si passa a scrivere
la versione relativistica dell’equazione si Schroedinger, ovvero l’equazione di Dirac. Il “momento
angolare intrinseco” di spin, a livello della nostra trattazione, viene quindi introdotto “di forza”

176
~ ma in
nella teoria. Lo spin non vive nello spazio delle configurazioni dove sono definiti ~x, p~, L,
uno spazio diverso e lo spazio di Hilbert complessivo, quando si considera sia il momento orbitale
che di spin, è il prodotto tensoriale dei due spazi H = Ho ⊗ Hs . A rigore dovremmo quindi
~ ⊗ Is quando trattiamo il momento orbitale e Io ⊗ S
scrivere L ~ parlando dello spin, ma come già
~
preannunciato alleggeriremo il formalismo e scriveremo a esempio semplicemente S.
L’elettrone ha spin 1/2 e corrisponde alla rappresentazione non banale di dimensione minima del
momento angolare, ovvero dimensione 2, essendo la rappresentazione con j = 1/2 e jz = ±1/2.
Ricordiamo che i simboli j, jz vengono usati in generale per un generico momento angolare
mentre nello specifico saranno sostituiti da `, `z (o ancora `, m per il momento angolare orbitale
e da s, sz (o ancora s, ms ) quando si tratterà dello spin.
~
Dalla teoria generale sappiamo quindi che valgono, per S:

[Si , Sj ] = i~ ijk Sk [S 2 , Si ] = 0

e con s = 1/2 sarà (ordinando righe e colonne in corrispondenza di sz discendente):


   
  3 1 0   ~ 1 0 
S2 = ~2   Sz =
ij 4 0 1 ij 2 0 −1

Tramite le matrici S± = Sx ± iSy e la loro azione sugli stati |s, ms i con s = 1/2:
s   r
1 1 3
S± |1/2, ms i = ~ + 1 − ms (ms ± 1) |1/2, ms ± 1i = ~ − ms (ms ± 1) |1/2, ms i
2 2 4

si trovano facilmente le matrici rappresentative di Sx , Sy :


   
~ 0 1  ~  0 −i 
Sx = Sy =
2 1 0 2 i 0

Si introducono quindi le matrici di Pauli

2 ~
~σ = S (5.10)
~

con, evidentemente:
     
0 1 0 −i 1 0
σx =   σy =   σz =   (5.11)
1 0 i 0 0 −1

177
e anche:  
1 0
σ 2 = σx2 + σy2 + σz2 = 3  
0 1

5.3.1 Proprietà delle matrici di Pauli

(a) - Le matrici di Pauli, sono hermitiane, con autovalori ±1.


(b) - T r(σi ) = 0 ovvero sono a traccia nulla.
(c) - Algebra: [σi , σj ] = 2i ijk σk
(d) - {σi , σj } = 2δij I ovvero matrici diverse anticommutano mentre σi2 = I
1 1
(e) - σi σj = {σi , σj } + [σi , σj ] = δij I + iijk σk
2 2
(f) - Le matrici di Pauli e l’identità I formano una base per le matrici 2x2 complesse.
Verifichiamo subito il punto (f) ovvero che si può scrivere una generica matrice A come combi-
nazione lineare dell’identità e delle matrici di Pauli:

A = a0 I + ~a · ~σ = a0 I + ak σk

(usiamo sempre, se non specificato altrimenti, la convenzione di sommare sugli indici ripetuti).
Sfruttando le proprietà (b) ed (e) si trova subito:

1
T r(A) = a0 T r(I) = 2a0 −→ a0 = T r(A)
2
1
T r(Aσj ) = ak T r(σk σj ) = 2aj −→ ak = T r(Aσk )
2

Sempre usando le proprietà precedenti vediamo che, dati due vettori numerici ~a, ~b, si ha:

 
(~σ · ~a)(~σ · ~b) = ai bj σi σj = ai bj (δij I + iijk σk ) = ~a · ~b I + i ~a ∧ ~b · ~σ (5.12)

Nel caso particolare di ~a = ~b si trova:

(~σ · ~a)2 = ~a2 I

e ancora più in particolare se ~a = n̂ ovvero per un versore n̂2 = 1:

(~σ · n̂)2 = I

che era un risultato prevedibile in quanto il quadrato delle matrici di Pauli è l’identità per
tutte le componenti come dalla proprietà (d) e quindi, data l’arbitrarietà nella scelta degli assi

178
coordinati, la proprietà deve giustamente valere per una qualsiasi direzione nello spazio.
Invece, nel caso di vettori costruiti con le componenti di un operatore che non commutano
~ (vale
tra loro si trova un risultato diverso, che vediamo con il momento angolare orbitale L
comunque [σi , Lj ] = 0 perchè come detto vivono in spazi distinti):

 2  
~σ · L ~2 + i L
~ = σi σj Li Lj = δij Li Lj + iijk Li Lj σk = L ~ ∧L
~ · ~σ = L
~ 2 − ~σ · L
~

perchè, ricordiamo, per qualunque operatore di momento angolare J~ ∧ J~ = iJ.


~

5.3.2 Autovettori di ~σ · n̂

Come per la rappresentazione vettoriale j = 1, anche per quella spinoriale j = 1/2 possiamo
trovare gli autovettori lungo una direzione generica n̂. Costruiamo quindi la matrice:
 
cos θ sin θe−iϕ
~σ · n̂ = σx cos ϕ sin θ + σy sin ϕ sin θ + σz cos θ =  
sin θeiϕ − cos θ

Si verifica subito che gli autovalori sono λ± = ±1 e scriveremo dunque l’equazione agli autovalori:

~σ · n̂ χn̂± = ± χn̂±

Lasciamo per esercizio la verifica che le soluzioni sono, a meno di un fattore di fase arbitrario:
   
cos(θ/2) e−iϕ sin(θ/2)
χn̂+ =   χn̂− =  
sin(θ/2) − cos(θ/2) eiϕ

Come casi particolari, ponendo ϕ = 0, θ = π/2 e ϕ = π/2, θ = π/2, si ottengono gli autovettori
di σx e σy rispettivamente (evidentemente sempre a meno di un fattore di fase arbitrario):
   
1 1 1 1
χx+ = √   χx− = √  
2 1 2 −1
   
1 1 1 1
χy+ = √   χy− = √  
2 i 2 −i

Gli autostati di spin si chiamano spinori.

179
5.3.3 Spinori e precessione dello spin

Deriviamo adesso una formula fondamentale, che si dimostra ricordando che, come visto:
(~σ · n̂)2 = I per cui evidentemente, per m ∈ N , vale (~σ · n̂)2m = I e (~σ · n̂)2m+1 = ~σ · n̂.
Quindi si trova:

∞ ∞ ∞
(iθ)m m θ
2m θ2m+1
e i~σ · n̂ θ
X m
X X
= (~σ · n̂) = I (−1) + i~σ · n̂ (−1)m
m! (2m)! (2m + 1)!
m=0 m=0 m=0

= I cos θ + i ~σ · n̂ sin θ

Vediamo l’effetto di una rotazione ad esempio intorno all’asse z, ricordando che un operatore di
rotazione avrà in generale la forma

i~
J · n̂ θ
R(θ) = e ~

~ ma che vale in generale per un operatore di momento


che abbiamo già visto a proposito di L
angolare nel suo spazio. Nel caso dello spin avremo S ~ = ~ ~σ per cui
~ al posto di J~ e inoltre S
2
nello spazio degli spinori:
i~ θ
(n̂)
S · n̂ θ i ~σ · n̂
Rs (θ) = e ~ =e 2

e nel caso n̂ = ẑ:


θ
i σz
Rs(ẑ) (θ) = e 2 = I cos(θ/2) + iσz sin(θ/2)

Notiamo quindi che mentre un vettore torna a se stesso dopo una rotazione di un angolo di 2π
attorno a un certo asse, un spinore cambia di segno, ovvero:

|χiR = Rsz (θ)|χi = (I cos(θ/2) + iσz sin(θ/2)) |χi

comporta che
|χR iθ=2π = −|χi

ovvero acquista una fase eiπ .


Per la precessione dello spin anticipiamo che in presenza di un campo magnetico esterno costante
~ = B ẑ, un elettrone si ha un termine di interazione (che verrà discussa nel secondo modulo
B
del corso):
e ~ ~
Hint = − S · B ≡ ωSz
mc

180
|e|B
con ω = . Allora l’operatore di evoluzione in rappresentazione di Schroedinger assume la
mc
forma di un operatore di rotazione nello spazio degli spinori:

i i θ
− Hint t − Sz ωt −iσz
U (t) = e ~ =e ~ =e 2

con θ = ωt. Al contrario delle fasi degli spinori che non sono misurabili, a noi interessa vedere
come cambiano i valori di osservabili. Calcoliamo quindi ad esempio, in rappresentazione di
Schroedinger, come cambia nel tempo il valor medio di una componente dello spin lungo una
direzione ortogonale al campo magnetico:

θ θ
~ iσz −iσz
hχR |Sx |χR i = hχ|e 2 σx e 2 |χi
2
~
= hχ| [I cos(θ/2) + iσz sin(θ/2)] σx [I cos(θ/2) − iσz sin(θ/2)] |χi
2
~
hχ| cos2 (θ/2)σx + sin2 (θ/2)σz σx σz + i sin(θ/2) cos(θ/2)[σz , σx ] |χi

=
2
~
hχ| [cos2 (θ/2) − sin2 (θ/2)]σx − 2sin(θ/2) cos(θ/2)σy |χi

=
2
~
= hχ| cos θ σx − sin θ σy |χi
2
= hχ|Sx |χi cos θ − hχ|Sy |χi sin θ

Lo stesso calcolo per il valor medio di Sy porta al risultato:

hχR |Sy |χR i = hχ|Sy |χi cos θ + hχ|Sx |χi sin θ

mentre naturalmente il valor medio di Sz resta in questo caso invariato.


Vale la pena accennare anche a una seconda derivazione, nonostante sia più lunga e quindi meno
preferibile, che tuttavia può essere utile in altri calcoli simili. Consideriamo quindi un’espressione
del tipo eA B e−A con evidentemente [A, B] 6= 0. Scrivendo esplicitamente lo sviluppo in serie
di potenze degli esponenziali si dimostra che

1 1 1
eA B e−A = B + [A, B] + [A, [A, B]] + [A, [A, [A, B]]] + .... + [A, [A, [....[A, B]]...] + ...
2! 3! n!

che può servire quando si calcola, come nell’esempio appena visto, come si modifica il valor
medio di una certa osservabile in seguito a una trasformazione sullo stato. Vediamo adesso che
nel caso appena studiato si riproduce il risultato già ottenuto:

i i
Sz θ − Sz θ iθ (iθ)2 (iθ)3
e ~ Sx e ~ = Sx + [Sz , Sx ] + [Sz , [Sz , Sx ]] + [Sz , [Sz , [Sz , Sx ]]] + .....
~ 2~2 3!~3

181
θ2 θ3
= Sx − θ Sy − Sx + Sy + ...
2  6
θ2 θ3
 
= Sx 1 − + ... − Sy θ − + ...
2 6
= Sx cos θ − Sy sin θ

Notiamo che a differenza degli spinori che come visto cambiano di segno dopo una rotazione di
2π, i valori medi tornano al valore iniziale.

5.4 Composizione di momenti angolari

~ vive in uno spazio di Hilbert distinto da quello del momento angolare orbitale L.
Lo spin S ~
~ ⊗ Is e Io ⊗ S
Considerandoli entrambi dovremmo quindi sempre scrivere L ~ essendo lo spazio

di Hilbert complessivo Ho ⊗ Hs . Avendo chiaro in mente quanto detto saremo interessati a


studiarne la composizione (o semplicemente somma) e scriveremo semplicemente J~ = L
~ +S
~

per alleggerire il formalismo. Facendo un passo indietro, ricordiamo che come al solito siamo
interessati ad esempio a determinare autovalori e autostati di un set massimale di operatori
corrispondenti a osservabili fisiche. Il fatto è, come vedremo, che se siamo in presenza sia di
spin che di momento orbitale, o anche più in generale di due momenti angolari distinti ~j1 , ~j2 ,
la loro composizione è ancora un operatore di momento angolare e inoltre ci sono set massimali
distinti di operatori diagonalizzabili simultaneamente e quindi anche basi distinte dello spazio
di Hilbert complessivo.
Trattiamo quindi il problema in generale considerando la somma J~ = ~j1 +~j2 , di due generici mo-
menti angolari che, vivendo in spazi diversi, soddisfano le relazioni di commutazione (utilizzando
operatori adimensionali
[j1a , j2b ] = 0

e, con i = 1, 2
[jia , jib ] = iabc jic

[ji2 , jia ] = 0

Verifichiamo che J~ è ancora un operatore di momento angolare ovvero che soddisfa le regole di
commutazione note tra le varie componenti Ja e tra le componenti e J~2 .

[Ja , Jb ] = [j1a + j2a , j1b + j2b ] = iabc (j1c + j2c ) = iabc Jc

182
[J 2 , Ja ] = [j12 + j22 + 2~j1 · ~j2 , j1a + j2a ]

= 2[~j1 · ~j2 , j1a + j2a ]

= 2[j1b j2b , j1a + j2a ]

= 2ibac (j1c j2b + j1b j2c ) = 0 (5.13)

essendo il termine in parentesi simmetrico e il tensore di Levi-Civita completamente asimmetrico


negli indici b, c.
Notare che il quadrato del momento angolare totale (Casimir di SU (2)) non commuta singolar-
mente con le componenti dei due momenti angolari ma solo con le componenti della somma dei
due. Questo ci dice che possiamo scegliere due set massimali alternativi di operatori mutuamente
commutanti ovvero j12 , j22 , j1z , j2z (ovviamente al solito la scelta delle componenti z è arbitraria
e convenzionale), oppure il set j12 , j22 , J 2 , Jz , dato che come è facile verificare sono nulli tutti
i commutatori tra tutti questi operatori, quindi anche quelli che non abbiamo esplicitamente
scritto.
Di conseguenza, nello spazio prodotto diretto H1 ⊗ H2 di dimensione (2j1 + 1) · (2j2 + 1) si
possono scegliere le due basi alternative |j1 , m1 i ⊗ |j2 , m2 i ≡ |j1 , j2 , m1 , m2 i diagonalizzando il
primo set oppure |j1 , j2 , J, M i, diagonalizzando il secondo set. Ripetiamo che le due basi, ovvero
i due set massimali, sono alternativi dato che [J 2 , j1z ] 6= 0 6= [J 2 , j2z ]. In linguaggio di teoria
dei gruppi nella somma di due momenti angolari si scompone il prodotto di rappresentazioni
(l’assegnazione di j1 e j2 che determina le dimensioni degli spazi H1 e H2 ) in somma diretta
di rappresentazioni di dimensione 2J + 1 con J, numero quantico principale di J 2 , che come
mostreremo può assumere valori |j1 − j2 | ≤ J ≤ (j1 + j2 ). Naturalmente il vincolo è che la
dimensione dello spazio complessivo sia la stessa nelle due basi.
Evidentemente della base |j1 , j2 , m1 , m2 i sappiamo già tutto e il problema adesso, dato che il
passaggio agli stati |j1 , j2 , J, M i equivale a un cambiamento di base, è determinare i possibili
valori di J e successivamente determinare le trasformazioni che fanno passare da una base al-
l’altra.
Cominciamo quindi con il problema agli autovalori per Jz = j1z + j2z del quale sappiamo che
avrà autovalori −J ≤ M ≤ J ma del quale possiamo anche dire, facendolo agire su uno stato
della base |j1 , j2 , m1 , m2 i anche che M = m1 + m2 , infatti evidentemente:

Jz |j1 , j2 , m1 , m2 i = (j1z + j2z )|j1 , j2 , m1 , m2 i = (m1 + m2 )|j1 , j2 , m1 , m2 i

D’altra parte fissato M ci saranno più coppie m1 , m2 che forniscono la stessa somma M e quindi
ci sarà degenerazione rispetto a M . Consideriamo allora lo spazio di Hilbert generato dai vettori

183
|j1 , j2 , m1 , m2 i nel quale ci saranno (2j1 + 1)(2j2 + 1) vettori: passando alla base del momento
angolare totale |j1 , j2 , J, M i consideriamo il valore massimo possibile per Jmax (che ancora non
abbiamo determinato) e scegliamo M = Jmax . Dato che M è il valore massimo possibile per
m1 + m2 anche m1 , m2 assumeranno i valori massimi possibili, ovvero mmax
1 = j1 e mmax
2 = j2
e evidentemente Jmax = Mmax = j1 + j2 . Inoltre, a meno di un fattore di fase arbitrario:

|j1 , j2 , j1 , j2 i = |j1 , j2 , J = j1 + j2 , M = j1 + j2 i

dato che esiste un solo vettore dello spazio con queste caratteristiche e quindi i due vettori di
stato nelle due basi devono coincidere.
Mostriamo poi che J può assumere anche il valore j1 + j2 − 1. Consideriamo gli stati con
M = j1 + j2 − 1. Ci sono due ket possibili in entrambe le basi. Infatti questi sono, nella base di
j12 , j22 , j1z , j2z , |j1 , j2 , m1 = j1 −1, j2 i e |j1 , j2 , m1 , m2 = j2 −1i. Questo sottospazio ha dimensione
due anche nella seconda base j12 , j22 , J 2 , Jz dove gli stati sono |j1 , j2 , J = j1 + j2 , M = j1 + j2 − 1i
e |j1 , j2 , J = j1 + j2 − 1, M = Ji. Quindi anche j1 + j2 − 1 è un possibile valore di J.
Si può ripetere l’argomento diminuendo ogni volta di una unità il valore di J e si arriverà a un
Jmin . Per determinare il valore di Jmin imponiamo che la dimensione dello spazio in entrambe le
basi sia (2j1 + 1)(2j2 + 1) e contiamo in funzione di Jmin il numero di vettori base |j1 , j2 , J, M i.
M (M + 1)
Assumendo J intero, e usando M
P
`=1 ` = :
2

jX
1 +j2

(2j1 + 1)(2j2 + 1) = (2J + 1)


J=Jmin
jX
1 +j2 X−1
Jmin
= (2J + 1) − (2J + 1)
J=1 J=1
jX
1 +j2 X−1
Jmin
= 2 J + (j1 + j2 ) − 2 J − (Jmin − 1)
J=1 J=1
= (j1 + j2 )(j1 + j2 + 1) + j1 + j2 − (Jmin − 1)Jmin − Jmin + 1

= j12 + j22 + 2j1 j2 + 2j1 + 2j2 − Jmin


2
+1

2
e quindi dal confronto dei due membri si ottiene Jmin = (j1 − j2 )2 ovvero:

Jmin = |j1 − j2 |

Lasciamo per esercizio la dimostrazione che lo stesso risultato si ottiene per J semintero.

184
5.4.1 Coefficienti di Clebsch-Gordan

Il passaggio dalla base |j1 , j2 , m1 , m2 i alla base |j1 , j2 , J, M i e viceversa (entrambe ortonormali)
corrisponde a una trasformazione unitaria e ogni vettore in una base è quindi esprimibile come
combinazione lineare di vettori dell’altra base con i coefficienti che si chiamano di Clebsch-
Gordan.
Fissando i numeri quantici principali di j12 e j22 , sfruttiamo la completezza delle due basi per cui:

X
|j1 , j2 , J, M i = |j1 , j2 , m1 , m2 ihj1 , j2 , m1 , m2 |j1 , j2 , J, M i
m1 ,m2
X
M
≡ Cm1 ,m2
(J)|j1 , j2 , m1 , m2 i
m1 ,m2

M
con i Cm (J) = hj1 , j2 , m1 , m2 |j1 , j2 , J, M i che sono appunto i coefficienti di Clebsch-Gordan,
1 ,m2

che permettono il passaggio tra le due basi, e che sono non nulli per |j1 − j2 | ≤ J ≤ (j1 + j2 )
e M = m1 + m2 . Sfruttando il fatto che il vettore di stato è definito a meno di un fattore di
fase, i coefficienti di Clebsch-Gordan possono essere scelti reali e in particolare positivo quello
con Jmax = j1 + j2 e M = J (in questo caso c’è un solo coefficiente non nullo). I coefficienti si
costruiscono proprio a partire dallo stato con J = j1 + j2 e M = J utilizzando poi gli operatori
J− = j1− + j2− .
Come applicazione vediamo la più semplice, ovvero la somma di due momenti angolari con
j1 = j2 = 1/2 per cui m1 , m2 = ±1/2 ≡ ±. Quindi per J~ = j~1 + j~2 avremo 0 ≤ J ≤ 1.
Si parte dallo stato con Jmax e Mmax ovvero dallo stato con J = M = 1 e per alleggerire il
formalismo si danno per sottintesi i valori j1 = j2 = 1/2 negli stati, omettendo di scriverli.
Quindi, la notazione per indicare gli stati sarà nelle due basi |J, M i e |m1 , m2 i. Si avrà quindi:

|J, M i = |m1 , m2 i

|1, 1i = |+, +i

dove il simbolo + è abbreviazione per +1/2.


Agendo con l’operatore di abbassamento J− = j1− + j2− a sinistra e a destra dell’uguaglianza
precedente si ha:

J− |1, 1i = j1− |+, +i + j2− |+, +i


s      s     
p 1 1 1 1 1 1 1 1
1(1 + 1) − 1(1 − 1)|1, 0i = +1 − − 1 |−, +i + +1 − − 1 |+, −i
2 2 2 2 2 2 2 2

2|1, 0i = |−, +i + |+, −i

185
ovvero il secondo stato del tripletto di stati con J = 1 è:

|+, −i + |−, +i
|1, 0i = √
2

e agendo nuovamente a sinistra e a destra di questo stato con J− = j1− + j2− si trova:

|+, −i + |−, +i
J− |1, 0i = (j1− + j2− ) √
2
√ |+, −i |−, +i |−, −i + |−, −i
2|1, −1i = j1− √ + j2− √ = √
2 2 2

ovvero:
|1, −1i = |−, −i

Notiamo che tutti gli stati del tripletto sono simmetrici nello scambio m1 ↔ m2 , questa è una
caratteristica generale, ovvero che gli stati internamente a un multipletto ottenuto sommando
due momenti angolari abbiano la proprietà di essere simmetrici o antisimmetrici rispetto allo
scambio m1 ↔ m2 e se un multipletto ha una certa parità rispetto allo scambio i due multipletti
adiacenti hanno la parità opposta. Vediamo adesso che il singoletto, ovvero l’unico stato con
J = 0, M = 0 è in effetti antisimmetrico. Per determinare il legame di questo stato con gli
stati nella base |m1 , m2 i teniamo presente che M = m1 + m2 e quindi 0 = m1 + m2 che implica
che sono coinvolti solo gli stati |+, −i e |−, +i. Quindi lo stato di singoletto |1, 0i sarà una
combinazione lineare di questi due stati ovvero:

|0, 0i = a|+, −i + b|−, +i

con i coefficienti a, b che si determinano imponendo la condizione di ortogonalità con lo stato


|1, 0i con lo stesso valore di M nel tripletto, e la condizione di normalizzazione dello stato di
singoletto ovvero:
h1, 0|0, 0i = a + b = 0

e la condizione di normalizzazione:

h0, 0|0, 0i = 1 = |a|2 + |b|2

e le due condizioni insieme portano a scrivere, a meno di un fattore di fase

|+, −i − |−, +i
|0, 0i = √
2

186
che come vediamo appunto è antisimmetrico rispetto allo scambio m1 ↔ m2 . Concludendo, per
la composizione di due momenti angolari con j1 = j2 = 1/2 si ha uno spazio di dimensione
(2j1 +) · (2j2 + 1) = 2 · 2 = 4 dato dal prodotto tensoriale di due spazi di dimensione 2, che si
decompone nella somma diretta di due spazi con J = 0 di dimensione 1 e uno con J = 1 di
dimensione 3. Si trova scritto in linguaggio di teoria dei gruppi che il prodotto di rappresentazioni
viene decomposto nella somma diretta di rappresentazioni in questo caso specificamente:
2 ⊗ 2 = 1 ⊕ 3. Ovviamente il numero di stati (la dimensione dello spazio) è 4 in entrambe le
basi, e li riassumiamo, dando sempre per scontato che in entrambe le basi gli stati sono anche
caratterizzati dai due numeri quantici di j12 e j22 :

|m1 , m2 i |J, M i

|+, +i |1, +1i

|+, −i |1, 0i T ripletto

|−, +i |1, −1i

|−, −i |0, 0i Singoletto

con il legame tra gli stati nella base |J, M i e quelli nella base |m1 , m2 i visto precedentemente
che naturalmente può essere invertito scrivendo quelli della base |m1 , m2 i in termini di quelli
nella base |J, M i.
I coefficienti di Clebsch-Gordan si trovano tabulati, ma si consiglia di calcolarli esplicitamente
almeno in un altro paio di esempi come la composizione di j1 = 1 e j2 = 1/2 e anche j1 = 1 e
j2 = 1.

187
Capitolo 6

Problemi a simmetria sferica

6.1 Potenziale centrale

Consideriamo Hamiltoniane della forma

p2
H= + V (r); r = |x| = |r| (6.1)
2m

Classicamente:
L=x×p

per cui:

L2 = ijk xj pk i`m x` pm = (δj` δkm − δjm δk` ) xj pk x` pm

= xj pk xj pk − xj pk xk pj = x2 p2 − (x · p)2

= r2 p2 − (r · p)2

p·r
Definendo pr = p · r̂ = classicamente si trova quindi la relazione:
r

L2
p2 = p2r + (6.2)
r2

e in definitiva si può riscrivere l’Hamiltoniana (6.1) di un campo centrale:

p2r L2 p2r
H= + + V (r) = + Vef f (r) (6.3)
2m 2mr2 2m

con Vef f (r) = V (r) + L2 /2mr2 che è il potenziale efficace dato dalla somma del potenziale
centrale V (r) più il termine di ”potenziale centrifugo” L2 /2mr2 .
Quantisticamente, si giunge alla stessa espressione per l’Hamiltoniana in eq.(6.3), ma con un

188
calcolo più lungo, complicato dal fatto che [xi , pj ] = i~δij .
Ricordiamo intanto che
[Li , xj ] = i~ijk xk

[Li , pj ] = i~ijk pk

che implicano:
[Li , r2 ] = 0

[Li , p2 ] = 0

e quindi nel caso di potenziali centrali:

[Li , H] = 0

e si possono quindi diagonalizzare simultaneamente H, L2 , Lz e nell’equazione di Schrodinger le


variabili angolari possono essere separate da quella radiale.
Per calcolare ∇2 in coordinate sferiche introduciamo l’operatore
 
∂ 1 1 ∂
pr = −i~ + = −i~ r
∂r r r ∂r

che ha la proprietà
[r, pr ] = i~

Notiamo che [r, pr + f (r)] = [r, pr ]. Nel nostro caso il termine aggiuntivo 1/r serve per l’her-
mitianità di pr . Infatti ciò che cambia rispetto a coordinate cartesiane è che il supporto di r
è (0, +∞) e non (−∞, +∞). Vediamo meglio: l’hermitianità implica che hpr ψ|ψi = hψ|pr ψi
ovvero:
Z ∞    Z ∞  
2 ∂ 1 ∗ 2 ∗ ∂ 1
dr r i~ + ψ ψ= dr r ψ (−i~) + ψ
0 ∂r r 0 ∂r r

ossia:

Z ∞ Z ∞  2

2 d|ψ|
 
2 2 ∗0 2 2 ∗ 0 2
i~ dr r|ψ| + r ψ ψ + r|ψ| + r ψ ψ = i~ dr r + 2r|ψ| =0
0 0 dr

e in definitiva
Z ∞ ∞
d 2 2
i~ r |ψ| dr = i~ r2 |ψ|2 = 0

0 dr 0

Quindi per l’hermitianità è necessario che limr→0 r|ψ(r)| = 0 e limr→+∞ r|ψ(r)| = 0 (sottoli-
neiamo ancora la necessità del termine 1/r nella definizione di pr ).

189
Riprendiamo adesso il calcolo di L2 e come nel caso classico possiamo scrivere:

L2 = ijk xj pk i`m x` pm = (δj` δkm − δjm δk` ) xj pk x` pm

= xj pk xj pk − xj pk xk pj

solo che adesso va tenuto in conto del fatto che posizione e impulso non commutano e quindi
riprendendo dall’ultimo passaggio:

L2 = xj (xj pk − i~ δkj ) pk − xj (xk pk − i~ δkk ) pj

= r2 p2 − i~ r · p + 3i~ r · p − xj (pj xk + i~ δkj ) pk

= r2 p2 + 2i~ r · p − (r · p)2 − i~ r · p

= r2 p2 − (r · p)2 + i~ r · p

Notiamo che:
∂ ∂xi ∂ xi ∂
= =
∂r ∂r ∂xi r ∂xi

da cui:
∂ ∂
r = xi
∂r ∂xi

quindi  
∂ ∂ ∂ ∂ ∂
r · p = −i~ x +y +z = −i~ xi = −i~ r
∂x ∂y ∂z ∂xi ∂r

Ma  
∂ 1 ∂
rpr = −i~ r + = −i~ r − i~ = r · p − i~
∂r r ∂r

ossia
r · p = rpr + i~

Quindi

L2 = r2 p2 − (r · p)2 + i~ r · p

= r2 p2 − r · p (r · p − i~)

= r2 p2 − (rpr + i~) rpr

= r2 p2 − rpr rpr − i~ rpr

= r2 p2 − r (rpr − i~) pr − i~ rpr

= r2 p2 − r2 p2r

190
e quindi come nel caso classico:
L2
p2 = p2r +
r2

Ne segue che per V = V (r) l’Hamiltoniana è appunto come in eq.(6.3):

p2r L2
H= + + V (r)
2m 2mr2

con
1 ∂ 1 ∂ ~2 ∂ 2
p2r = −~2 r r=− r
r ∂r r ∂r r ∂r2

Dato che L2 è un operatore differenziale funzione degli angoli e non della coordinata radiale, la
soluzione dell’equazione agli autovalori Hψ = Eψ si fattorizza nella forma:

ψ(r, θ, ϕ) = R`E (r)Y`m (θ, ϕ)

e quindi una volta fattorizzate le armoniche sferiche si cerca di trovare la soluzione, data la
forma esplicita del potenziale, per la funzione radiale, ovvero di risolvere l’equazione:

p2r ~2 `(` + 1)
 
+ + V (r) − E R`E (r) = 0
2m 2mr2

o anche, esplicitando le derivate rispetto a r:

~2 ∂ 2 ~2 `(` + 1)
 
− rRE (r) + + V (r) − E R`E (r) = 0
2mr ∂r2 ` 2mr2

ovvero:
0
2R`E (r)
 
00 E 2m `(` + 1)
R` (r) + + ((E − V (r)) − R`E (r) = 0
r ~2 r2

Date le condizioni per l’hermitianità di pr discusse in precedenza coinvolgono il prodotto rR`E (r),
conviene chiamare questa combinazione “funzione radiale ridotta” χE E
` (r) = rR` (r) in termini

della quale l’equazione di Schroedinger prende la forma

~2 00 E
 2 
~ `(` + 1)
− χ (r) + + V (r) − E χE
` (r) = 0
2m ` 2mr2

ovvero la stessa dell’equazione di Schroedinger unidimensionale studiata in coordinate cartesiane


(quindi con diverse condizioni al contorno) con l’aggiunta del potenziale centrifugo (repulsivo)
~2 `(` + 1)
. In particolare, per ` = 0, e nel caso di potenziale costante a tratti, abbiamo già
2mr2
discusso le soluzioni che coincideranno, per la funzione ridotta, con quelle trovate in una dimen-
sione x, con un potenziale infinito per x ≤ 0.

191
Caratteristica importante e generale delle soluzioni, sarà la degenerazione 2` + 1 dovuta al fatto
che in H compare solo L2 e non Lz nè altre componenti di L. Quindi stati con diverso valore del
numero quantico m con −` ≤ m ≤ ` avranno la stessa energia. Tuttavia in certi casi, come per
l’atomo di idrogeno, la degenerazione può essere superiore (ad esempio per il potenziale Cou-
lombiano gli autovalori dell’energia non dipendono dal numero quantico `) a causa di simmetrie
ulteriori (degenerazione accidentale).

192
Capitolo 7

Teoria delle perturbazioni


dipendente dal tempo

L’equazione di Schroedinger, formulata nel postulato sull’evoluzione temporale del vettore di


stato e presentata nella parte iniziale degli appunti, mantiene la stessa forma sia nel caso di
Hamiltoniane indipendenti dal tempo che dipendenti dal tempo. Fino a qui sono stati trattati
solo casi di Hamiltoniane indipendenti dal tempo ed è stata anche ricavata la forma dell’operatore
di evoluzione. Interessano però anche sistemi chiusi ovvero che scambiano energia con un sistema
esterno, descritti in generale da Hamiltoniane dipendenti dal tempo e per le quali la forma
dell’operatore di evoluzione è più complessa, come sarà mostrato più avanti. In particolare ci
occuperemo brevemente di casi nei quali l’Hamiltoniana è della forma:

H = H0 + H1 (t) (7.1)

e dove H0 è un’ l’Hamiltoniana ”imperturbata”, indipendente dal tempo, che si riferisce al siste-
ma in esame, e H1 (t) è una perturbazione dipendente dal tempo che descrive l’interazione tra il
sistema e tipicamente un campo esterno, come a esempio un campo elettromagnetico variabile
nel tempo.
Chiaramente perchè l’approccio perturbativo sia consistente la perturbazione H1 (t) deve essere
”piccola” rispetto ad H0 .
L’energia del sistema in esame quindi non si conserva essendo in presenza di una interazione e
quindi di scambio di energia con qualcosa di esterno al sistema. Questo ripetiamo dipende dal
fatto che ci si concentra su un sistema chiuso, ma non isolato.
L’interazione induce in generale dei cambiamenti dello stato del sistema nel tempo rispetto a una
configurazione iniziale assegnata. In quanto segue quindi il risultato principale è la derivazione,

193
in un approccio perturbativo, della probabilità di transizione tra uno stato e un altro in funzione
del tempo.
Il tema sarebbe molto ampio ma per ragioni di spazio ci limiteremo a studiare questa situazione
e il modo più diretto di trattare il problema sarebbe sicuramente partire della rappresentazione
di interazione. Tuttavia, prima di presentare questa nuova rappresentazione nella sezione suc-
cessiva, mostriamo una derivazione più rapida, utilizzata in molti testi tradizionali e che parte
dall’equazione di Schroedinger temporale:

∂|ψi
i~ = H|ψi
∂t

Il metodo consiste nello scrivere la soluzione come combinazione lineare degli autostati di H0
nella forma:
i
X − En t
|ψ(t)i = an (t)e ~ |un i
n

dove appunto |un i è una base completa di autostati di H0 . La forma è giustificata dal fatto che nel
caso di H1 (t) → 0 questa espressione, con coefficienti an costanti nel tempo, sarebbe la soluzione
esatta. Quindi, detto in altro modo, l’effetto della perturbazione viene inserita nei coefficienti
an che supponiamo siano sviluppabili, attorno alla soluzione imperturbata, in serie di potenze
di H1 (t) (vedremo più avanti che questa assunzione “nasconde” di fatto la rappresentazione di
interazione). Sostituendo l’espansione nell’equazione di Schroedinger si ottiene:

i i
∂|ψ(t)i X − En t X − En t
i~ = e ~ [i~ ȧn (t) + En an (t)] |un i = [H0 + H1 (t)] an (t)e ~ |un i
∂t n n

Ricordando che H0 |un i = En |un i si vede che l’equazione precedente si semplifica e rimane:

i i
X − En t X − En t
i~ e ~ ȧn (t)|un i = an (t)H1 (t)e ~ |un i
n n

Proiettando l’equazione precedente su hum | si ottiene, sfruttando l’ortogonalità tra gli autostati
di H0 :
1 X
ȧm (t) = an (t) hum |H1 (t)|un i ei (ωm − ωn ) t
i~ n

con ωi = Ei /~.
Si ha quindi un sistema di equazioni differenziali nelle incognite am (t) la cui integrazione fornisce
la soluzione per |ψ(t)i. Il metodo perturbativo consiste (reintroducendo un parametro 0 ≤ λ ≤ 1
da porre poi ad uno alla fine del procedimento) nel risolvere il problema per approssimazioni

194
successive in potenze di H1 (t) (di λ), fino a un dato ordine. Scriviamo quindi:


X
am (t) = λr a(r)
m (t) con am (t0 ) = a(0)
m
r=0

poichè si suppone che la perturbazione inizi a un tempo t0 (si suppone anche in generale che si
spenga adiabaticamente a un tempo successivo t1 con questi tempi che possono eventualmente
tendere a ±∞).
Notiamo che a un ordine r si avrà:

1 X (r−1)
ȧ(r)
m (t) = a (t) hum |H1 (t)|un i ei (ωm − ωn ) t
i~ n n

in quanto nel termine a destra è presente l’Hamiltoniana di interazione che è di ordine uno.
Vediamo quindi come si ricava il risultato al primo ordine, al quale ci fermeremo. Partiamo
dall’ordine zero dove si ha semplicemente

ȧ(0)
m =0

(0)
che ha come risultato am = cost = am (t0 ), ovvero il coefficiente al tempo nel quale comincia la
perturbazione. Se supponiamo che a questo tempo il sistema si trovi in un particolare autostato
(0)
di H0 , , |ui i, allora am = δmi . Inserendo questa ipotesi nell’espressione al primo ordine si trova:

1 X (0)
ȧ(1)
m (t) = a (t) hum |H1 (t)|un i ei (ωm − ωn ) t
i~ n n
1 X
= δni hum |H1 (t)|un i ei (ωm − ωn ) t
i~ n
1
= hum |H1 (t)|ui i ei (ωm − ωi ) t
i~

e quindi integrando si trova la soluzione che in generale si usa scrivere con t0 = −∞:

Z t 0
1
a(1)
m (t) = ei (ωm − ωi ) t hum |H1 (t0 )|ui i dt0
i~ −∞

Quindi la probabilità di transizione tra uno stato iniziale nel quale si suppone si trovi il sistema
prima dell’inizio della perturbazione e uno stato finale assegnato, in funzione del tempo è, al
primo ordine perturbativo:
(1)
Pf i (t) = |af i (t)|2

195
che dovrà essere Pf i (t)  1 per la validità dell’approccio perturbativo.
Osserviamo anche che in generale l’Hamiltoniana di perturbazione avrà la forma H1 (t) = Ĥ1 ·f (t)
e quindi saranno possibili transizioni verso stati “collegati” dalla perturbazione, ovvero per i
quali l’elemento di matrice hf |Ĥ1 |ii =
6 0, mentre andrà anche eseguita l’integrazione temporale
0
Rt iωf i t f (t0 )dt0 , con ω = (E − E )/~ e notiamo che per t → ∞ questa espressione è in
−∞ e fi f i

sostanza lo spettro di f (t).

7.1 Rappresentazione di interazione

Vediamo adesso come si procede introducendo direttamente la rappresentazione di interazione,


(che come vedremo è “nascosta” nella derivazione precedente).
Definiamo il vettore di stato in questa nuova rappresentazione attraverso una trasformazione
unitaria sul vettore di stato in rappresentazione di Schroedinger, ovvero:

i
|ψI (t)i = e ~ H0 t |ψs (t)i

L’equazione di moto per il vettore di stato in rappresentazione di interazione è quindi:

∂|ψI (t)i i ∂|ψs (t)i


i
i~ = −H0 e ~ H0 t |ψs (t)i + e ~ H0 t
∂t ∂t
i
H0 t
= −H0 |ψI (t)i + e ~ (H0 + Hi (t)) |ψs (t)i
i i
= −H0 |ψI (t)i + H0 |ψI (t)i + e ~ H0 t Hi (t) e− ~ H0 t |ψI (t)i

= HiI (t) |ψI (t)i

avendo definito l’Hamiltoniana di interazione in rappresentazione di interazione HiI (t) (e in


generale un qualsiasi operatore in rappresentazione di interazione) attraverso la trasformazione
i i
HiI (t) = e ~ H0 t Hi (t) e− ~ H0 t (notiamo che a differenza dell’Hamiltoniana di interazione Hi (t),
che in generale non commuta con H0 e quindi è diversa in rappresentazione di Schroedinger e
di interazione, l’Hamiltoniana H0 è la stessa nelle due rappresentazioni).
Quindi, in conclusione, il vettore di stato in rappresentazione di interazione evolve con la sola
Hamiltoniana di interazione HiI (t).
A differenza delle rappresentazioni di Schroedinger e di Heisenberg, dove o solo i vettori di
stato o solo gli operatori evolvono nel tempo, in rappresentazione di interazione evolvono sia
i vettori di stato che gli operatori. Questi ultimi evolvono attraverso la sola Hamiltoniana
H0 . Infatti si ricava facilmente per un generico osservabile in rappresentazione di interazione

196
i i
OI (t) = e ~ H0 t Os (t) e− ~ H0 t :

d i i i
OI (t) = H0 OI (t) − OI (t)H0 = [H0 , OI (t)]
dt ~ ~ ~

La rappresentazione di interazione si riduce chiaramente a quella di Heisenberg per Hi = 0.


Nell’approccio perturbativo si assume formalmente che la perturbazione Hi (t) → 0 per
t → ±∞, ma di fatto questo significa fisicamente che la perturbazione inizia a manifestarsi a un
tempo assegnato. L’equazione differenziale per l’evoluzione temporale di |ψI (t)i si può riscrivere
sotto forma di equazione integrale come:

Z t
i
|ψI (t)i = |ψI (−∞)i − HiI (t1 )|ψI (t1 )i dt1
~ −∞

dove |ψI (−∞)i è uno stato assegnato, generalmente autostato di H0 e comunque a un tempo
nel quale Hi è supposta nulla.
L’espressione in forma integrale per |ψI (t)i ha il vantaggio di poter essere iterata, fornendo in tal
modo la soluzione in termini di uno sviluppo perturbativo in quanto ad ogni iterazione compare
una potenza crescente di HiI (t). Ad esempio, al secondo ordine si ottiene:

t
i t1
 Z Z 
i
|ψI (t)i = |ψI (−∞)i − |ψI (−∞)i − dt1 HiI (t1 )
I
dt2 Hi (t2 )|ψI (t2 )i
~ −∞ ~ −∞
 2 Z t
i t
Z t1
−i
Z
I
= |ψI (−∞)i − dt1 Hi (t1 )|ψI (−∞)i + dt1 dt2 HiI (t1 )HiI (t2 )|ψI (t2 )i
~ −∞ ~ −∞ −∞

Sottolineiamo che in generale HiI (t) non commuta a tempi diversi per cui l’ordine temporale
dei vari termini è importante e si hanno tempi decrescenti da sinistra verso destra. Iterando, il
termine n-esimo della somma conterrà:
 n Z t t1 tn−1
−i
Z Z
dt1 dt2 ... dtn HiI (t1 )HiI (t2 )...HiI (tn )
~ −∞ −∞ −∞

A questo punto introduciamo il prodotto T -ordinato:

T HiI (t1 )HiI (t2 ) = θ(t1 − t2 ) HiI (t1 )HiI (t2 ) + θ(t2 − t1 )HiI (t2 )HiI (t1 )


che si generalizza al caso di più termini nel prodotto e per il quale si può dimostrare che vale:

Z t Z t1 Z tn−1
dt1 dt2 ... dtn HiI (t1 )HiI (t2 )...HiI (tn )
−∞ −∞ −∞
Z t Z t Z t
1
dtn T HiI (t1 )HiI (t2 )...HiI (tn )
 
= dt1 dt2 ...
n! −∞ −∞ −∞

197
per cui in definitiva si può scrivere:

∞ 
!
−i n 1 t
X  Z Z t Z t
 I I I

|ψI (t)i = 1+ dt1 dt2 ... dtn T Hi (t1 )Hi (t2 )...Hi (tn ) |ψI (−∞)i
~ n! −∞ −∞ −∞
n=1
i t
 Z 
I
 −~ dτ Hi (τ ) 
≡ T
 e −∞  |ψI (−∞)i

Lo sviluppo ottenuto (serie di Dyson) contiene quindi tutti gli ordini perturbativi in potenze
di HiI e fornisce l’espressione per l’operatore di evoluzione in rappresentazione di interazione.
Tuttavia a noi per ora interessa soltanto ritrovare l’ampiezza di transizione al primo ordine
perturbativo tra autostati di H0 . A questo scopo assumiamo (senza addentrarci in dettagli
formali) che lo stato assegnato a t = −∞ sia di fatto uno stato iniziale |φi i assegnato, a un
tempo iniziale assegnato (formalmente possiamo lasciare t = −∞ o rinominarlo ti ), e che sia
autostato di H0 con autovalore Ei . Per ottenere l’ampiezza di transizione a un tempo generico t
verso uno stato finale |φf i, anch’esso autostato di H0 con autovalore Ef , basta quindi proiettare
i primi due termini dello sviluppo di |ψI (t)i su |φf i, ovvero:

Z t
i
hφf |ψI (t)i = hφf |φi i − hφf |HiI (τ )|φi i dτ + ....
~ −∞
Z t
i i i
= δf i − hφf |e ~ H0 τ Hi (τ )e− ~ H0 τ |φi i dτ + ....
~ −∞
Z t
i
= δf i − ei(ωf − ωi )τ hφf |Hi (τ )|φi i dτ + ....
~ −∞
(0) (1)
= af i (t) + af i (t) + ...

dove abbiamo tenuto conto del fatto che al primo ordine non c’è ordinamento temporale e abbia-
mo riutilizzato il passaggio tra l’Hamiltoniana di interazione in rappresentazione di Schroedinger
e di interazione.
Si ritrova cosı̀ la formula al primo ordine per l’ampiezza di transizione ottenuta in precedenza
con l’altra derivazione. A questo proposito, se sono assegnati gli autostati di H0 (supposta con
spettro discreto) H0 |un i = En |un i e si introduce la rappresentazione di interazione come:

i
− H0 t
|ψs (t)i = e ~ |ψI (t)i
i
X − H0 t
= |un ihun |e ~ |ψI (t)i
n

e−iωn t hun |ψI (t)i |un i


X
=
n

198
e−iωn t an (t) |un i
X
= (7.2)
n

si ritrova l’espansione utilizzata in molti testi per introdurre la teoria delle perturbazioni dipen-
dente dal tempo. Tuttavia spesso non viene detto esplicitamente che le ampiezze an (t) sono
appunto la proiezione dello stato |ψI (t)i su autostati di H0 , ovvero che la scrittura dello stato
in rappresentazione di Schroedinger nell’ultima linea di eq.(7.2) equivale di fatto a utilizzare la
rappresentazione di interazione per le ampiezze an (t).

7.1.1 Perturbazione periodica

Consideriamo il caso di perturbazione periodica con frequenza ω, a partire da un instante


assegnato t = 0:
e−iωt θ(t) + c.c.
 
H1 (t) = H1

L’ampiezza al primo ordine tra uno stato iniziale |ii e uno stato finale |f i risulta essere:

Z t 0
1
hf |H1 |ii ei(ωf i − ω)t dt0 + c.c.
h i
(1)
af i (t) =
i~ 0

ei(ωf i − ω)t − 1
" #
1
= hf |H1 |ii + c.c.
i~ i(ωf i − ω)

Prendendo il modulo quadro della precedente espressione si capisce dal denominatore che sarà
dominante il termine per il quale ωf i ' ±ω e se prendiamo ad esempio il caso ωf i ' ω vediamo
che questo implica
Ef ' Ei + ~ω

ovvero si descrive l’assorbimento di energia del sistema dal campo esterno che induce una tran-
sizione verso uno stato di energia più alta (assorbimento stimolato), mentre nel caso opposto
ωf i + ω ' 0 si ha Ef ' Ei − ~ω ovvero emissione stimolata con diseccitazione del sistema che
subisce quindi una transizione verso uno stato di energia minore. Nel caso di assorbimento ad
esempio, sarà quindi sufficiente considerare solo il modulo quadro del primo termine scritto in
precedenza ossia:
 
(ωf i − ω)t
2
sin
(1) 4 2
Pf i (t) = |af i (t)|2 = 2 |hf |H1 |ii|2 (7.3)
~ (ωf i − ω)2

199
che mostra un picco alla risonanza ωf i = ω che all’aumentare di t diventa sempre più pronunciato
e in particolare (è una δ-successione che abbiamo già incontrato) per t → ∞ si comporta come:

4 π
Pi→f −→t→∞ 2
|hf |H1 |ii|2 δ(ωf i − ω) · t
~ 2

= |hf |H1 |ii|2 δ (Ef − Ei − ~ω) · t
~

Si definisce quindi la probabiltà di transizione per unità di tempo:

Pf i 2π
wf i = = |hf |H1 |ii|2 δ (Ef − Ei − ~ω)
t ~

che in generale entrerà in determinate grandezze fisiche “sommando” (integrando) sui possibili
stati finali e quindi selezionando appunto stati con energia vincolata dalla conservazione dell’e-
nergia tra sistema e campo esterno.

7.1.2 Perturbazione costante

È interessante considerare il caso di una perturbazione costante agente per un tempo finito t
come limite del caso precedente ponendo ω = 0. Riprendendo l’espressione in eq.(7.3) e ponendo
ω = 0 si ottiene:  
2 ωf i t
sin
(1) 4 2
Pf i (t) = |af i (t)|2 = |hf |H1 |ii|2
~2 ωf2i

Disegnandone il grafico in funzione di ωf i si vede che la probabilità è concentrata nel lobo



centrale attorno a ωf i = 0. La distanza dal primo zero a ωf i = fornisce quindi una stima
t
dell’incertezza sull’energia:
2π~
(∆E) ∼ ~(∆ωf i ) ∼
t

ovvero
∆E · ∆t ∼ h

e la perturbazione costante può essere quindi anche considerata per descrivere un processo di
misura per un tempo t dell’energia del sistema. Si vede quindi che idealmente la misura dovrebbe
durare un tempo infinito per fornire il risultato esatto Ei .
Ci sarebbero molti approfondimenti ovviamente e resta ad esempio fuori il caso di perturbazione
dipendente dal tempo “lenta” detta adiabatica, spesso trascurata in molti testi ma di grande
interesse. Come detto all’inizio di questi appunti, queste sono note introduttive che non hanno
pretesa di essere esaurienti sugli argomenti presentati.

200
Bibliografia

[1] S.Forte, L.Rottoli: “Fisica Quantistica”, Zanichelli.

[2] R. Shankar: “Principles of Quantum Mechanics”, Springer.

[3] J.J. Sakurai, J.Napolitano: “Meccanica Quantistica Moderna”, Zanichelli.

[4] Andate in Biblioteca!

201

Potrebbero piacerti anche