Appunti MQ
Appunti MQ
Primo Modulo
Giulio Pettini
1
Indice
Introduzione 6
2
1.4 Esperimenti di Stern-Gerlach in sequenza e Doppia fenditura: Verso i Postulati
della Meccanica Quantistica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
1.4.1 Esperimento di Stern-Gerlach . . . . . . . . . . . . . . . . . . . . . . . . . 49
1.4.2 Esperimenti di Stern-Gerlach in sequenza - (Sakurai-Napolitano) . . . . . 51
1.4.3 Esperimento della doppia fenditura (double slit experiment) . . . . . . . . 54
1.5 Esperienze e ritorno ai postulati . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
1.5.1 Stern-Gerlach in sequenza . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
1.5.2 Prodotto delle indeterminazioni di due osservabili non compatibili . . . . 58
1.5.3 Doppia fenditura . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
1.6 Ulteriore discussione dei postulati . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
1.6.1 Evoluzione temporale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
1.6.2 Operatore impulso e traslazioni . . . . . . . . . . . . . . . . . . . . . . . . 64
1.6.3 Pacchetto minimizzante ∆x̂ · ∆p̂ . . . . . . . . . . . . . . . . . . . . . . . 66
1.6.4 Stati stazionari . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
1.7 Rappresentazione di Heisenberg . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70
1.7.1 Leggi del moto in HP . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72
1.7.2 Leggi di conservazione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72
1.7.3 Teorema di Ehrenfest . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73
3
2.5.2 Buca infinita asimmetrica di larghezza a . . . . . . . . . . . . . . . . . . . 104
2.5.3 Buca quadrata simmetrica di altezza finita . . . . . . . . . . . . . . . . . 109
2.5.4 Buca di potenziale a δ di Dirac . . . . . . . . . . . . . . . . . . . . . . . . 114
2.6 Oscillatore armonico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 115
2.6.1 Soluzione dell’oscillatore armonico risolvendo l’equazione differenziale . . 115
2.6.2 Soluzione algebrica dell’oscillatore armonico . . . . . . . . . . . . . . . . . 120
2.6.3 Operatori x̂, x̂2 , x̂3 ed elementi diagonali di x̂4 . . . . . . . . . . . . . . . . 125
2.6.4 Oscillatore shiftato . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 126
2.6.5 Ulteriori osservazioni . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 127
2.6.6 Oscillatore fermionico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 129
2.6.7 Stati coerenti dell’oscillatore armonico . . . . . . . . . . . . . . . . . . . . 130
4
5.3.3 Spinori e precessione dello spin . . . . . . . . . . . . . . . . . . . . . . . . 180
5.4 Composizione di momenti angolari . . . . . . . . . . . . . . . . . . . . . . . . . . 182
5.4.1 Coefficienti di Clebsch-Gordan . . . . . . . . . . . . . . . . . . . . . . . . 185
Bibliografia 201
5
Introduzione
Queste note contengono argomenti del primo modulo del Corso di Meccanica Quantistica per
gli studenti del Corso di Studi in Fisica e Astrofisica dell’Università di Firenze.
Sono state elaborate a partire da lezioni ed esercizi, nel corso degli anni, in particolare del Prof.
Marco Ademollo del quale seguii le lezioni e sono stato poi esercitatore e dei prof. Giorgio Longhi
e Roberto Casalbuoni, ai quali anche ho fatto esercitazioni.
Come libri di testo mi sono in parte appoggiato al libro dei Prof. Stefano Forte e Luca Rottoli
(che consiglio vivamente), in parte allo Shankar e anche ad altri testi.
Le esperienze di Stern-Gerlach in sequenza sono riprese dal libro di Sakurai-Napolitano e ci sono
comunque molti altri testi validi e interessanti.
Sono note sintetiche rielaborate in parte nel contenuto e in parte nell’ordine di presentazione de-
gli argomenti dal sottoscritto con l’intento di facilitare l’ingresso in questa materia agli studenti
del terzo anno di Fisica. Naturalmente sono incomplete in molti argomenti e comunque troppo
sintetiche e non possono sostituire lo studio eseguito consultando libri. L’intento è quindi di
fornire del materiale di supporto didattico.
6
Capitolo 1
Cominciamo subito con l’enunciato dei Postulati, seguiti da una parte sulla notazione di Dirac
e di richiami di algebra lineare per prendere un pò di confidenza con il formalismo che sarà
utilizzato nel corso. Quindi un riassunto sulla crisi della fisica classica della prima parte del
secolo scorso. A seguire due esperienze che servono ad accettare almeno in parte i postulati.
Infine ritorneremo ai postulati stessi e alle principali conseguenze implicate.
Enunciamo subito i Postulati della Meccanica Quantistica mettendoli a confronto con le ricette
classiche. Cercheremo quindi di giustificarli partendo dalla crisi della fisica classica e poi soprat-
tutto appoggiandoci a due esperienze. Potrete verificare, andando su vari testi, che i postulati
non sono quasi mai presentati in modo identico sia nel loro numero che nell’enunciato. È im-
portante quindi mettersi in condizione, studiando la materia, di comprendere che il contenuto
formale e fisico è sempre lo stesso. Naturalmente ciò richiede di tornare più volte ad analizzarli.
In Meccanica Classica (MC) lo stato di una particella ad un certo istante è specificato dalle
variabili ~x(t) , p~(t), ovvero da un punto dello spazio delle fasi.
In MQ:
Postulato I
Allo stato di un sistema quantistico (a rigore isolato - cit. Nielsen) è associato, ad ogni istante,
un vettore (che sarà indicato con il simbolo |ψ(t)i del quale parleremo presto) di uno spazio di
7
Hilbert.
In MC ogni variabile dinamica osservabile ω è una funzione di ~x e p~, ovvero ω = ω(~x, p~).
In MQ:
Postulato II
Ad ogni osservabile fisica Ω è associato un operatore lineare hermitiano (quindi a esempio anche
a ~x e p~ stessi) (una formulazione equivalente è che ai risultati possibili di misure eseguite su un
sistema sono associati stati esclusivi ed esaustivi che costituiscono una base ortonormale).
In MC se la particella è nello stato specificato da ~x e p~, la misura di ω darà il valore ω(~x, p~) e
lo stato del sistema resterà inalterato dopo la misura.
In MQ:
Postulato III
Il risultato di una misura di una osservabile Ω sarà uno degli autovalori ωi (discreti o continui
ma comunque reali) dell’operatore associato all’osservabile Ω stessa con probabilità data dal
modulo quadro della proiezione del vettore di stato sull’autovettore (o nell’autospazio) relativo
all’autovalore ωi . La misura proietta inoltre il sistema nel sottospazio relativo all’autovalore
risultato della misura (collasso del vettore di stato).
∂H ∂H
In MC le variabili di stato evolvono secondo le equazioni di Hamilton ẋi = , ṗi = − .
∂pi ∂qi
In MQ:
Postulato IV
Il vettore di stato evolve in accordo all’equazione di Schroedinger
∂
i~ |ψ(t)i = H|ψ(t)i
∂t
dove ~ è legata alla costante di Planck h della quale parleremo tra poco e H l’operatore Hamil-
toniana ottenuto dal principio di corrispondenza (enunciato). Vedremo che questo postulato,
per sistemi isolati, può essere riformulato in termini del teorema di Stone richiedendo che l’evo-
luzione temporale sia unitaria. Tuttavia, anche se tratteremo prevalentemente sistemi isolati, ci
occuperemo anche di sistemi chiusi che quindi possono scambiare energia con un sistema esterno.
In questi casi l’Hamiltoniana può dipendere dal tempo e le due formulazioni sono equivalenti ed
equivalenti a postulare la validità dell’equazione di Schroedinger anche per Hamiltoniane dipen-
denti dal tempo.
8
Infine un postulato della MQ che vedremo più in avanti:
Postulato V
Lo spazio di Hilbert di sistemi composti è il prodotto diretto (prodotto tensoriale) degli spazi
dei singoli sottosistemi.
Cercheremo di mostrare come si arriva a comprendere la necessità della descrizione implicita nei
Postulati e ovviamente le implicazioni fisiche e formali.
Prima però è d’obbligo, almeno sinteticamente, impossessarsi degli oggetti e degli strumenti di
calcolo che serviranno nel seguito. Poi sarà doveroso cercare di riassumere alcuni fatti salienti
che misero in crisi la fisica classica e che fecero emergere la necessità di cambiare prospettiva e
contemporaneamente anche delimitare il campo di applicabilità del formalismo che adotteremo
nel corso (non i principi-Postulati della MQ che per quanto ne sappiamo restano sempre validi)
legati essenzialmente ai regimi di energie dei quali ci interesseremo nel corso. Infine parleremo
di due esperienze che servono ad accettare meglio l’impianto descritto dai Postulati e quindi
ritorneremo a questi per discuterli avendo già una certa manualità con il formalismo.
Per introdurre il formalismo dovuto a Dirac che sarà usato nel seguito, e in particolare il vettore
di stato che sarà indicato con |ψi, diamo per acquisita la nozione di vettore, matrice e di spazio
vettoriale. Sia ~v un vettore a esempio di Rn . Se non avessimo specificato che sta in Rn avremmo
comunque capito che si trattava di un vettore! (lo stesso varrà per |ψi che indicherà il vettore
di stato anche senza conoscere tutto dello spazio vettoriale nel quale vive). Sappiamo anche
che data una base ad esempio ortonormale (a noi interesseranno quelle ortonormali per ragioni
chiare in seguito), al vettore si può associare una n−pla con le sue componenti mettendole in
una matrice di n righe per una colonna ossia in un vettore colonna e che queste componenti
sono ottenibili dal prodotto scalare di ~v sui vettori (versori) base. Il prodotto scalare si esegue
tramite il prodotto della riga contenente le componenti di un vettore di base saturata con il
vettore colonna delle componenti di ~v (che nella base canonica è triviale). Quindi il vettore
originario in Rn si può espandere su una base ~v = ni=1 vi~ei con vi = ~v · ~ei l’usuale prodotto
P
scalare in Rn . Naturalmente vi sono infinite basi ortonormali ottenibili ruotando una base data.
Con questa brevissima e banale premessa introduciamo subito il formalismo, dovuto a Dirac, dei
ket (e dei bra). Questo formalismo permette, come vedremo, di manipolare in modo efficiente
le espressioni di interesse in MQ. Prima di tutto diciamo che in MQ ci interessaranno gli spazi
9
di Hilbert (anche Rn lo è per rassicurarvi). Uno spazio di Hilbert è uno spazio vettoriale (in
generale complesso) normato e completo (spazio di Banach) nel quale la norma è indotta dal
prodotto scalare. Vedrete che avremo a che fare di volta in volta a seconda dei casi con spazi
(in generale complessi) numerabili di dimensione finita o infinita e a volte con basi che hanno la
potenza del continuo. Tuttavia potrete rapidamente entrare nel formalismo se generalizzerete
semplicemente ciò che conoscete e che scrivereste in Rn e le manipolazioni che farete per risolvere
certi problemi nelle applicazioni saranno sempre concettualmente le stesse indipendentemente
da quale di questi casi vi troverete ad affrontare.
1.2.1 Kets
A questo punto diciamo che di qui in avanti per indicare un vettore di uno spazio di Hilbert
non precisato (se finito o infinito dimensionale e se con basi continue o discrete ecc) useremo il
simbolo |ψi, che si chiama ket, appunto vettore di uno spazio di Hilbert. Il prodotto scalare, e
quindi a esempio la norma quadrata del ket |ψi, si rappresenta affiancando a sinistra del ket il
suo corrispondente bra hψ| (elemento del duale). Ovvero, il prodotto scalare sarà indicato con
il simbolo hψ|ψi (da cui il nome bra-ket dall’inglese bracket-parentesi). Ad esempio, se siamo
in C n e abbiamo scelto una certa base (ricordiamo che ci interessano quelle ortonormali), il
ket sarà associato a un vettore colonna delle n componenti complesse e il bra sarà associato
al vettore riga ottenuto trasponendo il vettore colonna e prendendo il complesso coniugato di
ciascuna componente. Introducendo la coniugazione hermitiana † che corrisponde per le matrici
a prendere il trasposto coniugato si ha che hψ| = |ψi† .
In tal modo l’usuale prodotto righe per colonne rappresenterà il prodotto scalare.
Il formalismo di Dirac è agile e compatto e molto pratico a esempio perchè è indipendente dalle
caratteristiche specifiche dello spazio di Hilbert in considerazione, mentre per i calcoli di volta
in volta utilizzeremo appunto gli usuali vettori colonna e riga o anche le componenti rispetto a
una certa base dello spazio (quindi numeri complessi o ancora funzioni).
Elenchiamo quindi qualche proprietà, dati due ket |ψ1 i e |ψ2 i, del prodotto scalare:
1) - hψ1 |ψ2 i ∈ C
2) - hψ1 |ψ2 i = hψ2 |ψ1 i∗ (hermitianità)
3) - hψ|ψi ≥ 0 (per l’hermitianità è reale)
10
4) - se |φi = a|φ1 i + b|φ2 i segue hψ|φi = ahψ|φ1 i + bhψ|φ2 i (linearità)
Dalla proprietà 2) e 4) si vede che:
hφ|ψi = (ahψ|φ1 i + bhψ|φ2 i)∗ = a∗ hψ|φ1 i∗ + b∗ hψ|φ2 i∗ = a∗ hφ1 |ψi + b∗ hφ2 |ψi
con
ci = hei |ψi (1.3)
ossia come detto il prodotto scalare del vettore assegnato sui vettori base. A questo punto
riscriviamo quindi l’eq.(1.2) con la (1.3)
X
|ψi = |ei ihei |ψi (1.4)
i
dove abbiamo messo volutamente a destra l’espressione dei ci per una ragione evidente tra poco.
Vediamo che ne consegue la cosiddetta relazione di completezza (o risoluzione dell’identità)
X
|ei ihei | = I (1.5)
i
Adesso chiariamo perchè abbiamo messo a destra i ci ossia per far comparire i bra alla destra
dei ket, infatti dati due ket |φi e |ψi abbiamo visto che il prodotto hφ|ψi è uno scalare (come già
detto rappresentandolo su una base con il prodotto di un vettore riga per uno colonna), mentre
|φihψ| è un operatore, (pensatelo rappresentato su una data base dal prodotto delle componenti
11
di un vettore colonna per uno riga e quindi da una matrice). Quindi la relazione di completezza,
che esprime il fatto che qualunque vettore dello spazio può essere espanso sulla base |ei i si può
P
riassumere con il fatto che la somma dei proiettori |ei ihei | ≡ i Πi = I è l’operatore identità
come si può esplicitamente verificare a esempio con la base canonica in Rn e in generale con
la rappresentazione su una base (torneremo sui proiettori ma intanto notiamo che cosı̀ definiti
sono idempotenti e ortogonali).
Per la norma quadrata di |ψi si ha quindi, ad esempio inserendo la relazione di completezza (che
equivale ad avere scelto un dato spazio di Hilbert e per sua base |ei i):
X X X
hψ|ψi = hψ|ei ihei |ψi = c∗i ci = |ci |2
i i i
Mentre per il prodotto scalare tra due ket diversi |ψi e |φi avremo:
X X
hψ|φi = hψ|ei ihei |φi = c∗i di
i i
XX X XX X
hψ|φi = hψ|ei ihei |ej ihej |φi = c∗i dj hei |ej i = c∗i dj δij = c∗i di
i j i i j i
Abbiamo detto che un oggetto dato dal prodotto |φihψ| è un operatore, quindi diciamo due
parole anche sugli operatori lineari, che sono applicazioni dallo spazio vettoriale in sè, come si
vede facendolo agire su un vettore (ket) dello spazio.
Un operatore A : V → V è lineare se
h i
A α|ψi + β|φi = αA|ψi + βA|φi
h i
hψ|α + hφ|β A = αhψ|A + βhφ|A
0 0
X X X
|ψ i = ci |ei i = A|ψi = |ei ihei |A|ej ihej |ψi = Aij cj |ei i
i i,j i,j
12
0 P
e quindi ci = j Aij cj ovvero si vede che con l’usuale prodotto righe per colonne Aij = hei |A|ej i
sono gli elementi di matrice dell’operatore A sulla base |ei i. In effetti questo è un fatto generale,
ossia ad ogni operatore lineare si può associare una matrice in una data base come visto adesso.
P P
E in effetti l’operatore stesso può essere scritto A = i,j |ei ihei |A|ej ihej | = i,j Aij |ei ihej |:
Notiamo subito, e ci torneremo, che se la base |ei i fosse composta da autovettori di A ovvero
tali che A|ei i = ai |ei i si otterrebbe:
X X X X
A= |ei ihei |A|ej ihej | = aj |ei ihei |ej ihej | = ai |ei ihei | = a i ΠA
i (1.6)
i,j i,j i i
ovvero la decomposizione spettrale di A in termini della somma degli autovalori per i proiettori
di A stesso, costruiti con i suoi autovettori.
Vediamo l’azione successiva di due operatori, con algebra:
i) - A1 A2 |ψi = A1 (A2 |ψi)
ii) - (A1 + A2 ) |ψi = A1 |ψi + A2 |ψi
iii) - (αA) |ψi = α (A|ψi) ; α ∈ C.
Si ha:
X X
AB|ψi = |ei ihei |A|ej ihej |B|ek ihek |ψi = Aij Bjk ck |ei i
ijk ijk
e l’identità di Jacobi
[A, [B, C]] + [C, [A, B]] + [B, [C, A]] = 0
Facciamo un esempio di un operatore e della sua rappresentazione come matrice: sia Rx (π/2)
l’operatore che ruota i vettori di R3 attorno all’asse delle x di un angolo pari a π/2 in senso
13
antiorario. Prendendo una terna sinistrorsa (î, ĵ, k̂), vediamo l’azione sui vettori base:
Rx (π/2)î = î
Rx (π/2)ĵ = k̂
Rx (π/2)k̂ = −ĵ
Allora ad esempio Rx (π/2)(ĵ + k̂) = Rx (π/2)ĵ + Rx (π/2)k̂ = k̂ − ĵ. È anche facile, se i versori
sono quelli della base canonica, associare all’operatore Rx (π/2), la matrice:
1 0 0
Rx (π/2) = 0 0 −1
0 1 0
ed è anche facile rendersi conto del viceversa, ovvero data la matrice riscrivere l’azione dell’ope-
ratore sui vettori base ovvero l’eq. (1.7).
Veniamo adesso agli operatori hermitiani (o autoaggiunti) nominati nel secondo postulato e che,
come vedremo, sono quelli che interessano in MQ (salvo recenti sviluppi dei quali si potrebbe
parlare in un corso avanzato).
0
Intanto diciamo che ∀ A : A|ψi = |ψ i
0
l’aggiunto (o hermitiano coniugato) A† è per definizione tale che hψ|A† = hψ |.
Determiniamo la relazione tra gli elementi di matrice di A e A† :
0
hφ|A|ψi = hφ|ψ i
e quindi
0 0
hψ|A† |φi = hψ |φi = hφ|ψ i∗ = hφ|A|ψi∗ = hAψ|φi (1.7)
hAψ|φi = hψ|A|φi
Se |φi e |ψi sono vettori di una base numerabile si ottiene che l’operazione di coniugazione
hermitiana per una matrice si ottiene prendendo la trasposta coniugata. Infatti dalla eq.(1.7) si
14
ha:
hei |A† |ej i = hej |A|ei i∗ (1.8)
e quindi A†ij = A∗ji e una matrice è hermitiana se Aij = A∗ji cioè simmetrica nella parte reale e
antisimmetrica in quella immaginaria. Si dice antihermitiana se A∗ij = −Aji (o semplicemente
A† = A per una matrice hermitiana e A† = −A se antihermitiana).
Vediamo che un operatore (qui lo vediamo per uno spazio separabile, altrimenti la condizione è
un pò più complicata da dimostrare) è hermitiano sse ha autovalori reali e autovettori ortogo-
nali (in particolare l’insieme degli autovettori normalizzati possono essere scelti come una base
ortonormale completa dello spazio). Vediamo che la condizione è sufficiente, per ipotesi quindi:
Aij |aj i = λi δij |aj i = λi |ai i con λ∗j = λj con hai |aj i = δij e
P
i |ai ihai | = I.
(in questo caso come già visto con l’eq. (1.6)la decomposizione spettrale di A). Ne segue:
15
e sottraendo (λi − λj ) hai |aj i = 0 e quindi se λi 6= λj segue hai |aj i = 0.
In effetti c’è un teorema che afferma che ∀ A = A† ∈ V n (C) esiste almeno una base dello spazio
che consiste dei suoi autovettori ortonormali. In questa base A è diagonale con gli autovalori
come elementi. Come abbiamo visto la dimostrazione è immediata in assenza di degenerazione,
mentre in presenza di degenerazione, mettiamo ad esempio con due autovalori degeneri λi = λj ,
si ha uno spazio bidimensionale degenere nel quale qualunque combinazione lineare degli auto-
vettori |ai i e |aj i è ancora autovettore, ossia in questo sottospazio l’operatore è rappresentato
dalla matrice identità e quindi qualunque base ortonormale del sottospazio è di autovettori di A.
Naturalmente una volta che si ha una base ortogonale si può normalizzare e renderla ortonor-
male. Le basi ortonormali (cosı̀ come la normalizzazione del vettore di stato) servono a rendere
più agevole il calcolo delle probabilità che si sommano ad uno.
Vediamo anche come si esegue l’aggiunto del prodotto di due operatori:
h i∗ ∗
dato C = AB → C † = (AB)T = B T AT = B † A† .
D’altra parte, per definizione: (C|ψi)† = |Cψi† = hψ|C † e quindi:
(AB|ψi)† = |ABψi† = hABψ| = hBψ|A† = hψ|B † A† = hψ|B † A†
A + A† A − A†
A = + = AH + AA
2 2
AH = A†H ; AA = −A†A
{A, B} = AB + BC
1 1
AB = [A, B] + {A, B}
2 2
16
1.2.5 Funzioni di operatori
Funzioni di operatori: queste sono definite formalmente dallo sviluppo in serie di potenze. Noi
avremo a che fare quasi come sempre con operatori hermitiani, che sono sempre diagonalizzabili
mediante trasformazioni unitarie (delle quali parleremo tra poco) e una volta in forma diago-
nale verrà la matrice con elementi diagonali dati dalla funzione dell’autovalore. Come esempio
vediamo
ω1 0
A=
0 ω2
e la funzione
∞
An eω1 0
eA ≡
X
=
n! 0 eω2
n=0
Ricordiamo adesso gli aspetti fondamentali riguardo alle trasformazioni unitarie e alla diago-
nalizzazione di matrici hermitiane (queste appunto sono sempre diagonalizzabili tramite una
trasformazione unitaria). Le trasformazioni unitarie generalizzano nel campo degli operatori (e
delle matrici) i numeri complessi di modulo uno (ovvero z = eiθ → z z ∗ = 1) e in quello
delle trasformazioni le rotazioni nello spazio reale. Sono importanti essenzialmente perchè i
cambiamenti di base in uno spazio di Hilbert sono realizzati da trasformazioni unitarie e non
cambiano il prodotto scalare (quindi a esempio la norma di un vettore ma anche il valor medio
di un’operatore).
Anticipiamo che il vettore di stato descrivente un sistema fisico lo normalizzeremo ad uno do-
vendo rappresentare fisicamente la probabilità totale.
0
Una trasformazione unitaria U soddisfa U U † = I = U † U . Allora se hψ|ψi = 1 e |ψ i = U |ψi
segue che
0 0
hψ |ψ i = hψ|U † U |ψi = I
17
nel caso di matrici reali le trasformazioni unitarie si riducono a quelle ortogonali per le quali
OT O = OOT = I.
Vediamo un cambiamento di base: un generico ket |ψi può essere espanso su basi diverse, a
esempio
X X
|ψi = |ei ihei |ψi = ci |ei i
i i
0 0 0 0
X X
|ψi = |ei ihei |ψi = ci |ei i
i i
Quindi
0 0 0
X X
ci = hei |ψi = hei |ej ihej |ψi ≡ Uij cj
j j
ovvero
0
Uij = hei |ej i
0
X
U= |ek ihek | (1.9)
k
Infatti
0 0 0
X X
Uij = hei |U |ej i = hei |ek ihek |ej i = δik hek |ej i = hei |ej i
k k
0 0 0
X X 0 0
Uij = hei |ek ihek |ej i = hei |ek iδjk = hei |ej i
k k
0
X
U† = |ek ihek |
k
0 0 0 0 0 0
U †U =
P P P P P
k j |ek ihek |ej ihej | = k j |ek ihej |δkj = j |ej ihej | = I
e naturalmente anche U U † con la completezza stavolta della base |ei i.
Teorema di Stone
Essenzialmente dice che un gruppo continuo a un parametro di operatori unitari in uno spazio
U (t) − I dU (t)
di Hilbert ammette il limt→0 |ψi = −i |ψi = H|ψi
it dt
con H † = H e |ψi un ket dello spazio e U = eitH .
18
Questo ci servirà anche per ridiscutere il quarto postulato. Per adesso sottolineiamo che dati
U, A : U = eiA → U † U = I sse A† = A.
Il prodotto di due operatori unitari è unitario: (U1 U2 )† = U2† U1† = U2−1 U1−1 = (U1 U2 )−1 .
Le trasformazioni unitarie, se eseguite sia sugli stati che sugli operatori, conservano i valori medi
(lo vedremo in seguito a proposito di rappresentazioni unitariamente equivalenti):
0 0 0
hψ|A|ψi = hψ|U † U AU † U |ψi = hψ |A |ψ i
0
con A = U AU † .
Ci interessano gli operatori hermitiani che hanno autovalori reali e autovettori ortogonali. Le
trasformazioni unitarie conservano traccia e determinante. Intanto ricordiamo che
P P
T r (AB) = ij Aij Bji = ij Bji Aij = T r (BA) (ciclicità).
0
Allora T rA = T r U AU † = T r U † U A = T rA
0
detA = det U AU † = detU detA detU † = det U † U detA = detA.
Gli operatori unitari in dimensione finita sono diagonalizzabili tramite trasformazioni unitarie
(sono operatori normali lo vedremo dopo).
Se pensiamo alle colonne di una matrice unitaria quadrata di ordine n come alle componenti di
n vettori, questi formano un set ortogonale. Infatti (dim):
†
X X
δij = hei |U † U |ej i = Uik Ukj = ∗
Uki Ukj
k k
∗(i) (j)
definendo vkj ≡ Ukj = δ ij = hv (i) |v (j) i e lo stesso per le righe.
P
si ha k vk vk
Un teorema afferma che gli autovalori di un operatore unitario sono della forma eiφ , con φ ∈ <,
ovvero numeri complessi unimodulari, e gli autovettori sono ortogonali.
Dimostrazione nel caso non degenere:
da cui 1 − λ∗j λi huj |ui i = 0 e ne segue che per i = j si trova |λi |2 = 1, mentre per i 6= j si
trova huj |ui i = 0.
Trasformazioni attive e passive sugli stati o sugli operatori. Dato un elemento di matrice:
0 0 0 0
hu|A|vi sotto una trasformazione unitaria cambia in hu |A|v i oppure in hu|A |vi con |u i = U |ui
19
0
(attiva) oppure A = U † AU (passiva).
Notiamo che se mettiamo insieme l’informazione che gli autovalori degli operatori unitari sono
unimodulari e il fatto che sono diagonalizzabili, si capisce anche che si può sempre mettere nella
forma esponenziale, infatti si può scrivere
La forma esponenziale insieme alla dipendenza continua dai parametri reali degli operatori uni-
tari consente di introdurre i gruppi di Lie e alcune osservabili, come impulso, energia e momento
angolare come generatori di trasformazioni sugli stati. Quando queste osservabili commutano
con l’Hamiltoniana sono quantità conservate e quindi sono associate a “buoni numeri quantici”.
La relazione tra simmetrie e leggi di conservazione vale in MQ come in MC e le simmetrie ve-
dremo che saranno realizzate quantisticamente (come lo erano classicamente) utilizzando regole
di commutazione.
n
X in H n X in
eiH
X
= = µ j Πj
n
n! n
n!
j
X X in µnj
eiµj Πj
X
= Πj =
n
n!
j j
in componenti:
X
(Aij − λδij ) vj = 0
j
20
che è un sistema lineare e omogeneo nelle vj e quindi per non avere la soluzione banale deve
essere det (A − λI) = 0. Espandendo si trova il polinomio caratteristico e le radici (in generale
complesse coniugate a coppie o reali, che se sono tutte distinte mostrano assenza di degene-
razione). Gli autovettori si trovano risolvendo l’equazione caratteristica scritta per le vj ed
eventualmente sono univocamente determinati in assenza di degenerazione e con la condizione
di normalizzazione j |vj |2 = 1.
P
Esempi:
(1) - l’identità I : ∀ |vi ∈ H è autovettore con autovalore uno.
0
(2) - Pv = |vihv| : ∀ |v i k |vi è autovettore con autovalore uno mentre quelli ortogonali a |vi lo
sono con autovalore nullo.
1 0 0
(3) - La matrice Rx (π/2) = 0 0 −1 ha autovalori λ1 = 1, λ2 = i, λ3 = −i. L’autovet-
0 1 0
eiϕ
tore generico con λ = 1 se lo vogliamo normalizzato ha la forma: |v1 i = 0 ; si trova
0
0 0
1 1
poi |v2 i = √ i ; |v3 i = √ −i .
2 2
1 1
cos θ sin θ
(4) - Consideriamo la matrice unitaria: V = con λ± = e±iθ e autovettori
− sin θ cos θ
1 1 1 1
|λ± i = √ , diagonalizzata da U = √1 . Notare che i vettori colonna
2 ±i 2 i −i
della matrice unitaria che diagonalizza V sono gli autovettori di V stessa. Questo è un fatto
generale:
U † AU = Ad
AU = U Ad
21
0 0 1 1
1
(5) - - La matrice A = 0 0 0 ha autovettori |λ1 = 1i ↔ √ 0 , |λ2 = 0i ↔
2
1 0 0 1
0 1
1
1 , |λ3 = −1i ↔ √ 0
2
0 −1
2 0 0
1
(6) - - La matrice A = 0 3 −1 ha λ = 2, 1, 1 quindi due autovalori degeneri e
2
0 −1 3
autovettori
0 1 2
1 1 1
|λ1 = 2i ↔ √ 1 , |λ2 = 1i ↔ √ 1 , |λ3 = 1i ↔ √ −1
2 3 6
−1 1 −1
4 1
(7) - - Esempio di matrice non diagonalizzabile A = con λ1 = λ2 = 3.
−1 2
1 a1 1
Si ha |λ1 i ↔ p 2 = √1
2a1 −a1 2 −1
L’equazione agli autovalori portava a1 = −b1 . Un altro vettore della stessa forma ortogonale
porterebbe l’equazione |a1 |2 = 0 ossia
il vettorenullo.
1 0 1
(8) - - Altro caso degenere: A = 0 2 0 con λ1 = 0, λ2 = λ3 = 2.
1 0 1
È una matrice hermitiana e ammette
autovettori ortogonali. Per il primo si trova senza pro-
1
1
blemi |λ1 = 0i ↔ √ 0 . Per λ2 = λ3 = 2 si trovano le equazioni per le componenti
2
−1
a2 , b2 , c2 dell’autovettore: a2 = c2 e b2 = indeterminato (ogni autovalore degenere elimina una
equazione).
a2
1
Quindi |λ2 = 2i ↔ p avendolo già normalizzato e notiamo che hλ1 |λ2 i = 0.
2 2
b2
2a2 + b2
a2
Si può scegliere arbitrariamente ladirezione
nel piano degenere ad esempio fissando il rapporto
1
1
b2 /a2 = 1 e cosı̀ |λ2 = 2i ↔ √ 1 , mentre il terzo autovettore dovrà essere della stessa
3
1
forma del secondo ma ortogonale a questo e sempre naturalmente normalizzato, per cui si trova
22
1
1
|λ3 = 2i ↔ √ −2 .
6
1
(9)- Oscillatori accoppiati
Un esempio classico di diagonalizzazione consiste nel trovare i modi normali di due oscillatori
accoppiati che si possono descrivere appunto come due oscillatori disaccoppiati con frequenze
differenti. Dalla figura si vedono due masse collegate da una molla e poi ciscuna a una parete
laterale tramite molle della stessa costante. Chiamando ξ1 = x1 − x10 ; ξ2 = x2 − x20 gli
spostamenti dalle posizioni di equilibrio si ha:
1 ˙2 ˙2 1 2 1 2 1
L = m ξ1 + ξ2 − k ξ1 − k ξ2 − k (ξ1 − ξ2 )2
2 2 2 2
1 ˙2 1 ˙2
= mξ + mξ − k ξ12 − k ξ22 + k ξ1 ξ2
2 1 2 2
ξ¨1 = −2 ω 2 ξ1 + ω 2 ξ2
ξ¨2 = −2 ω 2 ξ2 + ω 2 ξ1
¨
con ω 2 =k/m. Il sistema
può essere posto ~ 2 ξ~ e diagonalizzando
in formamatriciale: ξ~ = − Ω
2 −1 3 0 1
Ω2 = ω 2 si trova Ω2 D = ω 2 con autovettori √1 per λ = 1
−1 2 0 1 2 1
1 1 − ξ2
e √ per λ = 3 e quindi con le nuove coordinate η1 = ξ1√ e η2 =
ξ1 + ξ2
√
2 −1 2 2
il sistema di equazioni diventa ~η¨ + Ω2 ~η = 0 ovvero:
D
η̈1 + 3 ω 2 η1 = 0
η̈2 + ω 2 η2 = 0
√
ovvero due oscillatori disaccoppiati di frequenze ω− = 3ω e ω+ = ω corrispondenti a spo-
stamenti in direzioni opposte o concordi (vedi figura).
Vedremo che per definire completamente lo stato di un sistema si dovranno specificare tutti i nu-
meri quantici relativi a quantità conservate (osservabili che commutano con l’Hamiltoniana) e in
23
pratica questo (che in genere rimuoverà anche eventuali degenerazioni definendo completamente
la base) avrà a che fare con una “osservazione massima ” e dal punto di vista matematico
con la definizione del set massimale di operatori mutuamente commutanti. In pratica dato
che siamo interessati a operatori hermitiani partiamo dal vedere cosa succede se due operatori
hermitiani commutano.
T eorema: se A, B sono operatori hermitiani commutanti con [A, B] = 0 allora esiste una base
comune che li diagonalizza entrambi.
Partiamo dal caso di A con spettro di autovalori non degenere:
A|ai i = ai |ai i e data l’ipotesi A (B|ai i) = BA|ai i = ai (B|ai i) ; quindi dato che sempre per
ipotesi A non ha autovalori degeneri B|ai i ∝ |ai i ovvero B|ai i = bi |ai i e quindi |ai i fornisce
una base di autovettori comuni sia di A che di B ovvero diagonalizza entrambi gli operatori.
Caso degenere: se ad esempio è A ad avere spettro degenere, nella base dei suoi autostati B è
comunque diagonale a blocchi (sempre ovviamente sotto l’ipotesi che commutino) e può quindi
essere diagonalizzato nel sottospazio degenere da una matrice unitaria (di dimensione uguale a
quella del sottospazio degenere ovviamente) e dato che A nel sottospazio degenere è proporzio-
nale all’identità resta tale anche sotto la trasformazione unitaria.
L’argomento si generalizza a più operatori rappresentanti osservabili A, B, C, ... tutti mutuamen-
te commutanti perchè possono restare degenerazioni residue fino a quando non vengono rimosse
dall’aggiunta di un ulteriore operatore mutuamente commutante con gli altri. Il set di operatori
mutuamente commutanti che definisce univocamente la base comune di autostati (degenerazione
completamente assente) è detto set massimale e la misura di tutte le osservabili commutanti
(compatibili) è detta osservazione massima.
Esempio semplice:
2 0 0 3 0 0
A= 0 1 0 ; B= 0 0 4
0 0 1 0 4 0
1 1
|a1 i = 0 , a1 = 2 ; |b1 i = 0 ; b1 = 3
0 0
0 0
1
|a2 i = 1 , a2 = 1 ; |b2 i = √ 1 ; b2 = 4
2
0 1
24
0 0
1
|a3 i = 0 , a3 = 1 ; |b3 i = √ 1 ; b3 = −4
2
1 −1
25
1 1
1 1
conclusione si ha |λB = 0λA = 2i ↔ √ 1 , e |λB = 0λ = −1i ↔ √ −2 ,
3 6
−1 −1
e si nota che quest’ultimo differisce per un segno da quello trovato diagonalizzando A. D’altra
parte come abbiamo detto una fase moltiplicativa del vettore di stato non modifica la fisica.
Terminiamo dicendo che in uno spazio vettoriale finito dimensionale è sempre possibile trova-
re un set massimale di operatori mutuamente commutanti A, B, C, ... con autovettori |a, b, c, ...i.
Condizione necessaria e sufficiente perchè una matrice A sia diagonalizzabile tramite una tra-
sformazione unitaria è che sia normale ovvero che [A, A† ] = 0.
Un generico operatore si può scrivere nella forma
A = B +iC
A + A† A − A†
B= ; C=
2 2i
Per definizione:
dA(λ) A(λ + ∆λ) − A(λ)
= lim
dλ ∆λ→0 ∆λ
26
Per esempio A(λ) = eλB :
∞ ∞ ∞
deλB d X λn n X λn−1 X λn
= B = Bn = B n+1
dλ dλ n! (n − 1)! n!
n=0 n=1 n=0
(nell’ultimo passaggio si evidenzia che dato che A = f (B) e in generale [f (B), B] = 0 l’ordine
degli operatori A(λ) e B in questo caso è intercambiabile).
Nel caso di un singolo operatore non c’è gran differenza con il caso numerico ad esempio:
eλB eγB = e(λ + γ)B mentre
d λB λC
e e = BeλB eλC + eλB eλC C
dλ
1
A B A + B + [A, B]
e e =e 2
Esercizio 1
Un’osservabile A ha due autostati normalizzati |φ1 i, |φ2 i con autovalori a1 , a2 . Un’altra, B, ha
autostati |χ1 i, |χ2 i con autovalori b1 , b2 . Il cambiamento di base è dato dalle relazioni:
Soluzione:
Dopo la prima misura il sistema si troverà nello stato |φ1 i. Se dopo misuriamo B abbiamo
le seguenti probabilità per i due possibili risultati: Pφ1 (b1 ) = 4/13 e Pφ1 (b2 ) = 9/13. Se
si rimisurasse A trovandosi in |χ1 i (ovvero avendo trovato b1 ), la probabilità di ritrovare a1
sarebbe Pχ1 (a1 ) = 4/13 e da |χ2 i (avendo trovato b2 ) Pχ2 (a1 ) = 9/13. Complessivamente la
27
probabilità è:
2 2
4 9 97
P (a1 −→ B −→ a1 ) = Pφ1 (b1 )Pχ1 (a1 ) + Pφ1 (b2 )Pχ2 (a1 ) = + =
13 13 169
28
1.2.12 Osservabile posizione
ovvero potremmo prendere questa equazione come definizione dell’operatore x̂. Si suppone che
il ket di stato |ψi fornisca la probabilità di trovare il sistema (ad esempio un elettrone) in una
data posizione x ∈ R (naturalmente x̂† = x̂ ) con autovalore x e autostato |xi. I concetti di
matrice e vettore vanno quindi adesso estesi a questo caso dove x non è una variabile discreta
bensı̀ continua. La componente di un generico stato |ψi lungo |xi è:
hx|ψi = ψ(x)
29
ossia non più un coefficiente dipendente da un indice discreto bensı̀ una funzione dipendente dall’
“indice continuo x”, la f unzione d0 onda. Il suo modulo quadro secondo i postulati è legato alla
probabilità, ma dato che x è una variabile continua e che quindi anzichè sommare un set di
probabilità discrete adesso dovremo integrare, |ψ(x)|2 sarà piuttosto una densità di probabilità
in modo tale che:
|ψ(x)|2 dx = |hx|ψi|2 dx ≡ ρ(x) dx
Z +∞
|ψ(x)|2 dx = 1
−∞
e quindi ψ(x) ∈ L(2) (R) . Come detto, senza addentrarci in sottigliezze matematiche, procede-
remo in modo pratico (Dirac 1930).
Vediamo che per generalizzare relazioni di completezza e ortonormalità dovremo introdurre il
concetto di distribuzione e in particolare la distribuzione δ di Dirac.
Infatti il passaggio sarà:
X X
|ψi = |en ihen |ψi = cn |en i −→
n n
X X
−→ |ψi = |xn ihxn |ψi = ψn (xn ) |xn i −→
Zn Zn
−→ |ψi = dx |xihx|ψi = dx ψ(x) |xi
ovvero ψ(x) è l’analogo dei cn = hen |ψi che avevamo visto nel caso di basi numerabili.
Procedendo come nel caso numerabile dal confronto nelle espressioni precedenti vediamo come
si generalizza la completezza in questo caso della base |xi :
Z +∞
|xihx| dx = I
−∞
X X
cn = hen |ψi = hen |em ihem |ψi = δmn cm −→
m m
30
Z Z
0 0 0 0 0 0
−→ ψ(x) = hx|ψi = dx hx|x ihx |ψi = dx hx|x i ψ(x )
il ruolo della delta di Kronecker che rappresenta il prodotto scalare tra due elementi di una
0
base numerabile ortonormale è adesso giocato dal prodotto scalare hx|x i che risulta essere una
distribuzione, ovvero un oggetto che applicato sotto integrale a una funzione restituisce un’altra
funzione valutata in un punto. In questo caso definiamo
0 0
hx|x i ≡ δ(x, x )
Z
0 0 0
ψ(x) = dx δ(x, x ) ψ(x )
questo definisce la distribuzione δ di Dirac. Si può facilmente dimostrare che dipende dalla
0
differenza (x − x ) e che è pari per cambio di segno. Evidentemente la sua definizione comporta
che
Z
0 0
dx δ(x, x ) = 1 ; (normalizzazione)
0
Dimostriamo che dipende dalla differenza (x − x ) :
Z Z
0 0 0 0 0 0
dx δ(x + a, x + a) f (x ) = dx hx + a|x + ai f (x ) =
Z Z
00 00 00 00 00 00
= dx hx + a|x i f (x − a) = dx δ(x + a, x ) f (x − a) = f (x + a − a) = f (x)
quindi è invariante per traslazioni della variabile, ovvero dipende dalla differenza:
0 0
δ(x, x ) = δ(x − x ) .
0
La simmetria per lo scambio x ↔ x serve alla completezza sia sul ket che sul bra:
Z Z
hx|ψi = dy hx|yihy|ψi = dy δ(x − y)ψ(y) = ψ(x)
Z Z
hψ|xi = dy hψ|yihy|xi = dy δ(y − x)ψ ∗ (y) = ψ ∗ (x)
e il fatto che sia pari si può far derivare dal fatto che è ∈ R . Infatti:
31
Azione moltiplicativa su f (x) :
Riscalamento dell’argomento:
Z +∞
1 y 1
δ(y) ψ dy = ψ(0) ; a>0
a −∞ a |a|
Z +∞
δ(ax) ψ(x) dx =
−∞
Z −∞
1 y 1
− δ(y) ψ dy = ψ(0) ; a<0
|a| +∞ |a| |a|
Notare che l’intervallo di integrazione deve contenere lo zero dell’argomento della δ, altrimenti
il risultato è nullo, infatti come distribuzione la δ(x) è nulla per x 6= 0 e vale +∞ per x = 0
e questo si capisce perchè l’integrale può essere eseguito in un intorno arbitrariamente piccolo
dello zero dell’argomento della δ senza modificare il risultato.
Inoltre
+∞ +∞
δ(x − xi )
Z h i X Z
δ f (x) g(x) dx = g(x) dx
−∞ −∞ |f 0 (x)|xi
i
Z Z
d d df (x)
δ(x − y) f (y) dy = δ(x − y) f (y) dy =
dx dx dx
Z +∞
dy iyx sin(ax)
δ(x) = e = lim
−∞ 2π a→∞ πx
e anche:
2 sin2 (ax/2)
δ(x) = lim
a→∞ π a x2
32
Riassumendo, il confronto tra basi continue e numerabili:
Z +∞
0 0
X
hei |ej i = δij ; δij = 1 ; hx |xi = δ(x − x ) ; δ(x − x0 ) dx = 1
i −∞
X Z
|ei ihei | = I ; dx |ψihψ| = I
i
Z
c∗φ cψ
X
hφ|ψi = i i ; hφ|ψi = dx φ∗ (x)ψ(x)
i
X Z
2
hψ|ψi = |ci | =1 ; hψ|ψi = dx |ψ(x)|2 = 1
i
X Z
|ψi = ci |ei i ; |ψi = dx ψ(x) |xi
i
Per quanto riguarda gli operatori lineari, abbiamo visto la rappresentazione come matrici nel
caso separabile. Questa si mantiene nel caso continuo, ma evidentemente, prendendo il valore
di aspettazione dell’operatore tra autostati generalizzati, anzichè elementi di matrice avremo in
generale una funzione di due variabili (che nei casi che incontreremo sarà in generale diagonale
ovvero moltiplicata per la δ di Dirac degli argomenti). Tramite il principio di corrispondenza,
come detto, costruiremo le osservabili dipendenti da x̂ (ad esempio potenziali come nel caso
1
dell’oscillatore armonico V = k x̂2 ). Questi saranno diagonali nella base |xi :
2
0 0
hx|x̂|x i = x δ(x − x )
Facciamo adesso un altro esempio di operatore, l’operatore derivata (anticipiamo subito che non
è hermitiano e quindi non rappresenta una osservabile), che ci servirà per il termine cinetico
dell’Hamiltoniana o più precisamente per introdurre la rappresentazione dell’operatore impulso
p̂ sulla base |xi . Avremmo potuto parlarne più in là, ma in questo modo non avremmo
apprezzato (tra breve) il legame che esiste tra cambiamenti di base da autostati dell’operatore
posizione a operatore impulso e trasformate di Fourier, la connessione con il principio di in-
determinazione e anche, in generale, con i cambiamenti di base tra operatori non commutanti
(altrimenti esisterebbe come visto una base comune).
33
Introduciamo l’operatore derivata, simbolicamente D̂, definito da:
dψ
D̂|ψi = | i
dx
in modo che
dψ dψ(x)
hx|D̂|ψi = hx|D̂ψi = hx| i=
dx dx
Z Z
0 0 0 0 0 0 dψ(x)
hx|D̂|ψi = dx hx|D̂|x ihx |ψi = dx hx|D̂|x i ψ(x ) =
dx
e quindi:
0 d 0
hx|D̂|x i = δ(x − x )
dx
0 0 0 d ∗ 0 d 0 d 0 d 0
hx|D̂† |x i = hD̂x|x i = hx |D̂xi∗ = 0 δ (x −x) = 0 δ(x −x) = − δ(x −x) = − δ(x−x )
dx dx dx dx
ovvero è un operatore antihermitiano D̂† = −D̂ . Definiamo quindi un operatore k̂ = −iD̂ che
è chiaramente hermitiano k̂ † = k̂ , anche se questo è formale nel senso che per l’hermitianità va
analizzata attraverso lo studio degli elementi di matrice. Per l’hermitianità infatti si deve avere:
ed inserendo completezze:
Z
0 0 0
hφ|k̂|ψi = dx dx hφ|xihx|k̂|x ihx |ψi
Z
0 0 0
= dx dx φ∗ (x) k̂(x, x ) ψ(x )
Z
0 d 0 0
= dx dx φ∗ (x) −i δ(x − x ) ψ(x )
dx
Z
dψ(x)
= −i dx φ∗ (x)
dx
mentre:
Z ∗
∗ dφ(x)
∗
hψ|k̂|φi = −i dx ψ (x)
dx
Z ∗
dφ (x)
= i dx ψ(x)
dx
34
Z
h
∗
ib dψ(x)
= i φ (x)ψ(x) − i dx φ∗ (x)
a dx
h ib
e quindi k̂ è hermitiano sse φ∗ (x)ψ(x) = 0 . Quindi l’hermiticità di k̂ dipende dalla classe
a
di funzioni sulla quale è definito, a esempio funzioni di classe L(2) o che comunque si annullino
agli estremi o periodiche. Un caso particolare sono le onde piane per le quali con procedimenti
di limite si può comunque dimostrare l’hermitianità.
Problema agli autovalori.
Assumiamo che esistano autostati di k̂ tali che:
k̂|ki = k|ki
k hx|ki ≡ k ψk (x)
hx|k̂|ki =
0
dδ(x − x )
Z Z
0 0 0 0 0 dψk (x)
dx hx|k̂|x ihx |ki = −i dx ψk (x ) = −i
dx dx
dψk (x)
e quindi la soluzione generale dell’equazione −i = k ψk (x) , che fornisce la proiezione
dx
di un autostato |ki sulla base |xi , è:
(essendo k̂ hermitiano gli autovalori k sono reali e questo tra l’altro è consistente con il fatto
che una componente immaginaria di k darebbe soluzioni divergenti a ±∞ mentre come detto
per l’hermitianità servono funzioni che si annullino a ±∞ o periodiche).
Per la normalizzazione, trattandosi di una base continua, si procede come nel caso della base
|xi , ovvero si richiede
0 0
hk|k i = δ(k − k )
e naturalmente si può cambiare base inserendo una completezza fatta con gli autostati di x̂
0
Z Z
ei(k − k )x dx = 2π |A|2 δ(k − k )
0 0 0
hk|k i = hk|xihx|k i dx = |A|2
35
Vedremo che l’operatore k̂ è l’operatore impulso p̂/~, per il momento siamo comunque già in
grado di capire che [x̂, k̂] 6= 0 , dato che la sovrapposizione dei loro vettori base non è un fattore
di fase costante, bensı̀ un’onda piana. Quindi, oltre alla base delle |xi , ci potremo riferire alla
base |ki, alternativa a quella delle |xi ma anch’essa completa:
Z
|kihk| dk = I
infatti: 0
eik(x − x )
Z Z
0 0 0
hx|x i = dk hx|kihk|x i = dk = δ(x − x )
2π
che è il risultato atteso e che verifica la relazione di completezza della base |ki .
Il passaggio dalla base |xi alla base |ki e viceversa è inoltre legato alle trasformate di Fourier,
ovvero, data f (x) ∈ L(1) :
e−ikx
Z Z
f (k) = hk|f i = hk|xihx|f i dx = √ f (x) dx ; (T rasf ormata)
2π
e viceversa
eikx
Z Z
f (x) = hx|f i = hx|kihk|f i dk = √ f (k) dk ; (Antitrasf ormata)
2π
Potremmo addentrarci in altre proprietà delle FT come la formula di Parseval che contiene
l’informazione che per uno stato di modulo fissato (unitario per quanto ci interessa adesso),
l’integrale nello spazio delle |xi o nello spazio |ki del modulo quadro della funzione d’onda
debba fornire come è logico lo stesso risultato. Questi approfondimenti saranno sviluppati nel
corso di Metodi. Ci interessa invece vedere che cosa ci dicono queste espressioni, ovvero che un
pacchetto nello spazio reale si può rappresentare con la somma (integrale) di onde piane ciascuna
con un k (ovvero una lunghezza d’onda λ = 2π/k) fissato, che interferiscano costruttivamente
in certe zone e distruttivamente in altre (antitrasformata) in modo appunto da ricostruire il
pacchetto, in modo analogo allo sviluppo di un vettore su una certa base. La trasformata ci dice
l’ampiezza di ogni modo k necessario per ricostruire il pacchetto. Anticipiamo subito che le
autofunzioni di k (dell’impulso) saranno anche autofunzioni dell’Hamiltoniana nel caso libero
ovvero di potenziale nullo o costante ovunque, mentre le autofunzioni di x̂ non lo saranno mai
proprio perchè nell’Hamiltoniana sarà sempre comunque presente un termine cinetico dipendente
dall’impulso p̂ che non commuta con x̂. Su questo torneremo e vedremo altri casi nei quali
la funzione d’onda assegnata nello spazio reale si può sviluppare sulla base di autofunzioni
dell’Hamiltoniana. Avere anticipato queste nozioni sulle FT ci servirà ad apprezzare subito i
36
cenni che faremo sul principio di indeterminazione poco più avanti.
Mostreremo poi che p̂ = ~ k̂ , per cui vediamo intanto vediamo il legame tra |pi e |ki .
0 0
Dovrà essere hp|p i = δ(p − p ) . Dato che la dimensione della δ di Dirac è l’inverso del suo
argomento (il suo integrale sull’argomento per una funzione fa la funzione) allora ne segue che
h i 1 h i
essendo p̂ = ~k deve essere |pi = √ |ki e quindi le autofunzioni dell’impulso saranno:
~
i
px
e~
ψp (x) = hx|pi = √
2π~
x̂|xi = x |xi
0 0
hx|x̂|xi = x δ(x − x )
p̂|pi = p |pi
0 0
hp|p̂|pi = p δ(p − p )
dψ(x)
hx|p̂|ψi = −i~
dx
dψ(p)
hp|x̂|ψi = i~
dp
Vediamo infine che gli operatori x̂ e p̂ sono coniugati e che non commutano. Infatti da:
hx|x̂|ψi = x ψ(x)
e da:
dψ(x)
hx|p̂|ψi = −i~
dx
segue:
dψ(x)
hx|x̂p̂|ψi = −i~ x
dx
e anche:
d [xψ(x)]
hx|p̂x̂|ψi = −i~
dx
e quindi:
hx|[x̂, p̂]|ψi = i~ ψ(x)
ovvero:
[x̂, p̂] = i~ I
37
e notiamo, ricordando le parentesi di Poisson tra due variabili A(x, p) e B(x, p) sono definite da
∂A ∂B ∂A ∂B
{A, B} = −
∂x ∂p ∂p ∂x
Vedremo che è un fatto generale che nella quantizzazione canonica il commutatore tra due va-
riabili dinamiche funzioni di x e p con corrispondente classico, sia i~· la parentesi di Poisson
classica.
Veniamo adesso al riassunto di esempi salienti che avevano messo in crisi la fisica classica all’ini-
zio del ventesimo secolo e a seguire due esperienze che “guidano” verso i postulati. Torneremo
quindi a questi con una convinzione maggiore sulla loro validità e avendo anche già sviluppato
una certa confidenza con il formalismo.
La nascita della Meccanica Quantistica viene generalmente indicata con il 1900, anno in cui
Max Planck (Premio Nobel nel 1918) derivò la formula che descrive correttamente lo spettro
di emissione del corpo nero, introducendo tra l’altro la costante che porta il suo nome e che vi
accompagnerà d’ora in avanti in questo e molti altri corsi.
Questo fu il primo esempio tra vari fenomeni che classicamente non trovavano spiegazione e
che, benchè risolto dalla formula di Planck senza nuove ipotesi (solo interpolando una formula
teorica classica che ben spiegava lo spettro a basse frequenze con un andamento sperimentale
che descriveva la parte ad alte frequenze non spiegabile classicamente), implicava che l’emissione
di radiazione elettromagnetica avvenisse per “quanti”, ossia per pacchetti discreti di energia e
non con continuità come previsto classicamente.
Senza addentrarci in dettagli che eventualmente studierete in modo più approfondito nel corso
di Fisica della Materia, riassumiamo alcuni aspetti: ogni corpo a una certa temperatura emette
radiazione elettromagnetica e ha un potere emissivo e un potere assorbente specifico.
Il corpo nero è un corpo ideale con potere assorbente specifico Aν = 1 e può ben essere
38
approssimato da un forellino sulla superficie di una cavità all’equilibrio termico a una tempe-
ratura assegnata T . All’equilibrio termodinamico il potere emissivo del corpo nero fornisce la
densità di energia elettromagnetica, funzione di temperatura e frequenza, data dal rapporto tra
potere emissivo specifico e potere assorbente specifico uν (ν, T ) = Eν /Aν che, come dimostrato
da Kirchhoff, è una funzione universale di ν, T e caratterizza appunto la radiazione elettroma-
gnetica in equilibrio termico con un corpo. Saremo sintetici perchè per adesso ci interessano solo
gli aspetti principali utili per cogliere la novità concettuale che la formula di Planck implica.
Dunque: a basse frequenze funziona bene la formula classica di Rayleigh e Jeans
ρν = 8πuν /c = 8πkν 2 T /c3 con k = 1, 381 · 10−23 J ? K −1 costante di Boltzmann, mentre alle
alte frequenze la stessa formula darebbe un andamento divergente di ρ (catastrofe ultravioletta)
mentre in questo regime funzionava la formula empirica di Wien (Nobel 1911) ρν = Bν 3 e−bν/T
(con B, b parametri di fit).
Nel 1900 Planck interpolò i due opposti regimi riproducendo la curva sperimentale con la formula
8πh ν3
ρν =
c3 ehν/kT − 1
con ¯ energia media di un oscillatore a frequenza ν, che si può calcolare dalla Funzione di
1 ∂Z
Partizione Z = conf e−βE , (β = 1/(kT )) tramite ¯ = −
P
.
Z ∂β
Quindi con un calcolo classico:
p2 1
E = + mω 2 q 2
2m
Z 2
2π
Z = dp dq e−βE =
ωβ
E = nhν
∞
1
e−βnhν =
X
Z =
n=0 1 − e−βhν
hν
da cui ¯ = che porta alla formula di Planck. La ”spiegazione” del potere emissivo del
eβhν −1
39
corpo nero richiede quindi l’ipotesi che, almeno nell’emissione, la radiazione elettromagnetica si
comporti come se fosse composta da quanti di energia E = hν.
Con questo risultato sull’energia media Einstein nel 1907 spiegò anche la discordanza dai dati
sperimentali della previsione classica riguardo il comportamento del calore specifico dei solidi a
basse temperature.
Osservazioni sperimentali
1) - L’emissione di fotoelettroni avviene solo sopra una frequenza di soglia ν > ν0 .
2) - L’energia cinetica massima degli elettroni dipende linearmente da ν e ν0 , ma è indipendente
dall’intensità della radiazione.
3) - Il numero di fotoelettroni emessi per unità di tempo e di superficie è proporzionale all’in-
tensità della radiazione.
4) - L’estrazione è istantanea se ν > ν0 .
Classicamente dopo un certo tempo (dell’ordine di ore) l’elettrone dovrebbe accumulare un’e-
nergia superiore al lavoro di estrazione W e venire emesso. Inoltre la sua velocità dovrebbe
dipendere dall’intensità della radiazione incidente sulla superficie del metallo.
40
data dalla differenza Ecin = hν − W = h(ν − ν0 ). Un aumento dell’intensità della radiazione
incidente comporta quindi (sempre per ν > ν0 ) un aumento del numero degli elettroni emessi
ma non della loro energia cinetica.
Con le spiegazioni dell’effetto fotoelettrico e dello spettro di emissione del corpo nero emerge
quindi, come già detto, che almeno nell’assorbimento e nell’emissione, il campo elettromagnetico
si comporti come se fosse composto da corpuscoli, quanti, di energia hν, i fotoni. Con l’effet-
to Compton (come vedremo tra poco) venne definitivamente supportata l’ipotesi che il campo
elettromagnetico stesso fosse composto da fotoni. Si presentano quindi fenomeni spiegabili con
una natura corpuscolare della radiazione insieme a quelli già noti come interferenza e diffrazione
spiegabili invece come sappiamo con una descrizione ondulatoria. Vedremo in seguito come la
Meccanica Quantistica riconcilia queste descrizioni apparentemente inconciliabili.
Come ultima nota in questa rassegna sintetica vediamo che il fatto che un fotone γ viaggi alla ve-
locità della luce c implica che abbia massa a riposo mγ = 0. Vale infatti per qualunque particella
p
(e il fotone lo è) la relazione di dispersione tra energia e impulso relativistica E = m2 c4 + p2 c2
∂E pc2
e anche che v = = e da questa con vγ = c risulta che Eγ = pγ c e quindi dalla legge di
∂p E
dispersione che mγ = 0.
Deviando dall’ordine temporale per seguire un ordine logico passiamo all’effetto Compton la
cui spiegazione, come detto, conferma l’ipotesi dell’esistenza dei fotoni come quanti del campo
elettromagnetico.
Nella diffusione di raggi X su paraffina si osservano due righe, una con λ0 = λ e una con λ0 > λ.
La seconda non si spiegava perchè classicamente gli elettroni dovrebbero oscillare con la stessa
frequenza della radiazione incidente. I risultati delle osservazioni sperimentali erano invece ben
spiegati descrivendo il processo con l’urto elastico di un fotone su un elettrone quasi libero (riga
con λ0 > λ) e su elettroni più legati (riga con λ0 = λ).
Scrivendo la conservazione di energia e impulso (nel piano dell’urto (x, y)) si ha (λν = c):
41
ovvero
hν + mc2 = hν 0 + mγc2
hν hν 0
= cos ϕ + mγv cos ψ
c c
hν 0
0 = sin ϕ − mγv sin ψ
c
γ = (1 − v 2 /c2 )−1 .
Risolvendo il sistema si trova la formula che descrive le osservazioni ovvero:
ϕ
λ0 − λ = 2 λc sin2
2
h
con λc = ' 2, 4 · 10−10 cm, lunghezza d’onda Compton (dell’elettrone in questo caso). In
mc
generale, per ricordare l’espressione della lunghezza d’onda Compton di una particella con mas-
sa a riposo, basta uguagliare l’energia di un fotone all’energia a riposo della particella, ovvero
mc2 = hνc = hc/λc .
Bohr 1913 (Nobel 1922) - (Franck e Hertz 1913-14 - Nobel 1925 conferma sperimentale dei livelli
energetici atomici discreti)
Il principio di combinazione di Ritz (Rydberg - 1905) descriveva bene le serie di righe spettrali
dell’atomo di idrogeno. I termini spettrali erano dati da
1 ν 1 1
= =R 2
− 2 ; m<n
λ c m n
1 eV = 1, 6 · 1019 J.
Per m = 1, 2, 3 si ottengo rispettivamente le serie di Lyman (ultravioletto), Balmer (visibile) e
Paschen (infrarosso).
Gli esperimenti di Rutherford (1911) con scattering di particelle α su atomi con deviazioni a
grandi angoli suggerivano un modello planetario dell’atomo. Tuttavia queste erano le
Difficoltà classiche
42
a) - Stabilità degli atomi: - una carica accelerata perde energia e nel modello planetario l’elettrone
dovrebbe collassare sul nucleo in tempi brevissimi dell’ordine di 10−11 sec
b) - Spettro di righe: - classicamente ω ∼ r−3/2 e le frequenze di emissione dovrebbero costituire
un continuo.
Prima della soluzione esatta dell’equazione di Schrodinger gli aspetti essenziali furono colti dal
Modello di Bohr
Nel modello semiclassico dell’atomo di idrogeno Bohr postula:
a) - Gli elettroni orbitanti non emettono secondo le leggi della fisica classica. Si distribuiscono
su livelli energetici stabili ed emettono o assorbono solo nelle transizioni tra livelli diversi con
En − Em
νnm =
h
b) - Sono permesse solo orbite per le quali il momento angolare dell’elettrone è multiplo di ~
nh
Lz = n~ = ; n = 1, 2, 3, ....
2π
1 e2
E = mv 2 −
2 r
mv 2 e2
=
r r2
Lz = mvr = n~
e da queste si ricava
e2 1
En = −
2a0 n2
43
L’approccio di Bohr fu poi generalizzato da Sommerfeld e Watson nel 1915 con la quantizzazione
degli integrali di azione
I
pi dqi = nh
e tuttora vengono usati in determinate condizioni e fanno parte dei cosiddetti metodi semiclassici.
Un esempio si ha con pϕ = Lz per un rotatore nel piano (x, y):
I
pϕ dϕ = nh → 2πLz = nh → Lz = n~
Z T
E dt = ET = nh → E = nhν
0
Facciamo inoltre alcune osservazioni sul limite di validità del formalismo che svilupperemo nel
corso e che si può chiamare Meccanica Quantistica non relativistica e quasi sempre di singola
particella, che vale quando la relatività può essere trascurata del tutto o, al massimo, ad esempio
per la struttura fine dei livelli dell’atomo di idrogeno, considerata una piccola correzione. Questo
è giustificato appunto dal fatto che tratteremo problemi in regime non relativistico, ovvero a
velocità medie piccole rispetto a c o equivalentemente a energie scambiate inferiori alla soglia di
produzione di coppie particella-antiparticella. Prendiamo ad esempio il caso di atomi idrogenoidi,
per i quali e → Ze, a0 → a0 /Z, En → Z 2 En . I livelli energetici si possono esprimere facendo
e2 1
comparire la costante di struttura fine α = = e si trova, per atomi idrogenoidi:
~c 137
µc2 1
En = −Z 2 α2 < mc2
2 n2
Quindi, anche per atomi pesanti con Z ∼ 100, le energie coinvolte nelle transizioni restano al di
sotto della soglia di produzione di coppie particella-antiparticella. Equivalentemente se si calcola
la velocità media dell’elettrone orbitante nel modello di Bohr si ottiene v ' αc quindi v << c.
La Meccanica Quantistica vale sempre, anche nel caso relativistico, ma il formalismo cambia e
diventa quello della Teoria Quantistica Relativistica dei Campi, della quale si occupano corsi
successivi. Tuttavia conoscere i limiti di validità di un formalismo è importante cosı̀ come intui-
re il perchè. Lo spartiacque tra MQ e QFT può essere dato in termini di energie coinvolte ma
anche in termini delle distanze che si vanno ad esplorare: quando queste diventano dell’ordine
della lunghezza d’onda Compton di una particella λc = h/M c o addirittura inferiori, le energie
in gioco chiamano in causa l’antimateria; altrimenti detto si entra in regime fortemente relati-
vistico e serve una teoria a molti corpi.
44
Possiamo anche aggiungere che nel corso, tranne che in questa parte iniziale, non sentirete quasi
più parlare di fotoni perchè alle energie in gioco il campo elettromagnetico sarà sempre conside-
rato come un campo esterno al sistema in esame e classico, ovvero in una descrizione ondulatoria.
La descrizione in termini di collezione di fotoni diventa imprescindibile in regime pienamente
relativistico.
Proseguiamo con la carrellata dei risultati più importanti a proposito della crisi della fisica clas-
sica.
Per la radiazione elettromagnetica abbiamo già visto che si manifesta una doppia natura:
corpuscolare con i fotoni nell’effetto fotoelettrico e nell’effetto Compton e ondulatoria in inter-
ferenza e diffrazione. Questo condusse al concetto di dualismo onda-corpuscolo con il principio
di complementarietà dovuto a Bohr che affermava che i due aspetti non possono manifestarsi
contemporaneamente. Dal parallelo formale tra ottica e meccanica De Broglie ipotizzò che a
livello atomico si manifestano comportamenti ondulatori per la materia e quindi di associare
~
a una particella di massa m, energia E e impulso p~ un’onda ψ(~x, t) = A ei(k · ~x − ωt)) con
ω = E/~, ~k = p~/~ e lunghezza d’onda di De Broglie associata
h
λ=
p
~2 + B
n̄ ∝ E ~2
Con questa idea la probabilità si lega al modulo quadro delle grandezze ondulatorie e quindi
qualcosa di simile ci si aspetta che dovrà valere per le onde materiali.
45
Notiamo anche che il passaggio tra grandezze di tipo meccanico (energia, impulso ecc.) e
grandezze ondulatorie (frequenza, numero d’onda ecc.) avviene attraverso la costante di Planck:
E = ~ω ; p~ = ~~k
∂E ∂H
Similmente come v = (q̇ = ) si avrà per la velocità di una particella materiale descritta
∂p ∂p
da un pacchetto d’onde, che la velocità del baricentro del pacchetto o velocità di gruppo sarà
∂ω E ω
vg = (per i fotoni nel vuoto invece v = c = = = vf ). Cosı̀ E = E(p) e ω = ω(k) è
∂k p k
detta relazione di dispersione.
Un’ultima nota la dedichiamo al fatto che imporre che l’orbita dell’elettrone orbitante attorno al
nucleo, nell’atomo di idrogeno, sia fatta da un’onda stazionaria, equivale a imporre che l’orbita
contenga un numero intero di lunghezze d’onda di De Broglie, il che ancora implica che il
momento angolare orbitale sia quantizzato:
h
2πr = nλ = n ⇒ pr = Lz = n~
p
che implica che perde di senso il concetto di traiettoria (questo può essere però misleading
in quanto la perdita del concetto di traiettoria è più forte e non risiede solo nel principio di
indeterminazione come vedremo con la doppia fenditura); soprattutto perde significato la nozione
di particella considerata come punto materiale in quanto nell’incertezza ∆x non siamo in grado
di distinguere se esista un pacchetto d’onde o un corpuscolo. Il principio di indeterminazione
è “contenuto” nelle trasformate di Fourier ovvero in un formalismo ondulatorio, ma si deve
fare attenzione a non confondere il dualismo onda-corpuscolo e l’approccio di De Broglie, come
vedremo, con l’idea che l’oggetto sia un’onda o un corpuscolo. Più avanti dovreste essere in
grado di apprezzare che la grandezza fondamentale sarà l’ampiezza di probabilità, data dalla
46
funzione d’onda che effettivamente utilizza un formalismo ondulatorio, ma questo non avrà a
che fare con la natura delle particelle in esame. Il principio di indeterminazione ci dice che
senza poter misurare contemporaneamente posizione e velocità si perde il determinismo classico
(e anche appunto il concetto di traiettoria). Si deve rinunciare all’idea di una particella come
un punto materiale, ma come vedremo con l’esperienza della doppia fenditura non è la singola
particella a comportarsi come un’onda, ma la ampiezza di probabilità di presenza nello spazio.
Sulla natura dell’oggetto invece semplicemente si deve accettare un’ignoranza. Il dualismo onda-
corpuscolo sussiste nel fatto che certi fenomeni si spiegano in un formalismo del tipo di quello
delle leggi della meccanica e altri con un formalismo del tipo della fisica delle onde. Cercheremo
di precisare i limiti di applicabilità e la ragione per la quale di volta in volta prevale l’una o
l’altra descrizione.
Vediamo un paio di esperimenti concettuali classici per elucidare il principio di indeterminazione.
Il primo è la misura della posizione in x di un elettrone in un fascio con un diaframma. Gli
elettroni del fascio siano diretti lungo z e il diaframma abbia apertura d per cui ∆x ' d.
All’elettrone è associata una lunghezza d’onda λ = h/p e “l’elettrone viene diffratto” se d ∼ λ
(si ha poi d sin α = nλ) e acquista (a modulo |~
p| ≡ p costante) un impulso px ∼ p sin α, misurabile
a distanza sufficiente con una precisione che si calcola con α ∼ λ/d = h/(pd) ∼ h/(p∆x) e quindi
∆px ∼ pα ∼ h/∆x. Migliorare la precisione su ∆x obbliga a peggiorarla su ∆p (riduzione di d)
e viceversa (legame con le trasformate di Fourier).
La seconda esperienza concettuale è il “microscopio di Heisenberg”. Il fotone di un fascio urta
un elettrone e entra nella camera permettendo di “vedere” la posizione dell’elettrone. Come
sappiamo dall’effetto Compton il fotone che ha urtato l’elettrone ha una lunghezza d’onda diversa
da quella iniziale. Dalla conservazione dell’impulso lungo x, con riferimento alla figura:
λ0 hν hν 0
∆x ' ; = cos θ + px
sin α c c
ν0 ν0
π π hν hν
con − α ≤ θ ≤ + α , da cui segue 1 − sin α ≤ px ≤ 1 + sin α da cui
2 2 c ν c ν
ancora
hν 0 hν 0 λ0 h
∆px ' sin α ' '
c c ∆x ∆x
Abbiamo accennato al fatto che il principio di indeterminazione in un formalismo ondulatorio è
in pratica implicito nel passaggio della descrizione di un pacchetto d’onda dallo spazio reale a
quello delle componenti di Fourier e viceversa. Consideriamo infatti per semplicità un pacchetto
√
rettangolare ψ(x) = 1/ a per |x| < a/2 e nullo per |x| > a/2. Il suo spettro, ovvero l’ampiezza
47
delle sue componenti di Fourier, è
ka
Z +∞
r sin
1 2 2
ψ(k) = √ e−ikx ψ(x) dx =
2π −∞ πa k
per cui
ka
sin2
2 2
|ψ(k)|2 =
πa k2
Dal grafico si vede che domina il blob centrale per cui l’incertezza su k è data dalla distanza tra
i due primi zeri dello spettro simmetrici rispetto all’origine mentre quella su x è dell’ordine di
2π
a, quindi ∆k · ∆x ' a e quindi ∆p · ∆x = ~∆k · ∆x ' h . È chiaro che riducendo a ovvero
a
l’indeterminazione su x aumenta quella su k e quindi su p e viceversa, quindi nelle trasformate
di Fourier si vede facilmente che in qualche modo è “contenuto” il principio di indeterminazione
tra posizione e impulso.
Una relazione di indeterminazione sussiste anche tra tempo ed energia, benchè non siano variabile
canonicamente coniugate (il tempo è un parametro):
∆E · ∆t ≥ ~
Ripetiamo ancora che il dualismo onda-corpuscolo venne poi superato come vedremo in seguito,
ma vedremo anche che in certi casi, quali l’approssimazione semiclassica e altri, è un punto di
vista utile.
Terminiamo infatti questa carrellata introduttiva sulla crisi della fisica classica e la nascita
della Meccanica Quantistica, dicendo che da tempo era noto che l’“equazione d’onda per la
materia”, vista completando un quadro di analogie tra ottica e meccanica, portava all’equazione
di Schrodinger. Infatti per i corpuscoli valgono come sappiamo equazioni di tipo meccanico,
con traiettorie date dalle soluzioni delle equazioni cardinali o delle equazioni di Hamilton nel
formalismo canonico, cosı̀ come erano note le equazioni delle onde nell’elettromagnetismo e in
ottica, e il limite dell’ottica geometrica che dava luogo a equazioni per le traiettorie dei raggi che
erano equazioni simili in forma a quelle della meccanica. Il limite dell’ottica geometrica si ha
quando l’indice di rifrazione n(x) in generale dipendente dalla posizione è debolmente variabile
su scala di una lunghezza d’onda (legge di Snell a esempio). Si poteva pensare quindi che le leggi
48
della meccanica si potessero ottenere da un limite analogo di una più generale equazione d’onda
per la materia. Si può compilare uno schema che riassume il parallelo tra ottica e meccanica
con il passaggio tra grandezze di tipo meccanico (energia, impulso ecc.) e di tipo ondulatorio
(frequenza, numero d’onda ecc.) che si fa attraverso la costante di Planck ~:
∂φ(~x, t) ∂S(~x, t)
− = ω = cost − = E = cost ω = E/~
∂t ∂t
~ = k0 ∇L
∇φ ~ = ~k ~ = ∇W
∇S ~ = p~ ~k = p~/~
Considerando una “funzione d’onda per la materia” ψ(~x, t), limitandosi al caso monocromatico
ψ(~x, t) = u(~x) e−iωt (energia fissata) dalla corrispondenza con l’ottica si ottiene che l’equazione
di Hamilton-Jacobi diventa:
~ 2 u(~x) + 2m [E − V (~x)] u(~x)
∇
~2
(Stern, Nobel 1943) - Nel loro esperimento un forno emette un fascio di atomi di Ag che vengono
collimati e fatti passare in una regione dove un dispositivo fornisce un campo magnetico forte-
mente disomogeneo lungo z e dopo la loro uscita vengono rilevati su uno schermo. In questo
esperimento si vede la quantizzazione spaziale dello spin (momento angolare intrinseco dell’elet-
trone) e con esperimenti in sequenza vedremo che si comincia a intravedere la nuova descrizione
basata sul concetto di stato di un sistema quantistico e della sua descrizione in termini di ele-
mento di uno spazio vettoriale complesso.
In primo luogo diciamo che il momento magnetico dell’Ag èssenzialmente dovuto allo spin del-
49
e ~
l’elettrone più esterno µ
~= S . In presenza di un campo magnetico esterno statico l’energia
mc
di interazione è data da U = −~ ~ e la forza, essendo il campo magnetico disomogeneo in
µ · B,
∂Bz
direzione z è data da Fz = µz . Ciò che si osserva, invece del risultato classico ovvero un
∂z
continuo di valori nell’intervallo (−|~µ|, |~
µ|), sono due spot centrati attorno ai valori corrispon-
denti a Sz = ±~/2 con ~ = 1, 0546 · 10−27 erg · sec . A parte il risultato della quantizzazione
del momento angolare intrinseco, è fondamentale capire cosa si deduce da esperimenti di questo
tipo fatti in sequenza.
50
1.4.2 Esperimenti di Stern-Gerlach in sequenza - (Sakurai-Napolitano)
Come primo esperimento in sequenza supponiamo che in uscita dal primo SG lungo z si lasci
proseguire il fascio con Sz = +~/2 e si blocchi quello con Sz = −~/2 e all’uscita si piazzi un
altro apparato SG che misura Sz . Si troverà semplicemente che il fascio con Sz = +~/2 passa
integralmente e inalterato e non si rivela altro.
Come secondo esperimento supponiamo di procedere come nel primo caso salvo che l’ultimo SG
non rivela Sz bensı̀ Sx e in questo caso si rivela un 50% di elettroni con Sx = +~/2 e un 50%
51
con Sx = −~/2 e nient’altro. Ci si domanda come sia possibile ovvero se la metà degli atomi
avessero Sz = +~/2 e Sx = +~/2, mentre l’altra metà avessero Sz = +~/2 e Sx = −~/2? Una
interpretazione sbagliata come vedremo.
Nel terzo caso si procede come nel secondo ma alla fine si blocca il fascio con Sx = −~/2 e si
lascia proseguire solo quello con Sx = +~/2 facendolo passare da uno SG che misura ancora
Sz e in questo caso sorprendentemente si rivelano due fasci, ciascuno del 50% di intensità, uno
con Sz = +~/2 e l’altro con Sz = −~/2! Questo significa che la misura intermedia di Sx ha
distrutto l’informazione che avevamo all’uscita del primo SG. Questo fatto come vedremo avrà
una formalizzazione matematica e comunque significa che non possiamo misurare contempora-
neamente, avere informazioni simultanee, su Sx e Sz e in generale su due componenti diverse
dello spin visto che gli assi sono scelti arbitrariamente. Cade anche l’ipotesi fatta dopo il secondo
esperimento. Queste osservazioni oltre a essere in contrasto con i risultati classici dove niente
impediva la conoscenza simultanea delle diverse componenti spaziali ad esempio del momento
angolare orbitale, forzano a formulare un parallelo con la polarizzazione della luce e a iniziare a
parlare di ”stato” del sistema come elemento di uno spazio vettoriale.
se polarizzato a esempio lungo x̂. Sappiamo che se dopo aver fatto passare il fascio luminoso
monocromatico attraverso un filtro (polaroid) x̂, lo facciamo transitare attraverso un filtro ŷ non
esce nessun fascio. Se invece si pone in posizione intermedia un filtro x̂0 (ruotato di π/4 rispetto
al primo), dopo il filtro ŷ esce un fascio (polarizzato lungo ŷ). Quindi il filtro x̂0 distrugge
informazione sulla polarizzazione precedente cosı̀ come SGx distruggeva informazione su Sz . Si
può quindi fare l’analogia tra gli SG e i filtri e tra
D’altra parte sappiamo come si spiega il fenomeno classico della polarizzazione: il campo elettrico
è un vettore, che si può scrivere quindi come combinazione lineare (sovrapposizione) delle sue
componenti (stati di polarizzazione). Nel caso in discussione, detta φ = kz − ωt la fase, il campo
52
lungo una direzione a π/4 rispetto al primo quadrante del piano (x, y) si può scrivere
0 x̂ + ŷ
E0 cos φ x̂ = E0 cos φ √
2
ŷ − x̂
E0 cos φ ŷ 0 = E0 cos φ √
2
e naturalmente le componenti lungo x̂, ŷ in termini di quelle lungo x̂0 , ŷ 0 che si ottengono inver-
tendo le precedenti.
Ciò che si osserva con luce polarizzata si spiega quindi classicamente semplicemente con il
fatto che il fascio iniziale che esce dal filtro x̂ è combinazione di componenti lungo x̂0 e ŷ 0 e quindi
che il filtro x̂0 seleziona questa componente che a sua volta è sovrapposizione di componenti
lungo x̂ e ŷ e quindi con il filtro lungo ŷ passa quest’ultima. Il fatto che il filtro intermedio
faccia ricomparire una componente polarizzata lungo ŷ non ci stupisce. La corrispondenza ci
guida per gli SG in sequenza: dobbiamo cominciare a pensare che tutto sia spiegabile se vediamo
il contenuto di momento angolare intrinseco di spin di un fascio a esempio con la componente di
Sx = +~/2 (in uscita dalla SGx ) come proprietà di un “vettore di stato” in uno spazio vettoriale
astratto 2 − d
|Sz , +i + |Sz , −i
|Sx , +i ∼ √
2
e per lo stato descritto da |Sx , −i la combinazione ortogonale (abbiamo anticipato la notazione
di Dirac che vedremo poi per indicare i vettori).
Però le direzioni nello spazio, che possono essere scelte arbitrariamente, son tre, quindi: come
descriveremmo lo stato |Sy , +i ? Anche in questo caso ci aiuta il parallelo con la luce polarizzata.
Infatti un fascio polarizzato circolarmente nel piano (x, y) si rappresenta con combinazioni lineari
di polarizzazioni lineari, ma con coefficienti complessi:
± iŷ
~ = E0 Re eiφ x̂ √
E
2
Si può quindi rappresentare un atomo con Sy± in analogia a un fascio destrogiro/levogiro con
|Sz , +i ± i|Sz , −i
|Sy , ±i ∼ √
2
53
1.4.3 Esperimento della doppia fenditura (double slit experiment)
Nella prima figura vediamo uno schema dell’esperimento della doppia fenditura ovvero dell’in-
terferometro di Young. Da una lampada di vapori di mercurio parte la luce che passa attraverso
una prima fenditura sottile F e viene diffratta per poi passare attraverso due fenditure sottili e
molto vicine F1 e F2 . Dopo di queste, a distanza sufficientemente grande rispetto alle dimensioni
precedentemente in gioco si trova uno schermo dove viene visualizzata la figura di interferen-
za. Il fenomeno si spiega bene nell’ambito della teoria ondulatoria della luce con i fenomeni di
interferenza e diffrazione. Dalle due fenditure partono infatti due onde che vengono diffratte e
si propagano fino allo schermo. Su questo quando l’interferenza delle due onde è costruttiva si
hanno massimi di intensità mentre quando è distruttiva minimi. Tuttavia, sempre sulla base
della teoria ondulatoria ci si aspetterebbe, guardando nel dettaglio le frange di interferenza, di
vedere una distribuzione uniforme, mentre si osservano tantissimi punti sparpagliati, riportan-
doci a pensare alla luce come fatta da fotoni. Inoltre guardando frange diverse ma della stessa
intensità la distribuzione dei punti appare casuale!
D’altra parte con una descrizione corpuscolare non si spiega la figura di interferenza. Infatti
secondo una descrizione classica ci aspetteremmo una intensità somma delle intensità associate
alle singole fenditure F1 e F2 , mentre risulta I1+2 6= I1 + I2 . Questo invece come già detto non
è un problema dal punto di vista ondulatorio perchè in questo caso l’intensità è proporziona-
le al modulo quadro del campo elettromagnetico. Se quindi si sommano le ampiezze, ovvero
A1+2 = A1 + A2 per l’intensità si ha I1+2 ∝ |A1+2 |2 = |A1 |2 + |A2 |2 + 2Re (A∗1 A2 ) 6= |A1 |2 + |A2 |2
con, appunto, il termine di interferenza.
Quindi onda o corpuscolo?
In realtà, riducendo l’intensità si può far passare un singolo fotone e si può anche ripetere
l’esperimento con elettroni, facendone passare uno alla volta. Sia con fotoni che con elettroni
si osserva che la figura di interferenza si forma dopo moltissimi eventi, e solo quando le due
fenditure sono entrambe aperte.
Infatti un aspetto fondamentale, che va sottolineato perchè anche questo fa da guida per la
descrizione quantomeccanica ovvero in termini probabilistici e di stato iniziale, è il fatto che
se si prova a determinare da quale delle due fenditure è passato il fotone (o l’elettrone) non si
osserva più la figura di interferenza.
La conclusione è che non si tratta di stabilire la natura del fotone o dell’elettrone (che a causa
54
del principio di indeterminazione per noi, nel caso dell’elettrone a esempio, potrebbe essere un
corpuscolo come un pacchetto d’onda) in quanto ogni singolo evento lascia uno spot con un certo
∆x e quindi non ha niente di un’onda, bensı̀ di realizzare che la natura della legge che regola
il fenomeno è di tipo probabilistico (Born) e che si descrive all’interno di un formalismo di tipo
ondulatorio. Vedremo infatti che il fatto di non sapere da quale fenditura è passato a esempio
l’elettrone (altrimenti si distrugge la figura di interferenza come detto) equivale a dire che lo
stato di partenza è dato dalla sovrapposizione di due stati rappresentati da due vettori di uno
spazio vettoriale complesso e che la probabilità che l’elettrone sia rivelato in una certa posizione
sarà legato al modulo quadro del vettore di stato e quindi ci sarà interferenza come nel caso della
somma in ampiezza di due onde del quale abbiamo parlato prima. In particolare vedremo come
si introduce la “funzione d’onda” ψ(x) collegata al vettore di stato, che rappresenta l’ampiezza
di probabilità di rivelare appunto la particella in un punto x. Si avrà in particolare:
che appunto rappresenta la probabilità di trovare la particella tra x e x + dx. Perde quindi
senso il concetto di traiettoria e con questa esperienza si vede che va oltre alla questione legata
al principio di indeterminazione. Con il principio di indeterminazione infatti abbiamo che non
possono essere note posizione e velocità contemporaneamente con precisione assoluta, ma con
questo esperimento si capisce che la posizione non è proprio data se non in senso probabilistico
fin quando non la si misura. Infatti non possiamo dire da quale fenditura sia passata o quale
posizione occuperà sullo schermo la particella se non agiamo sul sistema, e questo mette in
luce anche un altra proprietà quantistica fondamentale che sarà contenuta nei postulati, ovvero
che solo la misura ad esempio della posizione “forza” il sistema a una risposta (una posizione
definita, sebbene con una incertezza), altrimenti resta assegnata solo in senso probabilistico
ovvero sarebbero possibili molte posizioni differenti come risultato di una misura. Anche prima
della discussione dei postulati diciamo subito che l’individuazione della fenditura dalla quale
passa la particella non implica necessariamente una misura di posizione in quanto basta tappare
l’altra, vedremo che invece modifica lo stato iniziale della particella. Anche la misura di posizione
dello schermo influisce sullo stato del sistema ma nel senso che lo forza in un determinato stato
finale associato a una data posizione, come detto sia pur con incertezza. Dopo aver introdotto
i postulati ridiscuteremo l’esperimento, per il momento aggiungiamo anche che cade il principio
di realismo locale contenuto nella fisica classica. Questo afferma che la misura di una proprietà
fisica misurata debba necessariamente essere posseduta dal sistema prima della misura. È noto
che Einstein riteneva che tale principio dovesse valere in assoluto e pensava che la Meccanica
55
Quantistica che stava nascendo fosse una teoria incompleta. In realtà solo in tempi recenti, con
la discussione delle disuguaglianze di Bell (che non avremo tempo di discutere), si dimostra che
il principio va abbandonato.
Vedremo inoltre che la funzione d’onda ψ(x), cosı̀ come il vettore di stato, obbedisce all’equazione
di Schroedinger.
Per spiegare cosa si osserva con l’esperimento di Stern e Gerlach partiamo dal primo postulato
e assegnamo ad ogni singolo atomo di Ag che passa per l’apparato di Stern e Gerlach uno stato
|ψi che vive in uno spazio di Hilbert. Anche se ancora non è stato introdotto lo spin, anticipiamo
che questo è descritto, nel caso dello spin elettronico, da tre matrici riferentesi allo spin lungo
le tre direzioni spaziali come S~ = ~ ~σ , dove ~σ = (σx , σy , σz ) sono le tre matrici di Pauli con:
2
0 1 0 −i 1 0
σx = σy = σz =
1 0 i 0 0 −1
Il secondo postulato ci dice che ogni osservabile è descritta da un operatore lineare hermitiano
e come vediamo lo spin lo è. L’apparato di Stern-Gerlach SGz misurerà quindi Sz dell’elettrone
e, dato il terzo postulato, il risultato possibile di una misura di Sz sarà uno dei suoi autovalori e
quindi (abbiamo scelto la base nella quale proprio Sz è diagonale ma avremmo potuto sceglier-
ne un’altra) come si vede ±~/2 con probabilità P± = |h±|ψi|2 , dove |±i sono gli autostati
di σz |±i = ±|±i. Dopo la misura, l’elettrone si troverà in uno dei due autostati |+i o |−i a
seconda che il risultato sia stato rispettivamente +~/2 o −~/2. Annotiamo anche che i risultati
possibili sono esclusivi ed esaustivi infatti gli stati |+i e |−i sono ortogonali e formano una
base completa dello spazio (rappresentati dalla base canonica in questo caso).
Naturalmente è facile intuire che essendo il fascio prodotto dal forno “termico”, non ci sarà
motivo che sia privilegiata la probabilità di trovare lungo z (o lungo una qualunque altra di-
rezione) lo spin up piuttosto che down, quindi si può pensare di esprimere lo stato generico
|ψi = a+ |+i + a− |−i (un q-bit) con |a± |2 = 1/2 . Quindi dopo che molti elettroni saranno
passati nell’apparato SGz , sarà stato misurato Sz = +~/2 o Sz = −~/2 un uguale numero
di volte e la metà degli elettroni saranno nello stato |+i e metà nello stato |−i (a meno di
un fattore di fase). Bloccando il fascio nello stato |−i , e misurando poi Sx con SGx , meriterà
esprimere lo stato |+i come sovrapposizione di autostati di Sx e il risultato possibile sarà
56
ancora ±~/2 (autovalori di Sx ), ovvero sarà trovato lo stato |+ix o |−ix . Naturalmente se
come nella prima esperienza rimisurassimo Sz troveremmo sempre come risultato +~/2. Quindi
avremo (tralasciamo i calcoli che sono comunque molto semplici) che a meno di un fattore di
1 1
fase: |+i = √ |+ix + √ |−ix e quindi su molti atomi ne avremo poi il 50% nell’autostato
2 2
|+ix e il 50% nello stato |−ix . Infine bloccando il fascio in |−ix , l’ultimo SGz misurerà
1 1
nuovamente Sz e quindi riesprimeremo lo stato |+ix = √ |+i + √ |−i trovando, senza
2 2
sorpresa, il 50% degli elettroni (atomi di Ag) con Sz = +~/2 e il 50% con Sz = −~/2 .
Il fatto che la misura intermedia di Sx cancelli informazione su Sz è quindi ben incorporato
nel formalismo (ricordate l’analogia con la polarizzazione della luce) ed è legato al fatto che
~ non commutano tra loro. Ag-
come si può verificare direttamente, le varie componenti di S
giungiamo velocemente un paio di considerazioni: la prima è che l’autostato di Sy ad esempio
1 i
|+iy = √ |+i + √ |−i , quindi una combinazione complessa degli autostati di Sz e la seconda
2 2
è che dopo moltissime misure eseguite su sistemi ugualmente preparati nello stato iniziale |ψi, ci
aspettiamo che il valor medio di Sz sia nullo. Vediamo allora come si esprime matematicamente
il valor medio: data una osservabile Λ, con autovalori λi e autovettori |λi i, il valor medio ci
aspettiamo che sia la somma pesata dei risultati ottenuti (autovalori) con la probabilità relativa
(ricorrenza), ovvero:
X
Λ̄ ≡ hΛi = λi Pi (λi )
i
X X X
Λ̄ ≡ hΛi = λi Pi (λi ) = λi |hλi |ψi|2 = λi hψ|λi ihλi |ψi = hψ|Λ|ψi
i i i
X
Λ|λi i = λj |λj ihλj |λi i = λi |λi i
j
che naturalmente si ottiene anche sommando le probabilità dei risultati ±~/2 per i risultati
stessi.
Abbiamo detto che il fatto che una misura di Sx (o Sy ) distrugga informazione sulla misura
(stato) precedente di Sz è legata al fatto che le matrici di spin non commutano (altrimenti
57
avrebbero autostati simultanei). Siamo già in grado di mostrare che ciò si lega al principio di
indeterminazione e che questo è contenuto nel formalismo introdotto.
[Â, B̂] = i Ĉ
Definiamo:
α̂ ≡ Â − hÂi
β̂ ≡ B̂ − hB̂i
(i valori medi si intendono su uno stato |ψi) e notiamo che α̂† = α̂ , β̂ † = β̂ e ancora
[α̂, β̂] = i Ĉ con anche Ĉ † = Ĉ. L’incertezza quadratica è:
2 2
∆ = hα̂2 i = h  − hÂi i = hÂ2 i − hÂi2
2
e ugualmente per B̂ sarà ∆B̂ = hβ̂ 2 i. Naturalmente le indeterminazioni saranno nulle su
autostati degli operatori, quindi considereremo stati che non siano autostati di nessuno dei due
operatori.
Si ha:
2 2
∆ · ∆B̂ = hψ|α̂2 |ψi · hψ|β̂ 2 |ψi
= hα̂ψ|α̂ψi · hβ̂ψ|β̂ψi
2
≥ hα̂ψ|β̂ψi
2
= hψ|α̂β̂|ψi
1 1 i 1
α̂ · β̂ = [α̂, β̂] + {α̂, β̂} = Ĉ + {α̂, β̂}
2 2 2 2
58
ed essendo il primo termine antihermitiano e il secondo hermitiano i loro valori di aspettazione
sono rispettivamente un numero immaginario puro e un numero reale. Si trova quindi che:
2 2 1 1
∆ · ∆B̂ ≥ |hψ|Ĉ|ψi|2 + |hψ|{α̂, β̂}|ψi|2
4 4
1
∆ · ∆B̂ ≥ |hψ|Ĉ|ψi|
2
Veniamo adesso alla doppia fenditura: ciò che misuriamo, quando un elettrone (o un fotone) vie-
ne rivelato sullo schermo, è la sua posizione x, (in realtà un intervallo con una data incertezza),
e quindi assumiamo di misurare l’autovalore dell’operatore x̂. Come ormai abbiamo capito il
risultato di una singola misura non basta a confrontarci con la probabilità prevista teoricamente;
per fare questo servono molte misure ripetute su sistemi identicamente preparati (anche in SG).
Da un punto di vista teorico, volendo calcolare la distribuzione di probabilità per i possibili
risultati della misura di una certa osservabile, dobbiamo proiettare lo stato, all’istante ts nel
quale la particella raggiunge lo schermo, sulla base degli autostati dell’operatore corrispondente
all’osservabile in questione.
Questo si fa con la risoluzione dell’identità, in questo caso dell’operatore x̂:
Z Z
|ψ(ts )i = |xihx|ψ(ts )i dx = ψ(x, ts )|xi dx
59
Si tratta allora di specificare lo stato |ψ(ts )i.
Per ottenere |ψ(ts )i dovremmo in realtà avere già discusso il quarto postulato (e a rigore trattare
il problema almeno in due dimensioni spaziali, una quella della direzione di propagazione y tra le
fenditure e lo schermo e l’altra lungo lo schermo x). Sappiamo comunque che lo stato al tempo ts
sarà dato dall’evoluzione unitaria dello stato al tempo t0 nel quale la particella ”arriva” alle due
fenditure. Eventualmente mostreremo un calcolo completo più avanti, quando avremo maggiore
conoscenza del formalismo; per adesso possiamo comunque impostare il problema anche senza
conoscere la forma esplicita del pacchetto d’onda. Infatti la discussione dell’esperienza ci ha fatto
capire che l’aspetto essenziale, per osservare la figura di interferenza, è che non si sappia da quale
delle due fenditure è passata la particella e quindi che lo stato iniziale sia una sovrapposizione,
con uguale probabilità, dei due stati riferentisi al passaggio dall’una o l’altra delle fenditure.
Senza perdita di generalità possiamo dunque scrivere:
1 1
|ψ(t0 )i = √ |ψ1 i + √ |ψ2 i
2 2
Per la linearità siamo già in grado di dire che lo stato al tempo ts sarà sovrapposizione degli
evoluti dei singoli stati |ψ1 i e |ψ2 i ovvero:
1 1
|ψ(ts )i = √ |ψ1 (ts )i + √ |ψ2 (ts )i
2 2
e quindi:
1 1
|ψ1 (x, ts ) + ψ2 (x, ts )|2 dx = |ψ1 (x, ts )|2 + |ψ2 (x, ts )|2 + 2Re [ψ1∗ (x, ts )ψ2 (x, ts )] dx
P (x, ts )dx =
2 2
60
1.6 Ulteriore discussione dei postulati
Anche il quarto postulato, come anticipato, è presentato in modi leggermente differenti a seconda
dei testi (guardate a esempio Shankar, Forte, Sakurai, Moretti, ma anche le note sull’evoluzione
temporale sul mio sito di google sites). Potremmo riassumere in sintesi che le formulazioni che si
trovano sono praticamente equivalenti, ma merita fare una precisazione: nel corso tratteremo si-
stemi isolati, ovvero che non scambiano ne’ energia ne’ materia con altri sistemi, o sistemi chiusi
che possono scambiare energia ma non materia con l’esterno (non tratteremo sistemi aperti che
possono scambiare entrambe). Per sistemi isolati l’energia si conserva e l’Hamiltoniana non
dipende esplicitamente dal tempo. Per adesso ci riferiremo a questo caso, mentre incontreremo
il caso di Hamiltoniane dipendenti dal tempo quando parleremo di teoria delle perturbazioni
dipendente dal tempo per trattare sistemi che interagiscono, scambiando energia, con un al-
tro sistema. Anticipiamo che nel caso di sistemi chiusi nei quali l’Hamiltoniana può dipendere
esplicitamente dal tempo effettivamente va postulata la validità dell’equazione di Schroedinger,
mentre nel caso di sistema isolato questa deriva direttamente da richieste fisiche riguardanti l’e-
voluzione temporale (quali l’unitarietà dell’evoluzione stessa) come mostrato nelle note sul sito.
Riassumiamone gli aspetti principali: il tempo è un parametro e per descrivere come cambiano i
valori medi delle osservabili nel tempo bisogna che o gli stati, o gli operatori, o entrambi, evolva-
no nel tempo. Mettiamoci prima dal punto di vista nel quale gli stati evolvono e gli operatori no
(rappresentazione di Schroedinger, vedremo che ne esistono altre). Si suppone allora che esista
un operatore U (t, t0 ), lineare e unitario (U † = U −1 ) detto di evoluzione temporale tale che
|ψ(t)i = U (t, t0 )|ψ(t0 )i. L’unitarietà è una condizione necessaria, non trattando sistemi aperti,
per conservare la norma del vettore di stato nel tempo. La linearità è invece necessaria per
preservare il principio di sovrapposizione ad ogni istante. Applicazioni ripetute dell’operatore
di evoluzione per tempi crescenti permetteranno di ottenere lo stato a un istante qualunque,
a partire da un istante dato. È quindi naturale anche che valga, vista l’arbitrarietà dei tempi
scelti, la legge di composizione:
se t1 ∈ (t, t0 ).
Inoltre, essendo il tempo un parametro continuo, è naturale richiedere che per t = t0 +dt si abbia
la trasformazione identica a meno di un termine di ordine dt, ovvero che l’operatore di evoluzione
temporale sia connesso con continuità all’identità e che la sua forma infinitesimamente vicina
61
all’identità, ovvero al primo ordine in dt (notare che dt è la differenza tra i due tempi) sia:
i
U (t0 + dt, t0 ) = I − Hdt
~
dove abbiamo introdotto la costante di Planck ~ per ragioni dimensionali se vogliamo, come
vogliamo, che H coincida con l’Hamiltoniana del sistema per riottenere correttamente il limite
classico. Facile verificare che:
i i i
U (t0 +2dt, t0 ) = U (t0 +2dt, t0 +dt)U (t0 +dt, t0 ) = I − Hdt I − Hdt = I− H2dt+O(dt2 )
~ ~ ~
(la forma infinitesima ricordiamo che vale quando la differenza dei tempi è infinitesima) da cui:
U (t + dt, t0 ) − U (t, t0 ) i
= − HU (t, t0 )
dt ~
62
che è l’equazione di Schroedinger per l’operatore di evoluzione. Moltiplicando l’equazione a
destra per |ψ(t0 )i si ottiene:
∂
i~ U (t, t0 )|ψ(t0 )i = HU (t, t0 )|ψ(t0 )i
∂t
ossia:
∂
i~ |ψ(t)i = H|ψ(t)i (1.11)
∂t
Vedremo più avanti nel corso la soluzione nel caso di Hamiltoniana dipendente dal tempo, mentre
per ora ci limitiamo a ribadire che in tal caso le equazioni di moto per gli stati e per l’operatore di
evoluzione vengono postulate nella stessa forma del caso indipendente dal tempo (cfr Moretti).
Vale la pena notare che seguendo la linea di ragionamento per la quale l’Hamiltoniana deve essere
anche quantisticamente il generatore di traslazioni temporali e che l’energia si conserva sotto
invarianza per traslazioni temporali (come deve essere per sistemi isolati), si sarebbe potuto
direttamente scrivere, seguendo anche quanto visto nella parentesi matematica sugli operatori
unitari, che l’elemento del gruppo unitario a un parametro che corrisponde a una traslazione
temporale avrà la forma dell’eq.(1.12). Riscriviamo quindi la (1.12) rinominando t il tempo t0
(che è un tempo arbitrario) e considerando l’evoluzione tra t e t + δt:
i
−Hδt
U (t + δt, t) = e ~
con H † = H per l’unitarietà e inoltre H identificata con l’Hamiltoniana. Quindi se deve essere
i
Hδt −
|ψ(t + δt)i = U (t + δt, t)|ψ(t)i = e ~ |ψ(t)i
∂
|ψ(t + δt)i ∼ |ψ(t)i + |ψ(t)i · δt + ...
∂t
e l’ultimo a destra:
i
Hδt
− i
e ~ |ψ(t)i ∼ I − Hδt |ψ(t)i
~
63
si vede quindi che l’uguaglianza al primo ordine in δt fornisce l’equazione di Schroedinger per
gli stati (1.13).
Procedendo dall’equazione di Schroedinger per gli stati (1.13), e assumendo che esista un ope-
ratore lineare unitario U (t, t0 ) tale che applicato al ket al tempo t0 fornisca lo stato al tempo t
si ha:
∂
i~ U (t, t0 )|ψ(t0 )i = HU (t, t0 )|ψ(t0 )i (1.13)
∂t
i
− H(t − t0 )
U (t, t0 ) = e ~
A questo punto è opportuno riparlare sinteticamente dell’operatore impulso, che ci servirà tra
l’altro per costruire l’Hamiltoniana e ci permetterà a esempio di discutere subito il caso di
particella libera, non soggetta a forze (potenziale costante o nullo). Sempre seguendo la corri-
spondenza classica, l’impulso spaziale in una direzione è una quantità conservata quando si ha
omogeneità dello spazio, ossia invarianza per traslazioni in quella direzione. L’impulso genera le
traslazioni spaziali e si può quindi costruire l’operatore p̂ quantistico come quello i cui autova-
lori sono conservati quando c’è invarianza per traslazioni. Consideriamo un sistema quantistico
definito nello spazio delle coordinate. Si può vedere una traslazione come un cambiamento della
base di autostati dell’operatore posizione x̂:
T |xi = |x − δi
Z Z Z
0 0 0
T |ψi = dx T |xihx|ψi = dx|x − δi ψ(x) = dx |x iψ(x + δ)
quindi:
Z Z
0 0 0 0 0 0
hx|T |ψi = dx hx|x iψ(x + δ) = dx δ(x − x )ψ(x + δ) = ψ(x + δ)
ci si arrivava anche da: T −1 |xi = T † |xi = |x + δi → hx|T = hx + δ| e quindi:
hx|T |ψi = hx + δ|ψi = ψ(x + δ) .
64
Adesso:
d
X
(n) δn δ
ψ(x + δ) = ψ (x) = e dx ψ(x)
n
n!
i
p̂ δ
T =e ~
in analogia con quanto visto per l’operatore di evoluzione. La differenza sta nel fatto che il tempo
è già un parametro, mentre x̂ non lo è, ovvero il parametro è la traslazione dell’autovalore x
(in sostanza siamo dovuti passare da una rappresentazione specifica in questo caso, cosa non
necessaria per l’operatore di evoluzione).
Quindi abbiamo
i d
p̂ δ δ
hx|e ~ |ψi = ψ(x + δ) = e dx ψ(x)
i ∂
hx|I + p̂ δ|ψi + O(δ 2 ) = ψ(x) + ψ(x) δ + O(δ 2 )
~ ∂x
∂ψ(x)
hx|p̂|ψi = −i~
∂x
Annotiamo che l’aggiunta una qualunque funzione f (x̂) alla definizione dell’impulso non cambie-
rebbe la regola di commutazione. Tuttavia si può mostrare che effettivamente basta considerare,
dψ(x)
con x ∈ (−∞, +∞) il termine hx|p̂|ψi = −i~ , in quanto l’aggiunta di una funzione f (x) a
dx
questo elemento potrebbe essere riassorbita in un fattore di fase ininfluente.
65
Quanto visto è generale nel senso che per ogni trasformazione continua a un parametro
generata da Ĝ† = Ĝ della forma U = e iεĜ :
0 0
Ω̂ = U −1 Ω̂ U ∼ Ω̂ + iε[Ω̂, Ĝ] −→ δ Ω̂ = Ω̂ − Ω̂ ' iε[Ω̂, Ĝ]
Adesso che abbiamo introdotto e parlato a sufficienza degli operatori x̂ e p̂ e delle loro rap-
presentazioni su entrambe le basi |xi e |pi possiamo derivare il
dove [A, B] = iC .
~
Per x̂, p̂ si ha [x̂, p̂] = i~I per cui ∆x̂ · ∆p̂ ≥ .
2
Il pacchetto minimo si ottiene dalle condizioni (ricordiamo α̂ = A − hAi e β̂ = B − hBi ):
hψ|(x̂ − x̄)(p̂ − p̄) + (p̂ − p̄)(x̂ − x̄)|ψi = 0 e (p̂ − p̄)|ψi = λ(x̂ − x̄)|ψi
dψ(x)
λ(x − x̄)ψ(x) = −i~ − p̄ ψ(x)
dx
ovvero:
dψ(x) i
= [p̄ + λ(x − x̄)] ψ(x)
dx ~
che ha soluzione:
i i λ(x − x̄)2
p̄x
ψ(x) = e ~ e~ 2
66
mettendo poi la condizione usata nella prima e tenendo presente che implica:
hψ|(p̂ − p̄) = hψ|(x̂ − x̄)λ∗ si ha:
i α(x − x̄)2
p̄x −
ψ(x) = e ~ e 2
con α = µ/~.
Torniamo adesso all’evoluzione temporale. Nel caso di sistemi isolati con H indipendente dal
tempo, l’evoluzione temporale degli stati si può calcolare esplicitamente sulla base degli autostati
di H che acquistano un fattore di fase dipendente dal tempo.
In questo caso si parla di stati stazionari. Vediamo meglio, consideriamo prima gli autostati
dell’Hamiltoniana a un istante fissato (prendiamo convenzionalmente t = 0) e partiamo dal
supporre che lo spettro sia discreto:
H|En i = En |En i
∂|En i
i~ = En |En i
∂t
i
− En t
|En (t)i = e ~ |En i
P
Se quindi è assegnato lo stato al tempo t = 0: |ψi = n cn |En i,
lo stato al tempo t generico
i
P − En t
sarà, data la linearità dell’equazione di Schroedinger: |ψ(t)i = n cn e ~ |En i.
67
Lo si può vedere direttamente anche costruendo l’operatore di evoluzione:
i i i
X − Ht X − Em t X − En t
U (t) = |En ihEn |e ~ |Em ihEm | = e ~ |En ihEn |Em ihEm | = e ~ |En ihEn |
n,m n,m n
i i
X − En t − Ei t
U (t) |Ei i = e ~ |En ihEn |Ei i = e ~ |Ei i
n
i i
X − En t X − En t X
|ψ(t)i = U (t) |ψ(0)i = e ~ |En ihEn |ψ(0)i = cn (0)e ~ |En i ≡ cn (t)|En i
n n n
(1.14)
i
− En t
con cn (t) = cn (0)e ~ .
Per le probabilità si ha quindi:
PEn (t) = |hEn |ψ(t)i|2 = |cn (t)|2 = |cn (0)|2 = PEn (0)
ovvero per gli stati stazionari le probabilità di ottenere un determinato valore dell’energia come
risultato di una misura non dipendono dal tempo.
Consideriamo adesso i valori medi di osservabili e distinguiamo vari casi, sempre parlando si
stati stazionari. Il primo caso è quello di una osservabile che commuta con l’Hamiltoniana: per
questa ci aspettiamo che in analogia al caso classico si tratti di una quantità conservata e che
quindi il suo valor medio non cambi nel tempo, e infatti è cosı̀: se [A, H] = 0 −→ [A, U (t)] = 0
per cui
hψ(t)|A|ψ(t)i = hψ(0)|U † (t)AU (t)|ψ(0)i = hψ(0)|A|ψ(0)i
Un altro caso è di un’osservabile B che non commuti con l’Hamiltoniana e allora distinguiamo
ancora due casi, dei quali il primo è il valor medio su un autostato |En i di H :
− ~ En t 2
i
hEn (t)|B|En (t)i = e hEn (0)|B|En (0)i = hEn (0)|B|En (0)i
e quindi su autostati dell’energia i valori medi di qualunque operatore sono costanti nel tempo
(è il motivo per cui si chiamano stati stazionari).
Infine il caso sempre di un operatore B che non commuti con l’Hamiltoniana e il valor medio
preso su uno stato che non sia autostato dell’energia. In questo caso il valor medio in generale
68
oscilla nel tempo e va visto di volta in volta. Se lo stato assegnato ha coefficienti non nulli su
tutti gli autostati dell’energia in generale si avrà:
X
hψ(t)|B|ψ(t)i = c∗m (t)cn (t)hEm |B|En i
n,m
dove solo gli elementi diagonali che contribuiscono al valor medio sono costanti nel tempo mentre
gli altri (non nulli) sono moltiplicati per termini oscillanti (discutere come si usano le condizioni
di realtà sugli elementi di matrice con i fattori di fase).
H|ui i = Ei |ui i; i = 1, 2
|u1 i + |u2 i
|φ1 i = √
2
|u1 i − |u2 i
|φ2 i = √
2
Soluzione:
i
− Ht
|ψ(t)i = e ~ |φ1 i
i
− Ht |u1 i + |u2 i
= e ~ √
2
i i
− E1 t − E2 t
e ~ e ~
= √ |u1 i + √ |u2 i
2 2
≡ c1 (t)|u1 i + c2 (t)|u2 i
per cui:
hψ(t)|A|ψ(t)i = |c1 (0)|2 hu1 |A|u1 i + |c2 (0)|2 hu1 |A|u1 i + c∗1 (t)c2 (t)hu1 |A|u2 i + c.c.
1 hφ1 | + hφ2 | |φ1 i + |φ2 i 1 hφ1 | − hφ2 | |φ1 i − |φ2 i
= √ A √ + √ A √ +
2 2 2 2 2 2
69
i
− (E1 − E2 )t hφ1 | + hφ2 |
1 |φ1 i − |φ2 i
+ e ~ √ A √ + c.c.
2 2 2
1n o ei(ω1 −ω2 )t n o
= hφ1 |A|φ1 i + hφ2 |A|φ2 i + hφ1 |A|φ1 i − hφ2 |A|φ2 i + c.c.
2 4
a1 + a2 a1 − a2 i(ω1 −ω2 )t
= + e + c.c.
2 4
a1 + a2 a1 − a2
= + cos[(ω1 − ω2 )t]
2 2
|u1 i + |u2 i
Esempio 2) - In un sistema a due livelli sia |ψ(0)i = √ con ui (x) = hx|ui i ∈ R
2
per cui hψ(0)|p̂|ψ(0)i = 0. Al tempo generico t si avrà:
hu1 | + hu2 | † |u1 i + |u2 i
hψ(t)|p̂|ψ(t)i = √ U (t) p̂ U (t) √
2 2
i
1 1 1 (E1 − E2 )t
= hu1 |p̂|u1 i + hu2 |p̂|u2 i + e ~ hu1 |p̂|u2 i + c.c.
2 2 2
= ±|p̂12 | sin(ω12 t) (1.15)
E1 − E2
p̂ij ≡ hui |p̂|uj i ; ω12 = dato che i primi due termini sono necessariamente nulli
~
mentre gli elementi non diagonali sono immaginari puri. Il valor medio dell’impulso quindi
oscillerà nel tempo attorno al valore iniziale se l’elemento p̂12 6= 0.
Concludiamo questa sezione scrivendo l’operatore di evoluzione nel caso di particella libera e
quindi espanso sulla base degli impulsi, che è una base continua. L’Hamiltoniana è: H =
p2
p̂2 /2m e quindi, dato che [p̂, p̂2 /2m] = 0, si ha H|pi = |pi, ovvero la base |pi diagonalizza
2m
l’Hamiltoniana e quindi l’operatore di evoluzione:
i ip2 t ip2 t
Ht
Z Z Z
− − −
U (t) = dp dq |pihp| e ~ |qihq| = dp dq e 2m~ |pihp|qihq| = dp e 2m~ |pihp|
(1.16)
Più avanti lo applicheremo allo studio dell’evoluzione di un pacchetto libero.
Lasciamo infine per esercizio lo scrivere il caso misto di una evoluzione in presenza di spettro in
parte discreto e in parte continuo nonchè di verificare come evolvono i valori medi.
70
dell’evoluzione dello stato. Tuttavia, anche in MQ, è possibile passare a una rappresentazione
diversa ma unitariamente equivalente, facendo evolvere l’operatore anzichè lo stato. Questo
avviene di fatto semplicemente scambiando tra i punti di vista attivo e passivo dato che l’evo-
luzione temporale è una trasformazione unitaria che può essere attribuita sia agli stati che agli
operatori: questa si chiama rappresentazione di Heisenberg. Più avanti nel corso incontrere-
mo una terza rappresentazione, detta di interazione, nella quale evolvono sia gli stati che gli
operatori, ne riparleremo.
Partiamo dallo scrivere un elemento di matrice di una osservabile a un tempo t, indicando con
il pedice la rappresentazione (S per Schroedinger e H per Heisenberg):
hψS (t)|AS |φS (t)i = hψS (t0 )|U † (t, t0 ) AS U (t, t0 )|φS (t0 )i
i
− H(t − t0 )
con U (t, t0 ) = e ~ con H indipendente dal tempo per sistemi isolati (nel caso di sistemi
chiusi dove H dipende dal tempo useremo la rappresentazione di interazione (IP)).
Se adesso definiamo gli stati e gli operatori in rappresentazione di Heisenberg (HP) come:
e naturalmente AH (t0 ) = AS .
Per la probabilità in rappresentazione di Schroedinger (SP) avevamo:
con |αi indipendente dal tempo (gli autostati di un operatore A). In HP gli autovalori non
cambiano (per via dell’unitarietà che collega AS e AH ) ma gli autostati dipenderanno dal
tempo, ovvero potremo scrivere:
Infatti le probabilità, cosı̀ come i valori medi, non devono dipendere dalla rappresentazione per
cui (t0 = 0):
Pα (t) = |hαS |ψS (t)i|2 = |hαS |U (t)|ψS (0)i|2 = |hαH (t)|ψH i|2
71
1.7.1 Leggi del moto in HP
i i
d d H(t − t0 ) − H(t − t0 )
AH (t) = e~ AS e ~
dt dt
i ∂AH (t)
= [H, AH (t)] +
~ ∂t
d ∂HH
Per l’Hamiltoniana HH (t) = U † (t)HU (t) e quindi HH = dato che [HH , HH ] = 0.
dt ∂t
In generale non considereremo dipendenze esplicite dal tempo e quindi l’equazione di moto in
rappresentazione di Heisenberg conterrà solo il termine di commutatore. Quando considereremo
invece interazioni con dipendenza esplicita dal tempo utilizzeremo la rappresentazione di inte-
razione.
L’evoluzione temporale dei valori medi, essendo questi osservabili, deve risultare indipendente
dalla rappresentazione. Infatti:
d i i ∂AS
hφS (t)|AS |ψS (t)i = hφS (t)| HAS |ψS (t)i − hφS (t)| AS H|ψS (t)i + hφS (t)| |ψS (t)i
dt ~ ~ ∂t
1 ∂AS
= hφS (t)| [AS , H]|ψ(t)i + hφS (t)| |ψS (t)i
i~ ∂t
1 ∂AS
= hφS (0)|U † (t) [AS , H]U (t)|ψS (0)i + hφS (0)|U † (t) U (t)|ψS (0)i
i~ ∂t
1 ∂AH
= hφH | [AH , H]|ψH i + hφH | |ψH i
i~ ∂t
d
= hφH |AH (t)|ψH i
dt
dA ∂A ∂A ∂A
= q̇ + ṗ +
dt ∂q ∂p ∂t
∂A ∂H ∂A ∂H ∂A
= − +
∂q ∂p ∂p ∂q ∂t
∂A
= {A, H} +
∂t
72
da cui si vede l’analogia con il caso classico, sempre sostituendo la Parentesi di Poisson con il
commutatore (diviso i~) e sempre tenendo presente che in MQ si misurano valori medi. Co-
munque, come nel caso classico, una quantità che non dipende esplicitamente dal tempo ed ha
Parentesi di Poisson nulla con l’Hamiltoniana è conservata, cosı̀ nel caso quantistico è conservato
il valor medio di una osservabile che commuta con l’Hamiltoniana e non dipende esplicitamente
dal tempo.
dx̂H 1
= [x̂H , H]
dt i~
dp̂H 1
= [p̂H , H]
dt i~
p̂2
con H = + V (x̂). Allora
2m
p̂2H p̂H
[x̂H , H] = [x̂H , ] = i~
2m m
∂f
[x̂, f (p̂)] = i~
∂ p̂
mentre
∂f
[p̂, f (x̂)] = −i~
∂ x̂
Comunque troviamo:
dx̂H p̂H
=
dt m
dp̂H ∂V ∂H
= − = −
dt ∂ x̂ ∂ x̂
73
prendono la forma:
dhx̂i ∂H
=
dt ∂ p̂
dhp̂i ∂H
= −
dt ∂ x̂
e quindi in realtà le equazioni classiche sono valide in media. Per potenziali lineari
e quadratici
∂H(x̂)
la somiglianza con il caso classico aumenta perchè in questi casi si può sostituire con
∂ x̂
∂H(hx̂i)
(cosa che è sempre vera per la prima equazione con termine cinetico standard) e quindi
∂hx̂i
le equazioni classiche non sono più solamente vere in media ma valgono proprio per i valori medi.
In generale dipende dalle fluttuazioni lo scarto dalle equazioni classiche.
74
Capitolo 2
Adesso vale la pena scrivere l’equazione di Schroedinger nella base |xi partendo dal caso di una
particella in una dimensione. Generalizzeremo più avanti a più dimensioni e più gradi di libertà.
Nella maggior parte dei casi avremo Hamiltoniane della forma (in 1d)
p̂2
H = + V (x̂)
2m
e l’equazione che fornisce la dinamica, dal postulato IV sarà, sulla base |xi:
∂
i~ hx|ψ(t)i = hx|H|ψ(t)i
∂t
ovvero:
Z
∂ψ(x, t) 0 0 0
i~ = dx hx|H|x ihx |ψ(t)i
∂t
Z
0 0 0 0
= dx H(x, x )δ(x − x )ψ(x , t)
Quindi l’equazione di Schroedinger sulla base |xi nel caso unidimensionale (la generalizzazione
a più dimensioni è comunque facilmente intuibile) è:
∂ψ(x, t) ~2 ∂ 2 ψ(x, t)
i~ = − + V (x)ψ(x, t)
∂t 2m ∂x2
Discuteremo tra breve le proprietà generali delle soluzioni per varie forme del potenziale. Siamo
comunque già in grado di dire che, nel caso stazionario, la dipendenza dal tempo è risolta. Infatti
75
gli autostati dell’energia, che forniscono una base completa dello spazio di Hilbert, hanno una
dipendenza temporale nota, quindi resterà da risolvere l’equazione di Schroedinger stazionaria
per determinare le autofunzioni dell’energia. Riassumendo, nel caso stazionario (base numerabile
o continua), abbiamo:
∂|Ei
i~ = H|Ei = E|Ei
∂t
i
− Et
|E(t)i = e ~ |E(0)i
Proiettando quindi come prima sulla base |xi, troveremo che la dipendenza temporale viene
fattorizzata e resta da risolvere un’equazione differenziale in x che dipende dalla forma del
potenziale e che come incognite ha autovalori e autof unzioni dell0 energia, ovvero si avrà:
i
∂ψE (x, t) − Et ~2 ∂ 2 ψE (x, t)
i~ = Ee ~ ψE (x, 0) = − + V (x)ψE (x, t)
∂t 2m ∂x2
~2 ∂ 2 u(x)
− + V (x)u(x) = E u(x) (2.2)
2m ∂x2
Scriviamo infine anche l’equazione di Schroedinger stazionaria nella base degli impulsi |pi:
p2
∂
+ V i~ u(p) = E u(p)
2m ∂p
Ovviamente le soluzioni possono essere trovate in entrambe le basi e poi ricondotte all’altra base
trasformando. La forma nella base |pi è preferibile nel caso di potenziale lineare (che noi non
avremo tempo per studiare) perchè, come è evidente, viene un’equazione solo del primo ordine
in questa base mentre nella base |xi resta un’equazione del secondo ordine.
Come detto tratteremo poi la forma generale delle soluzioni dipendenti dalla forma del poten-
ziale e dal regime di energia, tuttavia merita prima discutere in maggiore dettaglio il caso libero,
ovvero, senza perdita di generalità, il caso V (x) = 0.
76
2.2 Applicazioni nel caso libero
Dato che nel caso libero [H, p̂] = 0, energia e impulso ammettono autostati comuni. Tuttavia si
vede subito che sia p che −p danno lo stesso valore dell’energia p2 /2m e quindi si ha una doppia
degenerazione utilizzando la base |pi, ossia ogni combinazione lineare |ψE i = c1 |pi + c2 | − pi
corrisponde a un autostato con lo stesso autovalore dell’energia. D’altra parte sappiamo che
nella base delle coordinate:
px
i
e ~
hx|pi = √
2π~
rappresenta un’onda piana in una dimensione per cui, in generale, si hanno soluzioni:
px px
i −i
e ~ e ~
ψE (x) = hx|ψE i = c1 √ + c2 √
2π~ 2π~
che naturalmente si potevano anche ricavare direttamente dalla soluzione generale dell’equazione
di Schroedinger nel caso V (x) = 0:
hx|H|ψE i = Ehx|ψE i
ovvero:
~2 ∂ 2 ψE (x)
− = EψE (x)
2m ∂x2
e ancora:
∂ 2 ψE (x) p2
+ ψE (x) = 0
∂x2 ~2
Inserendo l’evoluzione temporale si ottiene, per le autofunzioni dell’energia nel caso libero:
i i
(px − Et) − (px + Et)
e~ e ~
ψE (x, t) = c1 √ + c2 √
2π~ 2π~
Quindi, riassumendo, per la particella libera le soluzioni sono onde piane progressive e regressive
(con velocità di fase vf = ±ω/k) ovvero si ha degenerazione due nella base degli impulsi.
77
2.2.2 Parità
È opportuno adesso aprire una parentesi sulla parità. L’operatore parità P opera nel seguente
modo su x̂, p̂ e sui loro autostati:
P |xi = | − xi ; P |pi = | − pi
p2
(a meno di normalizzazioni) si avrà: H |p±i = |p±i e anche P |p±i = ± |p±i .
2m
Da notare che questi non sono più autostati dell’impulso (sono combinazioni lineari di questi)
cosı̀ come le funzioni d’onda corrispondenti, che saranno della forma:
p p
hx|p+i ∼ cos x ; hx|p−i ∼ sin x
~ ~
e che non siano autofunzioni dell’impulso lo si vede anche applicando l’operatore impulso sulla
base delle x che agisce come una derivata e quindi scambia le soluzioni tra loro.
Le uniche autofunzioni simultanee di energia e impulso si hanno quindi nel caso libero perchè
un qualunque potenziale non costante o nullo ovunque per x ∈ (−∞, +∞) implica [H, p̂] 6= 0
dal momento che x̂ non commuta con p̂. Per motivi analoghi non si hanno mai autofunzioni
simultanee di x̂ e H dato che il termine cinetico non commuta mai con x̂. Le autofunzioni
simultanee di impulso ed energia nel caso libero sono onde piane progressive e regressive e quindi
sono stati non normalizzabili. Chiaramente sono un’astrazione in quanto dovrebbero estendersi
78
in tutto lo spazio infinito, tuttavia le si usano perchè sono utili come altri oggetti introdotti spesso
in fisica, quali il punto materiale ecc. Comunque, cosa rappresentano per noi le onde piane?
Essendo il loro modulo quadro costante, risultano completamente delocalizzate nello spazio (e
completamente localizzate nell’impulso, cosı̀ come uno stato completamente localizzato in x
avrebbe uno spettro costante e quindi impulso infinitamente indeterminato). Possono quindi
rappresentare un fascio di particelle con densità costante per unità di volume (lunghezza nel
caso unidimensionale). Un modo per “visualizzarlo” può essere considerare lo spazio suddiviso
in celle di lunghezza L e di imporre condizioni periodiche ai bordi delle celle ottenendo in questo
modo la discretizzazione dei possibili valori dell’impulso. Si avrebbe infatti:
pL pL pL
i −i i
ψ(L/2) = ψ(−L/2) −→ Ce 2~ = Ce 2~ −→ Ce ~ = 1
2πn~
ovvero p = pn = con n ∈ Z. Verifichiamo l’ortogonalità:
L
Z L/2 Z L/2 2π 0
ψp∗ (x)ψp0 (x) 2
dx = |C| ei L (n −n)x dx = |C|2 L δn,n0
−L/2 −L/2
1
e quindi per avere la normalizzazione (discreta in questo caso) deve essere |C| = √ e nel box
L
quindi:
2πn
i x
e L
ψp (x) = √
L
che equivale a una densità di probabilità di presenza unitaria in ogni cella di ampiezza L e quindi
che la funzione d’onda rappresenti appunto un fascio di particelle con questa densità.
Concludiamo dicendo che comunque la base delle onde piane (la base |pi), anche se non sono
normalizzabili, costituisce una base completa dello spazio di Hilbert e su di essa si possono
decomporre sia stati non normalizzabili che pacchetti d’onda a quadrato sommabile (di classe
L(2) ) e quindi normalizzabili e che hanno una probabilità non nulla di presenza nello spazio
x localizzata al finito, e che vale in generale come vedremo più avanti per gli stati legati, con
potenziale V (x) 6= 0 in determinati regimi di energia.
Nel capitolo precedente abbiamo visto esempi di come si ottiene l’evoluzione temporale di uno
stato nel caso di spazi separabili ovvero con basi numerabili. Adesso che conosciamo a sufficienza
le basi |xi e |pi, vediamo come si calcola l’evoluzione della funzione d’onda che rappresenti una
79
particella libera, non soggetta a forze.
p2
Essendo l’Hamiltoniana H = p̂2 /2m e come sappiamo H|pi = |pi, useremo in questo caso
2m
l’espressione per l’operatore di evoluzione nella base |pi di eq. (1.16), che riscriviamo:
i ip2 t ip2 t
Ht
Z Z Z
− − −
U (t) = dp dq |pihp| e ~ |qihq| = dp dq e 2m~ |pihp|qihq| = dp e 2m~ |pihp|
Vediamo allora come si calcola l’evoluzione temporale della funzione d’onda, assegnata nella
base |xi a un tempo iniziale, che si riferisce a una particella libera. Impostiamo adesso il calcolo
nel caso generale, ovvero senza specificare la forma esplicita di ψ(x, 0), per mostrare la stretta
analogia con quanto abbiamo fatto in nel caso di un sistema a due livelli (o comunque con
quanto si fa nel caso di basi numerabili). L’importante è capire che l’evoluzione temporale si
ottiene andando sulla base degli autostati dell’Hamiltoniana, sia nel caso di basi numerabili che
continue.
Se volessimo studiare l’evoluzione della funzione d’onda nel caso di base numerabile dovremmo
semplicemente proiettare l’eq.(1.14 sulla base delle |xi e avremmo
ψ(x, t) = hx|ψ(t)i
Nel caso attuale, avendo assegnata ψ(x, 0) nel caso libero, stavolta ψ(x, t) è data da
ψ(x, t) = hx|ψ(t)i
= hx|Û (t)|ψ(0)i
i
− Ĥt
= hx|e ~ |ψ(0)i
p̂2
−i t
= hx|e 2m~ |ψ(0)i
80
p̂2
−i t
Z
= dp hx|e 2m~ |pihp|ψ(0)i
p2
−i t
Z
= dp e 2m~ hx|piψ(p, 0)
px
p2 i
−i t e ~
Z
= dp e 2m~ √ ψ(p, 0)
2π~
(2.4)
Notiamo che, nel caso adesso di base continua, abbiamo eseguito gli stessi passaggi che avevamo
utilizzato per ottenere l’eq.(1.14), ovvero è stato inserito l’operatore di evoluzione con la sua
decomposizione spettrale data in termini degli autostati di p̂, che diagonalizzano l’Hamiltoniana
libera. Le differenze sono nel fatto che nel caso continuo conosciamo gli autovalori dell’energia,
la forma esplicita delle autofunzioni, mentre nella formula del caso numerabile sono lasciate
generiche perchè non è specificata la forma dell’Hamiltoniana, e naturalmente si integra anzichè
sommare e ψ(p, 0) ha il ruolo dei cn (0).
Resta da calcolare ψ(p, 0) (la trasformata di Fourier di ψ(x, 0)) ovvero la funzione d’onda svi-
luppata sulla base delle autofunzioni dell’energia, anche questo in analogia con quanto si fa per
una base discreta:
px
Z Z −i
e ~
ψ(p, 0) = hp|ψ(0)i = dx hp|xihx|ψ(0)i = dx √ ψ(x, 0)
2π~
Notiamo che per l’evoluzione temporale di un qualunque pacchetto libero si potrebbe anche
utilizzare la rappresentazione dell’operatore di evoluzione sulla base dell’operatore posizione,
anche detto propagatore. Infatti si può scrivere:
ψ(x, t) = hx|ψ(t)i
= hx|Û (t)|ψ(0)i
Z
= dx0 hx|U (t)|x0 ihx0 |ψ(0)i
Z
= dx0 U (t; x, x0 )ψ(x0 , 0) (2.5)
con appunto U (t; x, x0 ) il propagatore. Mostriamo che si può calcolare in generale per un pacchet-
to libero. Infatti, sempre utilizzando la rappresentazione spettrale per l’operatore di evoluzione
libera si trova:
81
p̂2
−i t
Z
= dp hx|e 2m~ |pihp|x0 i
p2
−i t
Z
= dp e 2m~ hx|pihp|x0 i
p2
dp −i t ip x − x0 /~
Z
= e 2m~ e
2π~
(x − x0 )2
−m
r
m
= e 2i~t
2iπ~t
dove nell’ultimo passaggio è stato usato il risultato noto per la trasformata di Fourier di una
gaussiana. Abbiamo quindi la forma esplicita per il propagatore libero e la si può inserire
nell’equazione (2.5) per ottenere:
(x − x0 )2
−m
Z r
m
ψ(x, t) = dx0 e 2i~t ψ(x0 , 0) (2.6)
2iπ~t
che appunto può essere usata per l’evoluzione di un generico pacchetto libero ψ(x, 0) assegnato
al tempo t = 0. Questo procedimento ha il vantaggio di essere diretto, e naturalmente i risultati
dell’eq.(2.6) e (2.4) coincidono, come si può capire tenendo presente che la soluzione in termini
del propagatore è data in termini di un prodotto di convoluzione delle antitrasformate della
funzione d’onda e del propagatore mentre appunto in eq.(2.4) abbiamo l’ antitrasformata del
prodotto degli stessi oggetti nella base |pi.
Tuttavia l’utilizzo del calcolo diretto attraverso il propagatore libero nello spazio |xi maschera
il procedimento generale da seguire per ottenere l’evoluzione temporale e, ripetiamo, l’analogia
con quanto si fa con basi discrete e continue.
Riconsideriamo adesso il pacchetto gaussiano, che come abbiamo visto minimizza il prodotto
delle indeterminazioni ∆x̂ · ∆p̂:
i α(x − x̄)2
p̄x −
ψ(x) = e ~ e 2
e scegliamo che il pacchetto abbia p̄ ≡ hp̂i = 0. Inoltre vogliamo che rappresenti la funzione
R +∞
d’onda di una particella per cui lo riscriviamo normalizzato, ovvero tale che −∞ |ψ(x)|2 dx = 1.
82
Prendiamo quindi come funzione d’onda all’istante iniziale:
2
α 1/4 − α(x − a)
ψ(x, 0) = e 2
π
px
Z Z −i
e ~
ψ(p, 0) = dx hp|xihx|ψ(0)i = dx √ ψ(x, 0)
2π~
px
−i α(x − a)2
−
Z
e ~ α 1/4
= dx √ e 2
2π~ π
1/4 p2
−
1
= e 2α~2
πα~2
ovvero la trasformata di Fourier di una gaussiana è ancora una gaussiana (anche se di larghezza
inversa rispetto a quella nella base |xi consistentemente con il comportamento atteso per le
indeterminazioni nei due spazi). Questa espressione deve poi essere inserita in eq.(2.4) per
ottenere il risultato desiderato e quindi la funzione d’onda a un tempo generico t è data da:
px
p2 i 1/4 p2
−i
t e ~ −
Z
1
ψ(x, t) = dp e 2m~ √ 2
e 2α~2
2π~ πα~
α(x − a)2
α 1/4 1 −
= p e 2 (1 + i~αt/m)
π 1 + i~αt/m
quindi ancora una gaussiana on coefficiente complesso. A noi interessa comunque la distribuzione
di probabilità che è legata al modulo quadro:
α(x − a)2
α 1/2 1 − 2 2 2 2
|ψ(x, t)|2 = p e (1 + ~ α t /m )
π 1 + ~2 α2 t2 /m2
83
l’incertezza sull’impulso non evolve nel tempo. Invece x̂ non commuta con l’Hamiltoniana libera
(con p̂) e quindi le sue funzioni, quali l’incertezza ∆x̂(t), evolvono nel tempo. In particolare
abbiamo visto in rappresentazione di Heisenberg che si ha:
i p̂2
d i p̂
x̂ = [Ĥ, x̂] = , x̂ =
dt ~ ~ 2m m
p̂(0)
che integrata fornisce x̂(t) = x̂(0) + t , dato che come detto p̂ non dipende dal tempo
m
(ricordiamo anche che gli operatori al tempo t = 0 coincidono nelle due rappresentazioni di
Schrodinger e Heisenberg). Quindi
* 2 + 2
2 p̂(0) p̂(0)
∆ x̂(t) = x̂(0) + t − x̂(0) + t
m m
t2 2 t
= ∆2 x̂(0) + 2
∆ p̂(0) + [hx̂(0)p̂(0) + p̂(0)x̂(0)i − 2hx̂(0)ihp̂(0)i]
m m
e quindi per grandi tempi sicuramente l’incertezza su x̂ aumenta dato che domina il termine
quadratico nel tempo e il prodotto delle indeterminazioni aumenta. E questo vale in generale.
Possiamo però andare oltre perchè essendo ψ(x, 0) ∈ R, ne segue hp̂(0)i = 0. Per lo stesso motivo
hx̂(0)p̂(0) + p̂(0)x̂(0)i = 0. Infatti {x̂, p̂} è un operatore hermitiano ma avendo rappresentazione
immaginaria pura (x̂ è reale mentre p̂ è immaginario puro) troveremmo un valore immaginario
con ψ(x, 0) ∈ R. Verifichiamolo comunque esplicitamente nel caso del pacchetto in esame:
scrivendo {x̂, p̂} = 2x̂p̂ − i~
Z a
hx̂(0)p̂(0) + p̂(0)x̂(0)i = ψ {x̂, p̂}ψdx
−a
Z a
dψ 2
= −i~ 2x ψ +ψ dx
−a dx
Z a
= −i~ d(xψ 2 )
−a a
= −i~xψ 2 = 0
−a
84
√
1 ~ α ∆2 p̂(0)
Riprendendo le espressioni ∆x̂(0) = √ , ∆p̂(0) = √ per cui 2 x̂(0)
= ~2 α2 si trova
2α 2 ∆
che il risultato per l’allargamento del pacchetto gaussiano è:
r
~ ~2 α2 t2
∆x̂(t) · ∆p̂(t) = · 1 +
2 m2
1 + ~2 α2 t2 /m2
che è quanto si ricava naturalmente anche dal calcolo diretto di hx̂2 (t)i = .
2α
Per una particella macroscopica di m = 1gr e larghezza dell’ordine di 1f m in 30 anni si acqui-
sterebbe un allargamento a circa 10−5 cm e in 3 · 106 anni inferiore a 1cm.
Vogliamo adesso discutere le proprietà generali delle soluzioni dell’equazione di Schroedinger per
un potenziale V (x̂) generico. Prima di tutto verifichiamo che vale una:
Una delle proprietà dell’equazione di Schroedinger è che contiene in sè la legge di conservazione
della probabilità, che fisicamente ci aspettiamo perchè non trattiamo sistemi aperti. Formal-
mente si traduce in una equazione di continuità del tutto analoga a quella vista ad esempio
in elettromagnetismo con le equazioni di Maxwell che prevedono la conservazione della carica
elettrica.
Prendiamo l’equazione moltiplicata per ψ ∗ (x) e la sua complessa coniugata moltiplicata per
ψ(x):
∂ψ(x, t) ~2 ∗ ∂ 2 ψ(x, t)
i~ ψ ∗ (x, t) = − ψ (x, t) + ψ ∗ (x, t) V (x)ψ(x, t)
∂t 2m ∂x2
∗
∂ψ (x, t) ~2 ∂ 2 ψ ∗ (x, t)
−i~ ψ(x, t) = − ψ(x, t) + ψ ∗ (x, t) V (x)ψ(x, t)
∂t 2m ∂x2
~2 ∂ ∂ψ ∗
∂ ∗ ∂ψ
i~ |ψ|2 = − ψ − ψ
∂t 2m ∂x ∂x ∂x
ovvero
∂ψ ∗
∂ ~ ∂ ∗ ∂ψ
|ψ|2 + ψ − ψ =0
∂t 2im ∂x ∂x ∂x
85
che è della forma (la scriviamo direttamente nel caso multidimensionale):
∂ ~ · ~j = 0
ρ + ∇
∂t
dove
~j = ~ h ∗~ i
~ ∗ ψ = ~ =m ψ ∗ ∇ψ
~
ρ(~x, t) = |ψ(~x, t)|2 ; ψ ∇ψ − ∇ψ
2im m
naturalmente, essendo adesso nel caso unidimensionale, con la sola dipendenza da x e la corrente
che è una funzione scalare.
Integrando nello spazio l’equazione di continuità ottenuta si arriva quindi a un’interpretazione
fisica analoga a quanto visto in elettromagnetismo a proposito della conservazione della carica
elettrica con la densità di probabilità che sostituisce la densità di carica e la densità di corrente
di probabilità che sostituisce la densità di corrente elettrica. Per una soluzione libera a impulso
definito:
i
px
e~
ψp (x) = √
2π~
si trova:
p
j= |ψp |2 = ρv
m
e quindi in questo caso di onda viaggiante l’espressione della corrente risulta collegata all’impul-
so come è intuitivo che sia. Se invece a esempio ψ ∈ R ne segue che ~j = 0 e infatti sappiamo in
questo caso che anche il valor medio dell’impulso è nullo.
Il caso stazionario può anche essere visto come quello nel quale ~j è costante o nulla, o comunque
a divergenza nulla (solenoidale). Ricommenteremo su questo quando studieremo stati legati per
opportuni potenziali V (~x). In questo caso comunque la densità di probabilità non dipende dal
∂ρ
tempo ossia = 0 (un esempio lo abbiamo visto con l’evoluzione libera del pacchetto gaussiano
∂t
senza valor medio dell’impulso iniziale).
Per adesso abbiamo risolto l’equazione, ovvero trovato autovalori e autofunzioni dell’energia so-
lo nel caso libero, ma è evidente che saremo interessati principalmente a studiare problemi con
interazioni, ovvero potenziali variabili.
La prima grande distinzione da fare, fisicamente, riguarda il fatto che troveremo problemi nei
quali le soluzioni sono completamente determinate e situazioni nelle quali invece restano del-
86
le libertà residue. Ciò corrisponde nel primo caso a stati legati, ovvero stati per i quali la
probabilità di presenza nello spazio |xi è non nulla solo al finito perchè il potenziale lega appun-
to la particella in una zona limitata dello spazio e lo spettro dei possibili valori dell’energia è
quantizzato (discreto). In questi casi ci limitiamo a determinare autovalori e autofunzioni senza
alcuna libertà residua di poter eseguire scelte dall’esterno del sistema. Nel secondo caso invece si
tratterà di sistemi nei quali una particella o un fascio di particelle risentono di un potenziale in
una porzione dello spazio, o anche in tutto lo spazio, senza essere tuttavia confinate. In questo
caso quindi si rappresentano situazioni nelle quali a esempio l’intensità del fascio, o la regione
dal quale proviene, sono fissate consistentemente dall’esterno e quindi è logico che restino delle
libertà che corrispondono appunto a condizioni che sono specificate dall’esterno.
Matematicamente gli stati legati sono soluzioni con funzioni d’onda a quadrato sommabile, ov-
vero di classe L(2) , mentre in generale le soluzioni non di stato legato non sono normalizzabili
e quindi non sono a quadrato sommabile. Tuttavia sottolineiamo che qui parliamo di soluzioni
dell’equazione di Schroedinger, ovvero di autofunzioni dell’energia, che sono una base completa
per qualunque funzione d’onda nello spazio di Hilbert. Questo significa che anche nei casi in cui
abbiamo delle libertà dall’esterno, si possono considerare funzioni d’onda (pacchetti) a quadrato
sommabile. In altre parole la libertà dall’esterno consiste anche nello scegliere una combinazione
infinita di autofunzioni dell’energia che sia a quadrato sommabile. Un esempio lo abbiamo già
visto con l’allargamento del pacchetto gaussiano nel caso libero, che certo non ammette stati
legati.
Vediamo quindi il comportamento delle soluzioni ovvero quali sono le funzioni base per un
generico potenziale V (x̂), studiando l’eq.(2.2):
~2 ∂ 2 u(x)
− + V (x)u(x) = E u(x)
2m ∂x2
00
h i
u (x) + E − V(x) u(x) = 0 (2.7)
Il prototipo di situazioni che studieremo sono per V(x) delle forme in figura.
Nel caso (a) si cercano stati legati mentre nei casi (b) e (c) si studia come il potenziale altera il
moto di una particella (o di un fascio di particelle) e quindi si descrivono problemi di urto (di
scattering, diffusione).
L’equazione di Schroedinger è del secondo ordine e quindi ammette in generale due soluzioni
87
linearmente indipendenti che (salvo eccezioni che vedremo) possiedono derivata prima continua.
R +∞
Chiaramente per avere stati legati è necessario che valga −∞ |u(x)|2 dx = 1 e quindi
u(x) ∈ L(2) (R).
Allora, per prima cosa, e partendo da V (x) continui per x ∈ (−∞, +∞), analizziamo il compor-
tamento asintotico delle soluzioni che dipende dal segno di [E − V(x)].
Per [E − V(x)] > 0 sono soluzioni oscillanti e quindi non sono normalizzabili, mentre per
[E − V(x)] < 0 le soluzioni sono esponenziali reali e quindi scartando opportunamente le solu-
zioni divergenti a ±∞ possono essere di classe L(2) (R).
Va subito detto che comunque si dovrà avere E > Vmin (x), perchè altrimenti le soluzioni non
sono accettabili in quanto gli esponenziali reali ovunque, anche scartando le soluzioni divergenti
a ±∞, non possono raccordarsi con continuità della derivata e in effetti non avrebbero senso
fisico avendosi energia cinetica negativa ovunque.
Il fatto che in qualche regione (per potenziali continui e con minimo al finito) e a ±∞ si abbia
E < V(x) implica sı̀ che l’energia cinetica sia negativa ma, come si può dimostrare, in modo non
osservabile (tuttavia l’esistenza di onde evanescenti è proprio una caratteristica peculiare della
MQ).
In conclusione quindi soluzioni di stato legato per potenziali continui con minimo al finito si
possono avere con andamento esponenzialmente decrescente a ±∞ e che si raccordino in modo
continuo (e con derivata continua) con soluzioni oscillanti al finito. Fisicamente ripetiamo che
quindi nella regione al finito si avrà energia cinetica positiva con onde evanescenti al di fuori dei
punti di inversione E = V(x).
Senza perdere generalità consideriamo un potenziale continuo con minimo al finito e con
limx→±∞ V(x) = V± come in figura.
(Il caso con il potenziale che abbia un massimo al finito avrà necessariamente E > M in(V+ , V− )
e quindi non avrà soluzioni di stato legato come vedremo con la barriera di potenziale)
Vediamo quindi le soluzioni nei vari regimi di energia:
88
dall’altro estremo (a ±∞ e viceversa scambiando il ruolo di V+ , V− ). In questo caso resta un
solo coefficiente libero perchè la particella (o il fascio) può provenire solo dal lato che ammette
soluzioni oscillanti. In questo caso lo spettro dell’energia è continuo e non degenere.
Per chiarire meglio la situazione del caso 3) consideriamo di approssimare il potenziale sud-
dividendolo in parti costanti a tratti.
Premettiamo che salti finiti del potenziale non impediscono di avere derivata continua della
soluzione, come si vede facilmente integrando l’equazione di Schroedinger attorno a una discon-
tinuità finita generica. Discontinuità infinite del potenziale non sono fisiche ma si usano come
approssimazioni utili in alcune situazioni e in questo caso la funzione d’onda resta continua ma
non la derivata.
Quindi se si hanno N regioni ci sono 2N parametri con 2N condizioni al contorno che consistono
in 2(N − 1) condizioni di raccordo per la funzione d’onda e la derivata ai punti di discontinuità
del potenziale e altre 2 per scartare le soluzioni divergenti a ±∞. Queste condizioni si traducono
sempre in sistemi lineari omogenei di 2N equazioni in 2N incognite per cui nel caso di equa-
zioni tutte linearmente indipendenti l’unica soluzione è quella banale, corrispondente a funzione
d’onda nulla. Se esiste la possibilità di avere soluzioni non banali questo passa quindi attraverso
l’imposizione della non indipendenza lineare del sistema di equazioni. Questo è eventualmente
possibile per valori discreti dell’energia nel qual caso resta, come anticipato all’inizio, un para-
metro libero che tuttavia libero non è perchè va fissato con la condizione di normalizzazione.
Vedrete che in pratica a volte si utilizzano altri metodi per trovare gli stati legati che tutta-
via sono equivalenti concettualmente alla procedura indicata adesso per il potenziale costante a
tratti.
Gli stati legati si trovano quindi imponendo opportune condizioni al contorno che a volte è pos-
89
sibile rispettare per determinati valori dell’energia. Va però detto che non sempre si possono
soddisfare matematicamente queste condizioni e ciò fisicamente equivale al fatto che non sempre
si hanno soluzioni di stato legato o comunque se ne possono avere un numero molto limitato
dipendentemente dalle caratteristiche del potenziale. Come detto si parla di stati legati perchè
la particella è “legata” al finito ovvero vincolata ad essere trovata solo in una regione al finito
dello spazio (si pensi ad esempio all’atomo di idrogeno con gli orbitali atomici).
Mostriamo adesso che le soluzioni per gli stati legati in 1d non sono mai degeneri e che le
autofunzioni possono sempre essere scelte reali (quindi lo sono).
Riprendiamo ancora l’equazione di Schroedinger (2.7):
00
h i
u (x) + E − V(x) u(x) = 0
come abbiamo detto e visto l’equazione è del secondo ordine e ammette due soluzioni linearmene
indipendenti diciamo u1 , u2 .
Il Wronskiano è il determinante della matrice:
u1 u2
W (u1 , u2 ) = det = u1 u02 − u2 u01
u01 u02
00
h i
u1 u2 + E1 − V(x) u1 u2 = 0
00
h i
u2 u1 + E2 − V(x) u2 u1 = 0
00 00
u1 u2 − u2 u1 = (E2 − E1 ) u1 u2 (2.8)
90
Per E2 = E1 si trova W 0 (u1 , u2 ) = 0 e quindi W =cost. D’altra parte per gli stati legati
W (+∞) = W (−∞) = 0 e quindi W = 0 ovunque. Ma questo implica u01 u2 − u02 u1 = 0 ovvero:
d ln u1 d ln u2
=
dx dx
ln u1 = ln u2 + C −→ u1 = eC u2 −→ u1 ∝ u2
ovvero le soluzioni sono linearmente dipendenti e quindi in conclusione per E2 = E1 c’è una
sola soluzione ovvero non si ha degenerazione.
Dall’eq.(2.8), integrando si ha:
Z +∞ Z +∞
0
W (u1 , u2 ) dx = u1 u2 (E1 − E2 ) dx = W (+∞) − W (−∞) = 0
−∞ −∞
00
h i
u + E −V u = 0
00
h i
u∗ + E − V u∗ = 0
Teorema:
Siano u1 , u2 soluzioni corrispondenti a E1 , E2 con E2 > E1 ; allora tra due zeri consecutivi di
u1 c’è almeno uno zero di u2 , che quindi oscilla più rapidamente. In particolare l’autofunzione
corrispondente all’autovalore n−esimo ha n − 1 nodi (zeri) al finito. Lo stato fondamentale non
ha zeri al finito.
Una conseguenza di questo teorema è che per V (x̂) = V (−x̂) la funzione d’onda dello stato
91
fondamentale ha sempre parità pari.
Abbiamo adesso tutti gli elementi più importanti per discutere problemi unidimensionali diversi
dal semplice caso di particella libera, ossia studieremo problemi con un potenziale variabile in
x.
Partiamo dallo studio di un paio di casi nei quali non si hanno stati legati e si studia l’influenza
del potenziale sulla probabilità di presenza nelle varie regioni dello spazio. Non trattandosi di
stati legati, come detto, avremo la libertà di scegliere se l’“oggetto” sottoposto al potenziale
sia una particella o un fascio di particelle perchè come abbiamo discusso le funzioni almeno
a ±∞ o in entrambe le regioni saranno onde piane che rappresentano un fascio di particelle,
ma potremmo anche sovrapporle per scegliere uno pacchetto normalizzabile che rappresenti una
particella viaggiante verso destra o verso sinistra a seconda della forma del potenziale o per
scelta arbitraria, come vedremo. Per semplicità di calcolo sceglieremo di rappresentare fasci di
particelle, ossia considereremo onde piane anche se fisicamente sarebbero più appropriate altre
scelte. I risultati principali sono in ogni caso gli stessi e differiscono da quanto ci attenderemmo
classicamente.
Passiamo subito quindi ai casi di barriera di potenziale e di gradino di potenziale. In questo pri-
mo caso come vedremo sceglieremo un fascio proveniente da sinistra, ma ovviamente avremmo
potuto scegliere di farlo provenire da destra o anche da entrambi i lati, avendo libertà su due
parametri. La sostanza fisica non cambia come è facile intuire.
92
Analizziamo l’urto in una dimensione contro una barriera di potenziale finita. Il problema è
intrinsecamente asimmetrico.
Una fascio di particelle arriva da sinistra (
)
I e viene in parte riflesso e in parte trasmesso.
Diversamente dal caso classico, si ha sempre una probabilità non nulla per la trasmissione, sia
per E < V0 che per E > V0 .
Questo effetto viene chiamato, nel caso E < V0 , effetto tunnel ed è puramente quantistico.
Ricordiamo che si ha in ogni caso E > Vmin quindi E > 0.
Comportamento asintotico:
x < 0
la ψ rappresenta un fascio incidente e uno riflesso (A) , (B) in figura
x > a fascio trasmesso verso destra in figura (C)
In queste regioni, dove V = 0 le soluzioni hanno energia e impulso definiti e sono esponenziali
complessi.
L’equazione differenziale è
2mE
u00 (x) + u(x) = 0
~2
con soluzioni
u(x) = Aeikx + Be−ikx √
x≤0
p 2mE
k= =
u(x) = Ceikx + De−ikx ~ ~
x≥a
Con
p ~k
v= =
m m
93
J è indipendente da x e quindi ∂x J = 0 (∂t ρ = 0) ovvero
Nella regione
II abbiamo:
2m
u00 (x) − (V0 − E)u(x) = 0
~2
Ponendo
2m
β2 = (V0 − E) (β ∈ R per E < V0 )
~2
Le condizioni di raccordo si trovano imponendo la continuità della funzione e della sua derivata
94
nei punti x = 0 e x = a:
Per ricavare T serve il rapporto C/A e conviene quindi eliminare F e G dalle precedenti equazioni:
sottraendo (2.11) - (2.9) e (2.12) - (2.10) si ottiene
ik ik −βa ik
2F = A 1 + +B 1− =e C 1+ eika (2.13)
β β β
ik ik βa ik
2G = A 1 − +B 1+ =e C 1− eika (2.14)
β β β
moltiplicando la (2.13) per (1 + ik/β) e la (2.14) per (1 − ik/β) e sottraendo (2.13) - (2.14) si
trova " 2 2 # " 2 2 #
ik ik ika ik −βa ik βa
A 1+ − 1− = Ce 1+ e − 1− e
β β β β
" 2 2 #
ik ik ik
4 A = Ceika 1+ e−βa − 1 − eβa =
β β β
k2
ika ik
= Ce 4 cosh(βa) + 2 1 − 2 sinh(βa)
β β
4 ik −ika
C βe
=
A 4 ik cosh(βa) + 2 1− k2
sinh(βa)
β β2
95
2
16 βk 2 4k 2 β 2
T = 2 =
4k 2 β 2 + (β 2 + k 2 )2 sinh2 (βa)
2 k2
16 βk 2 + 4 1 + β2
sinh2 (βa)
1
T = (β 2 +k2 )2
1+ 4k2 β 2
sinh2 (βa)
Quindi in definitiva
1
T = q
V02 2 2ma2 (V0 −E)
1+ 4E(V0 −E) sinh ~2
L’effetto tunnel è importante solo se βa ∼ 1, cioè per 2m(V0 − E)a2 ∼ ~2 (in altre parole:
barriera sottile, particella leggera, V0 ' E)
Altrimenti per βa 1 o addirittura βa 1 si ha T ∼ e−2βa ovvero la trasmissione è esponen-
zialmente depressa.
Caso (2) E ≥ V0
Per passare a questo caso basta sostituire nell’espressione finale di T scritta in precedenza
β = iα. Dato che
2m
sinh(iβ) = i sin(β) (iβ)2 = (E − V0 )
~2
96
si ottiene
|C|2 1
T = = opacità della barriera
|A|2
q
V02 2 2ma2 (E−V0 )
1+ 4E(E−V0 ) sin ~2
Quindi, mentre classicamente per E > V0 la barriera verrebbe sorpassata con probabilità 1,
quantisticamente vi è sempre anche riflessione.
Per E = V0 :
1
T (E = V0 ) = ma2 V0
1+ 2~2
Notiamo infine che la barriera diventa completamente trasparente per βa = nπ, il che accade
quando si formano onde stazionarie nella zona della barriera. Tale condizione implica infatti
2m(E − V0 )a2 n2 π 2 ~2
= n2 π 2 ⇒ (E − V0 ) =
~ 2ma2
p2
ma E − V0 = 2m , quindi sostituendo k 2 = ~p2 :
n2 π 2 ~2 4π 2 n2 π 2 n2 λ2
p2 = ⇒ k2 = = ⇒ a2 =
a2 λ2 a2 4
nλ
a=
2
97
Nota sull’impossibilità di localizzare una particella nella regione con energia cinetica negativa
V0 x>0
V (x) =
0 x<0
Quantisticamente
vediamo il comportamento a energia E fissata, comunque E > 0 ovvero E > Vmin :
~2 00
Regione
I x<0: − ψ = Eψ
2m
con soluzione generale: ψI = A eikx + B e−ikx
e la corrente:
~
jI = =m(ψ ∗ ψ 0 )
m
~k 2
= |A| − |B|2 = v |A|2 − |B|2
m
= jinc − jrif l
~2 00
Regione
II x>0: − ψ + V0 ψ = Eψ −→ ψ 00 + k 02 ψ = 0
2m
2m mv 0
con k 02 = (E − V0 ) =
~2 ~
Caso E > V0 :
0 0
In questo caso k 0 ∈ R e quindi ψII = Ceik x + De−ik x ; x>0
Per ragioni fisiche D = 0 perchè il termine rappresenta un’onda che proviene da +∞ (il problema
è asimmetrico e noi vogliamo considerare un’onda che proviene da sinistra, anche perchè in questo
caso possiamo discriminare due regimi di energia, mentre con l’onda proveniente da destra si ha
98
solo il cambiamento di velocità, in analogia formale con quanto avviene in ottica nel passaggio
di un’onda da un mezzo con un indice di rifrazione a un altro con indice differente).
Quindi:
0
ψII = Ceik x ; x>0
e la corrente relativa:
~k 0 2
jII = |C| = v 0 |C|2 ≡ jtr
m
jI j jrif l jtr
= II −→ 1− = −→ 1−R=T
jinc jinc jinc jinc
|B|2 k 0 |C|2
R+T =1 ; R= 2
; T =
|A| k |A|2
Per ottenere R, T (contano solo questi, dato che l’intensità dell’onda incidente è arbitraria)
imponiamo la continuità in x = 0:
ψ(0) −→ A + B = C
k
ψ 0 (0) −→ ik(A − B) = ik 0 C −→ (A − B) = C
k0
Quindi:
k
A+B = (A − B) −→ (k − k 0 )A = (k + k 0 )B
k0
da cui
B k − k0
=
A k + k0
C k − k0 2k
= 1+ 0
=
A k+k k + k0
e in conclusione
(k − k 0 )2
R =
(k + k 0 )2
k 0 4k 2 4kk 0
T = =
k (k + k 0 )2 (k + k 0 )2
99
Caso E < V0 :
ψ(0) −→ A + B = C
si trova:
B ik + β k − iβ
= =
A ik − β k + iβ
e quindi
|k − iβ|2
R= =1
|k + iβ|2
infatti jtr = 0 perchè ψII ∈ R. Si ha quindi riflessione totale anche se si ha l’onda evanescente
C B 2k
reale con =1+ = che è un effetto quantistico.
A A k + iβ
100
2.5 Applicazioni a stati legati
Premessa: Ricordiamo che per una particella libera l’equazione di Schroedinger stazionaria è
~2 d2 u(x)
− + V (x) u(x) = E u(x) (2.15)
2m dx2
ed ha soluzione generale
ψ(x) = A eikx + B e−ikx
u(x)
= 0 ; |x| > a
101
Le condizioni al contorno sono, come anticipato
u(a) = A cos(ka) + B sin(ka) = 0
(2.16)
u(−a) = A cos(ka) − B sin(ka) = 0
che è un sistema lineare omogeneo nelle incognite A e B. Se le due equazioni fossero linearmente
dipendenti, l’unica soluzione sarebbe quella banale, che non ha interesse fisico. Imponendo
quindi che le equazioni siano linearmente dipendenti ovvero imponendo che il determinante sia
nullo:
cos(ka) sin(ka)
= −2 cos(ka) sin(ka) = 0
cos(ka) − sin(ka)
p2 ~2 k 2 ~2 π 2 n2
En = = = n = 1, 2, 3, ...
2m 2m 8ma2
~2 π 2 n2
En = autovalori dell’energia
8ma2
nπ nπ
un (x) = A cos x + B sin x
2a 2a
comporta che esistano due classi di soluzioni che soddisfano le condizioni di raccordo in x = ±a:
quelle con n dispari, per le quali B = 0 (di parità pari) e quelle con n pari, per le quali A = 0
(di parità dispari).
Scritte esplicitamente sono (n 6= 0):
nπ
un (x) = A cos
2a x n dispari
nπ
u (x) = B sin
n 2a x n pari
Ribadiamo che, come è immediato verificare, le autofunzioni trovate non sono autofunzioni
dell’impulso.
102
Imponendo la condizione di normalizzazione si ricavano i coefficienti A e B. Ponendo a esempio
Z a nπx
2
hu2n |u2n i = 1 ⇒ |B| sin2 dx = 1 ⇒ |B|2 · a = 1
−a a
con autovalori
~2 π 2 2
En = n con n 6= 0
8ma2
~2 π 2 2 ~2 π 2 2 ~2 π 2
∆En = En+1 − En = (n + 1) − n = (2n + 1)
8ma2 8ma2 8ma2
e quindi ∆En → 0 per a → ∞, ossia lo spettro tende a diventare continuo (particella libera).
103
Commentiamo anche il fatto che il minimo autovalore dell’energia non è nullo e ciò è connesso
al principio di indeterminazione. Si può infatti dare una stima della minima energia ammessa
considerando:
~ ~ (∆p)2 ~2
∆pmin ∼= ∼ −→ Emin ∼ ∼
∆x a 2m 2ma2
Un ultimo commento riguarda il valor medio dell’impulso che è sempre nullo su autofunzioni
dell’energia. Il modo più diretto per dimostrarlo formalmente è osservare che le autofunzioni
dell’energia in una dimensione possono sempre essere scelte reali e quindi il valor medio dell’im-
pulso se non nullo sarebbe un numero immaginario puro in contraddizione con il fatto che p̂ è
una osservabile fisica
Z a
∂
hun |p̂x |un i = u∗n (x) · (−i~) un (x) dx = 0
−a ∂x
u(a) = 0 ⇒ A sin(ka) = 0 ⇒ ka = nπ
104
nπ ~2 kn2 ~2 π 2 n2
kn = ⇒ En = =
a 2m 2ma2
Z a nπx
|A|2 sin2 dx = 1
0 a
nπx a
ponendo y = a (dx = nπ dy)
Z nπ
a2 y nπ a nπ a
|A| sin (y) dy = |A|2
2
= |A|2 = 1
nπ 0 2 0 nπ 2 nπ
si trova quindi
r r
2 2 nπx
|A| = ⇒ un (x) = sin
a a a
Esercizio 1
Svolgimento
P P
ψ(x) = hx|ψi = hx n un ihun |ψi = n cn un (x)
r 2 5
Z a Z a
2 nπx A 23 a2
cn = hun |ψi = dx hun |xihx|ψi = dx sin A x (a − x) = [1 − (−1)n ]
0 0 a a π 3 n3
Z a
√
2 2 2
30
|A| ax − x dx = 1 ⇒ A= 5
0 a2
105
in definitiva 2 5
A 23 a2
cn = [1 − (−1)n ]
π 3 n3
240 480
Pn = c2n = 6 6
[2 − 2(−1)n ] = 6 6 [1 − (−1)n ]
π n π n
se adesso calcoliamo la probabilità che la particella si trovi nello stato fondamentale (n = 1):
480 960
P1 = 6
· 2 = 6 ' 0, 999
π π
cioè la particella si trova praticamente sempre nello stato fondamentale! Questo è dovuto al fatto
che la funzione d’onda assegnata è lo sviluppo in serie, ovvero un’approssimazione polinomiale,
della funzione d’onda dello stato fondamentale.
Esercizio 2
Nella stessa buca di potenziale si consideri, a t = 0 lo stato:
Svolgimento
~2 π 2 2
a) - hEi = c21 E1 + c22 E2 = (c + 4c22 ) ; hp̂i = 0 perchè ψ ∈ R.
2ma2 1
Nota: Nel dettaglio sarebbe hp̂i = c21 p̂11 + c22 p̂22 + c1 c2 (p̂12 + p̂21 ) dove p̂ij = hui |p̂|uj i è la
matrice rappresentativa di p̂ sulla base degli autostati dell’Hamiltoniana. Questa matrice deve
essere hermitiana per cui ad esempio gli elementi diagonali devono essere reali. Nel caso specifico
p̂11 = p̂22 = 0 essendo le un ∈ R. Per gli elementi simmetrici rispetto alla diagonale si avrà
p̂12 + p̂21 = 0 perchè saranno necessariamente immaginari puri e quindi di segno opposto sempre
per l’hermitianità della matrice.
106
b) -
ψ(x, t) = hx|ψ(t)i
i
− Ht
= hx|e ~ |ψ(0)i
i
− Ht
= hx|e ~ |c1 u1 + c2 u2 i
i i
− E1 t − E2 t
= c1 u1 (x) e ~ + c2 u2 (x) e ~
r
2 πx − i E1 t r
2
i
2πx − E2 t
= c1 sin e ~ + c2 sin e ~
a a a a
Il valor medio dell’energia resta costante nel tempo perchè [H, U (t)] = 0.
Per il valore medio dell’impulso al tempo t si ha:
i
hψ(t)|p̂|ψ(t)i = c21 p̂11 + c22 p̂22 + c1 c2 p̂12 e ~ (E1 −E2 )t + c.c
= 2i c1 c2 sin(ω12 t) p̂12
essendo al solito nulli i termini diagonali ed essendo p̂12 = −p̂21 immaginario puro e
ω12 = (E1 − E2 )/~.
Per l’elemento di matrice si trova:
Z a
r r
2 πx d 2 2πx 8
p̂12 = −i~ sin sin dx = i~
0 a a dx a a 3a
3~π 2 t
16~ 16~
hψ(t)|p̂|ψ(t)i = − sin(ω12 t) c1 c2 = − sin c1 c2
3a 3a 2ma2
|ψ(x)|2 dx = c21 u21 + |c2 |2 u22 + 2 c1 Re(c2 ) u1 u2 dx
quindi
107
Parametrizziamo i coefficienti:
c1 = sin δ
c2 = cos δ eiϕ
∂P (0, a/2) ∂ h1 4 i 8
= + sin 2δ cos ϕ = cos ϕ cos 2δ = 0
∂δ ∂δ 2 3π 3π
π 3π
che si annulla per δ1 = , δ2 = ∈ (0, π).
4 4
Quindi scegliendo δ = δ1 con ϕ = 0 oppure δ = δ2 con ϕ = π:
1 4
PM (0, a/2) = +
2 3π
1
In ambedue i casi c1 = c2 = √ .
2
d) -
1 8 h i
P (0, a/2)(t) = + Re c∗1 (t)c2 (t)
2 3π
1 4
Re ei(ω1 − ω2 )t
h i
= +
2 3π
1 4
= + cos[(ω1 − ω2 )t]
2 3π
π~ 2ma2
(ω1 − ω2 )t = π −→ t= =
E2 − E1 3π~
108
2.5.3 Buca quadrata simmetrica di altezza finita
~2 00 h i
− u (x) + V (x) − E u(x) = 0
2m
2m
u00 (x) + V0 − |E| u(x) = 0
~2
2m
e posto β 2 = ~2
V0 − |E| , con β reale perchè |E| < V0 per ipotesi, si vede che le soluzioni sono
funzioni oscillanti (esponenziali complessi o seni e coseni).
Nelle regioni
I e
III l’equazione è invece
2m|E|
u00 (x) − u(x) = 0
~2
2m|E|
e ponendo α2 = ~2
> 0 e le soluzioni sono esponenziali reali.
Quindi la soluzione generale nelle varie regioni è
C1 eαx + D1 e−αx
I
u(x) = A sin(βx) + B cos(βx)
II
C3 eαx + D3 e−αx
III
109
Imponendo le condizioni u(x) → 0 per x → ±∞ si ottiene D1 = C3 = 0.
In definitiva
C1 eαx
I
u(x) = A sin(βx) + B cos(βx)
II
D3 e−αx
III
e per le derivate
αC1 eαx
I
u0 (x) = βA cos(βx) − βB sin(βx)
II
−αD3 e−αx
III
110
Le due condizioni sono incompatibili dato che moltiplicandole si avrebbe
β 2 = −α2
che è impossibile essendo α e β entrambi reali. Le soluzioni sono quindi distinte in classe pari e
dispari soddisfacendo le condizioni
1) β tan(βa) = α e A = D3 − C1 = 0
2) β cot(βa) = α e B = D3 + C1 = 0
−αx
I C1 eαx
II B cos(βx)
III C1 e
con β tan(βa) = α. Queste funzioni sono di classe pari e i coefficienti B e C1 sono legati da
un’equazione del sistema e determinabili normalizzando la funzione d’onda.
Le autofunzioni della seconda classe sono
I C1 eαx
II A sin(βx)
III − C1 e−αx
con −β cot(βa) = α. Queste funzioni sono dispari, i coefficienti sono sempre legati da un’equa-
zione del sistema e determinabili mediante la normalizzazione.
Autovalori dell’energia
Consideriamo le equazioni
β tan(βa) = α
βa tan(βa) = αa
⇒
−β cot(βa) = α
−βa cot(βa) = αa
111
definendo x = βa e y = αa queste diventano
y = x tan(x)
y = −x cot(x)
con x > 0 e y > 0 essendo β ed α usati nella scrittura delle soluzioni generali dell’equazione di
Schrodinger implicitamente positivi. Inoltre, essendo appunto
r r
2m 2m|E|
β= (V0 − |E|) e α=
~2 ~2
si ha che
2mV0
x2 + y 2 = a2 β 2 + α2 = a2 2 ≡ R2
~
Mentre per le soluzioni di classe dispari gli autovalori dell’energia sono le soluzioni del sistema
y = −x cot(x)
classe dispari
x2 + y 2 = R2
Dato che, come già detto, x e y sono positivi, le soluzioni sono quelle nel primo quadrante.
112
√
Il numero di stati legati, fissata la massa della particella, dipende dal prodotto a V0 , quindi
aumentando la larghezza e/o la profondità della buca aumentano in numero.
Classe pari Esiste sempre uno stato legato u0 (x) perchè come si vede dal grafico la tangente
”esce” dall’origine, perciò il primo stato legato è garantito per ogni valore di R. Il numero totale
di stati è la parte intera di 1 + R
π
Classe dispari Per avere almeno uno stato legato deve essere R > π2 , in numero sono la parte
intera di 21 + R
π
h i
In totale il numero di stati legati è quindi la parte intera 1 + Rπ , con i possibili livelli energetici
2
113
2.5.4 Buca di potenziale a δ di Dirac
V (x) = −a V0 δ(x)
Chiaramente per avere stati legati dovremo avere energia compresa tra il massimo e il minimo
del potenziale e quindi comunque E < 0. Notiamo anche che il coefficiente a serve per motivi
h i h i
dimensionali dato che δ(x) dx = 1 implica che δ = `−1 e quindi a = `.
R
00
h i
u (x) + E − V(x) u(x) = 0
00
u (x) − |E| u(x) = 0
uI = A ekx
uII = B e−kx
2m|E|
con k 2 = . La continuità in x = 0 implica A = B per cui si hanno soluzioni di classe pari:
~2
La derivata prima della funzione d’onda non è continua dato che il potenziale ha una disconti-
nuità infinita.
Integrando attorno alla discontinuità si ottiene:
~2
du0
Z Z Z
− dx − aV0 δ(x)u(x) dx = E u(x) dx
2m − dx − −
ovvero:
~2 h 0 i
− u () − u0 (−) = aV0 u(0) + 2E u(0)
2m
114
Nel limite → 0 l’ultimo termine si annulla e usando le espressioni per le soluzioni si trova:
~2 h i
− − ku(0) − ku(0) = aV0 u(0)
2m
k~2
ovvero = aV0 e in definitiva:
m
~2 k 2 ma2 V02
E=− = −
2m 2~2
p̂2 1 p̂2 1
H= + k x̂2 = + mω 2 x̂2
2m 2 2m 2
con ω 2 = k/m.
Ci aspettiamo una infinità numerabile di livelli in quanto V (x̂)x→±∞ → +∞.
Li troveremo imponendo opportune condizioni al contorno a ±∞. L’equazione di Schroedinger
si scrive:
~2 00 1
− u (x) + mω 2 x2 u(x) = Eu(x)
2m 2
115
r
mω
Introduciamo variabili adimensionali. Posto α = che ha dimensioni dell’inverso di una
~
lunghezza, sia ξ = αx per cui:
00
2mE m 2 ω 2 x2
u (x) + − u(x) = 0
~2 ~2
E
diventa, posto ≡
~ω
00
2 − ξ 2
u (ξ) + u(ξ) = 0 (2.17)
00 00
2 − ξ 2 u(ξ) ∼ u (ξ) − ξ 2 u(ξ) = 0
u (ξ) + ; |ξ| → ∞
si trova:
2
−ξ
h i
u 0
= Ae /2 mξ m−1
− ξ m+1
2
A e−ξ /2 m(m − 1) ξ m−2 − mξ m − (m + 1)ξ m + ξ m+2
00
h i
u =
Essendo dominante l’ultimo termine, si vede che per grandi valori di ξ l’equazione è soddisfatta.
2 /2
Quindi per ξ → ±∞ : u(ξ) ∼ A ξ m e−ξ .
Studiamo adesso il comportamento vicino ξ = 0:
In questo caso l’equazione si approssima con:
00
u (ξ) + 2 u(ξ) = 0
√ √
u ∼ A cos 2 ξ + B sin 2 ξ ∼ A + C ξ + O(ξ 2 )
2 /2
u(ξ) = φ(ξ) e−ξ (2.18)
116
con:
A + C ξ + O(ξ 2 ) ; ξ→0
φ(ξ) ∼
ξm ; ξ → ±∞
2 /2
u = e−ξ φ
2 /2
u0 = e−ξ φ0 − ξ φ
00 2 /2
00
u = e−ξ φ − 2ξφ0 − φ + ξ 2 φ
00
φ (ξ) − 2ξ φ0 (ξ) + (2 − 1) φ(ξ) = 0 (2.19)
∞
X
φ(ξ) = cn ξ n
n=0
∞
X ∞
X
0 n−1 0
φ = nξ cn −→ ξφ = nξ n cn
n=1 n=0
∞ h i ∞
00
X X
φ = n(n − 1)ξ n−2 cn = (n + 2)(n + 1)ξ n cn+2
n=2 n=0
Sostituendo in (2.19)
∞ h
X i
(n + 2)(n + 1) cn+2 + (2 − 1 − 2n) cn ξ n = 0
n=0
2n + 1 − 2
cn+2 = cn (2.20)
(n + 2)(n + 1)
117
Però vedremo che la serie va troncata per ottenere soluzioni valide per gli stati legati. Infatti,
studiando il comportamento asintotico della serie per grandi n, si vede che
cn+2 2
∼n→∞
cn n
2
che darebbe un andamento divergente come e+ξ per ξ → ±∞. Infatti
∞ ∞ ∞
ξ2
X ξ 2n X ξk X
e = = ≡ bk ξ k
n! k
n=0 k=0 ! k=0
2
e
k
!
bk+2 2 1 2
= = ∼ ; k→∞
bk k+2 k k
! +1
2 2
Quindi vediamo che senza troncare la serie non potremmo avere soluzioni ∈ L(2) (R). Questo
vediamo che è possibile solo se i cn nella relazione di ricorrenza (2.20) si annullano da un certo
punto in poi, il che è possibile solo se
1
2n + 1 − 2 = 0 −→ = n +
2
ovvero per
1
En = ~ω n + ; n = 0, 1, 2, ... (2.21)
2
1
n = 0: c0 = 1, c1 = 0 −→ c2n+1 = 0. Si ha 0 = e dalla relazione di ricorrenza c2 = 0 e
2
quindi anche tutti i c2n successivi sono nulli. H0 (ξ) = 1.
118
H1 (ξ) = 2ξ.
5
n = 2: c0 = 1, c1 = 0 −→ c2n+1 = 0. Si ha 2 = e dalla relazione di ricorrenza
2
1 − 22 5 − 22
c2 = c0 = −2c0 e si sceglie c0 = −2 e di conseguenza c2 = 4. Inoltre c4 = c2 = 0
2 2
e i successivi c2n = 0. H2 (ξ) = 4ξ 2 − 2.
Le autofunzioni dell’oscillatore armonico normalizzate sono:
r
α 2
−ξ /2
un (ξ) = √ Hn (ξ) e
π2n n!
2
I polinomi di Hermite sono polinomi ortogonali rispetto alla funzione peso e−ξ
Z +∞ √
2 /2
Hn (ξ) Hm (ξ) e−ξ dξ = δmn π 2n n!
−∞
Hn0 = 2n Hn−1
Hn+1 = 2ξ Hn − 2n Hn−1
Verifichiamo a esempio:
H10 = 2ξ 0 = 2 = 2 · 1 · H0 = 2
H2 = 2ξ H1 − 2 H0 = 2ξ · 2ξ − 2 · 1 = 4ξ 2 − 2 cvd
119
H5 = 32ξ 5 − 160ξ 3 + 120ξ
00
Equazione differenziale: Hn − 2ξ Hn0 + 2n Hn = 0
2
Funzione generatrice: S(ξ, λ) = e−λ + 2λξ
dn
Hn (ξ) = S(ξ, λ)
dλn
λ=0
2 ∂ n −ξ 2
Hn (ξ) = (−1)n e ξ e
∂ξ n
Vediamo adesso la soluzione algebrica per gli autovalori e gli autostati dell’oscillatore armonico.
Questa trattazione è molto più importante della derivazione precedente perchè introduce gli
operatori di salita e discesa (o anche chiamati in molti contesti di creazione e distruzione) che
ritroverete in molti campi della fisica di qui in avanti.
Ripartiamo quindi dall’Hamiltoniana dell’oscillatore armonico unidimensionale:
p̂2 1
H= + mω 2 x̂2 (2.22)
2m 2
p
con la pulsazione ω = k/m . Riscriviamo rl’Hamiltoniana in termini di variabili adimensionali
mω
e quindi fattorizzando ~ω. Definiamo α = che ha dimensioni dell’inverso di una lunghezza
~
p̂
e introduciamo le variabili adimensionali P = e Q = αx̂ ≡ ξ.
~α
In termini di queste variabili l’Hamiltoniana diventa:
~ω 2 2
H= P +Q (2.23)
2
120
e che si può scrivere:
~ω n o
H = (Q − iP ) (Q + iP ) − i[Q, P ]
2
~ω n o
= (Q − iP ) (Q + iP ) + 1 (2.25)
2
Q + iP
a = √
2
Q − iP
a† = √ (2.26)
2
a + a† a − a†
ξ = √ ; P = √
2 2i
a + a† a − a†
x̂ = √ ; p̂ = ~α √ (2.27)
2α 2i
1 1
[a, a† ] = [Q + iP, Q − iP ] = i [P, Q] − i [Q, P ] = 1 (2.28)
2 2
Lo studio dello spettro e degli autostati di H, si riduce quindi a trovare autostati e autovalori
dell’operatore hermitiano N̂ = a† a, dato che l’Hamiltoniana è proporzionale a questo a parte
una costante proporzionale all’identità.
Essendo N̂ un operatore hermitiano, ammetterà autostati |νi ortonormali, ovvero
N̂ |νi = ν|νi
con hν|0 νi = δν 0 ν , avendo dato per scontato che lo spettro sia discreto per le caratteristiche
del potenziale armonico. Per quanto riguarda gli autovalori, questi non solo saranno reali, ma
anche non negativi, ossia ν ∈ {0, R+ } essendo N̂ un operatore non negativo come si verifica
immediatamente:
2
hν|N̂ |νi = hν|a† a|νi = a|νi ≥ 0 (2.30)
121
Ovviamente sarà:
1
hν|H|νi = ~ω ν +
2
Si tratta quindi di determinare i valori che può assumere ν e di conseguenza la forma degli
autostati |νi. Per far questo useremo la non negatività di ν e la regola di commutazione:
che implica:
N̂ (a|νi) = aN̂ |νi + [N̂ , a]|νi = aν|νi − a|νi = (ν − 1) (a|νi) (2.32)
la quale a sua volta implica che sia a|νi è autostato di N̂ con autovalore ν − 1, sia deve essere
a|νi = 0.
Se a|νi 6= 0, segue che a|νi = λν |ν − 1i non essendoci degenerazione per gli stati legati in una
dimensione.
Vediamo che per iterazione si trova che:
N̂ an = aN̂ + [N̂ , a] an−1 = aN̂ − a an−1 = a N̂ − 1 an−1 = a N̂ a − a an−2
= a aN̂ + [N̂ , a] − a an−2 = a aN̂ − 2a an−2 = a2 N̂ − 2 an−2
= .... = an N̂ − n (2.33)
Di conseguenza:
N̂ an |νi = (ν − n) an |νi (2.34)
Quindi abbiamo di nuovo le due possibilità: an |νi = 0 oppure an |νi è autostato di N̂ con
autovalore ν−n; d’altra parte, sapendo che gli autovalori di N̂ non possono essere negativi, fissato
ν, n non può essere arbitrariamente grande ovvero n ≤ ν altrimenti si avrebbe un autovalore
di N̂ negativo. Supponiamo quindi che fissato ν si consideri un n tale che n < ν < n + 1.
Dall’assunzione ν < n + 1 deriva an+1 |νi = 0, che è ammissibile mentre dalla disuguaglianza
ν > n se ne dedurrebbe che an |νi =
6 0 con ν − n 6= 0, che non è possibile. Infatti si avrebbe:
mentre chiaramente η = 0 perchè an+1 |νi = 0. L’unica possibilità è quindi che ν = n, e quindi
gli autovalori di N̂ sono numeri interi non negativi.
In conclusione per l’operatore N̂ = a† a, detto anche operatore numero, vale N̂ |ni = n|ni con
n = 0, 1, 2, 3, ... (l’autovalore n è detto anche numero di occupazione).
122
Per l’energia di conseguenza si ha:
1
En = hn|H|ni = ~ω n + ; n = 0, 1, 2, ... (2.35)
2
~ω
Il valore minimo ammissibile per gli autovalori dell’energia E0 = si ha in corrispondenza
2
del minimo autovalore n = 0 dell’operatore numero, con lo stato fondamentale |0i definito
dall’equazione:
a|0i = 0 (2.36)
Siamo anche adesso in grado di calcolare la normalizzazione di stati a|ni con n 6= 0. Infatti se
a|ni = cn |n − 1i segue che n = hn|a† a|ni = |cn |2 hn − 1|n − 1i = |cn |2 (ricordiamo che abbiamo
√
legittimamente assunto che |ni sia una base ortonormale). Quindi si può scegliere cn = n (a
meno di una fase) e:
√
a|ni = n|n − 1i (2.37)
√ p
Evidentemente iterando si avrà ad esempio a2 |ni = n a|n − 1i = n(n − 1)|n − 2i e cosı̀ via
per applicazioni successive dell’operatore di discesa a.
Il nome operatore di salita per a† è anch’esso dovuto alla regola di commutazione con N̂ :
[N̂ , a† ] = a† (2.38)
infatti
N̂ a† |ni = a† N̂ + [N̂ , a† ] |ni = (n + 1)a† |ni
Quindi
a† |ni = λn |n + 1i
√
si ha in definitiva, a meno di un fattore di fase λn = n + 1.
In definitiva
√
a† |ni = n + 1|n + 1i
123
√
ed è immediato verificare che a†n |0i = n!|ni e gli autostati |ni si possono ottenere da quello
fondamentale attraverso l’azione ripetuta dell’operatore di salita
a†n
|ni = √ |0i
n!
Abbiamo quindi trovato autostati ed autovalori per via puramente algebrica sulla base dell’ope-
ratore numero (o numero di occupazione) N̂ . Questo spazio si chiama spazio di Fock e ritroverete
molto spesso questo formalismo nei prossimi corsi.
Vale la pensa comunque di mostrare come si possono ritrovare i risultati già ottenuti per le
funzioni d’onda sulla base delle |xi. Infatti, essendo:
d
Q + iP ξ + dξ
a = √ = √
2 2
d
Q − iP ξ − dξ
a† = √ = √
2 2
proiettando l’equazione che definisce lo stato fondamentale a|0i = 0 sulla base |xi si ottinene
un’equazione differenziale per la funzione d’onda dello stato fondamentale u0 (x) = hx|0i:
d
hx|a|0i = ξ+ u0 (x) = 0
dx
con soluzione:
ξ2
−
u0 (x) = N0 e 2
e dalla normalizzazione
Z +∞ √ r
2 −α
2 2
x dx = π α
h0|0i = 1 = |N0 | e |N0 |2 −→ N0 = √
−∞ α π
da cui
r α 2 x2
α −
u0 (αx) = √ e 2
π
124
α
r
con Nn = √ . Per le autofunzioni di ordine n vale la formula di Rodriguez:
π2n n!
2 dn
2 2 2
un (ξ) = Nn e−ξ /2 n
(−1) e ξ e −ξ
= Nn e−ξ /2 Hn (ξ)
dξ n
È utile per varie applicazioni riassumere con un certo dettaglio la forma che prendono alcune
potenze dell’operatore x̂ in termini di operatori di creazione e distruzione per poi studiarne gli
a + a†
elementi di matrice tra autostati dell’energia. Studiamo quindi, essendo x̂ = √ , la forma
2α
che prendono le potenze di a + a† fino al terzo grado. Partiamo dagli elementi del primo grado:
√ √
hm|a + a† |ni = nδm,n−1 + n + 1δm,n+1
1 √ √
x̂mn = √ n δm,n−1 + n + 1 δm,n+1
2α
ovvero una matrice reale simmetrica con elementi non nulli solo sulle diagonali adiacenti quella
principale. Per il secondo grado si ha:
1 hp p i
x̂2mn = n(n − 1) δ m,n−2 + (n + 1)(n + 2) δm,n+2 + (2n + 1) δm,n
2α2
125
e quindi x̂3 connette stati con |∆n| = 1, 3:
1hp p
x̂3mn = √ n(n − 1)(n − 2) δm,n−3 + (n + 1)(n + 2)(n + 3) δm,n+3
23 α3
√ p i
+ 3 n3 δm,n−1 + 3 (n + 1)3 δm,n+1
È facile intuire che x̂4 connette stati con |∆n| = 0, 2, 4. Per il quarto grado ci limitiamo
a calcolarne gli elementi diagonali, considerando che contribuiranno solo i termini con ugual
numero di operatori di innalzamento e di abbassamento:
= 6n2 + 6n + 3
Per l’operatore impulso ricorrono più frequentemente il calcolo dei suoi elementi di matrice di
p̂ e di p̂2 . Lasciamo per esercizio il calcolo esplicito, comunque p̂mn risulta immaginaria pura (e
quindi antisimmetrica) con elementi non nulli solo nelle diagonali adiacenti a quella principale
essendo anche p̂ come x̂ lineare in a, a† mentre p̂2mn risulta reale simmetrica con connessione tra
stati con |∆n| = 0, 2.
Una generica forma quadratica del potenziale in una dimensione rappresenta sempre un oscilla-
tore armonico, centrato nell’origine se è assente il termine lineare. Se consideriamo a esempio
l’Hamiltoniana
p̂2 1
H = + kx̂2 − β x̂
2m 2
β2 p̂2 β 2
1
H + = + k x̂ −
2k 2m 2 k
si vede che si tratta di un oscillatore armonico centrato non più in x̂ = 0 bensı̀ in x0 = β/k (e
notiamo che l’impulso associato non cambia). I livelli energetici sono quindi, a parte uno shift
β2
costante che non cambia la fisica del problema, gli stessi dell’oscillatore armonico non shif-
2k
1
tato En = ~ω n + , mentre le autofunzioni saranno della stessa forma ma funzioni di x−x0 .
2
126
2.6.5 Ulteriori osservazioni
Come abbiamo visto quindi le soluzioni per lo spettro e gli autostati dell’oscillatore armonico
hanno una serie di caratteristiche che merita in parte riassumere e in parte approfondire.
Oltre a essere discreto lo spettro è composto da livelli equispaziati ~ω. Il limite classico di
spettro continuo si approssima quando la spaziatura tra i livelli è piccola rispetto alle energie in
∆E 1
gioco = 1 ovvero per grandi numeri quantici, al quale ci si riferisce in vari casi
E n + 1/2
come limite classico.
Un altro modo per vedere che per grandi numeri quantici si ottengono risultati che somigliano
a quelli classici si ottiene confrontando le caratteristiche del moto classico e della probabilità di
presenza classica con quelle quantistiche in funzione del numero quantico n.
Ricordiamo quindi che nel caso classico, dalla soluzione
x(t) = x0 cos(ωt + φ)
1 1 1
E = T + V = mẋ2 + mω 2 x2 = mω 2 x20
2 2 2
da cui 1/2
2E 1/2
ẋ = − ω 2 x2 = ω x20 − x2
m
Il moto classico è quindi limitato per |x| ≤ x0 con la velocità che si annulla in ±x0 che per questo
si chiamano turning points. Confrontando con il caso quantistico si vede subito che invece la
funzione d’onda non si annulla per |x| > x0 e quindi che sussiste una probabilità, anche se
esponenzialmente depressa, di trovare la particella nella regione classicamente proibita. Inoltre
le densità di probabilità classica e quantistica differiscono fortemente per bassi numeri quantici
e in particolare nello stato fondamentale è massima per x = 0 dove classicamente è minima. In
effetti la probabilità classica essendo proporzionale al tempo di transito in una data regione di
x è inversamente proporzionale alla velocità e diverge per x → x0 dove la velocità si annulla ed
è invece minima nell’origine. In formule si ha, classicamente:
dx
Pcl (x)dx ∝ dt =
v(x)
127
e quindi, tenendo conto che in un semiperiodo T /2 = π/ω la probabilità integrata tra i turning
Rx
points deve essere uno, ovvero −x0 0 Pcl (x)dx = 1 si trova:
1 1
Pcl (x) = 1/2
π x20 − x2
Z +∞ Z +∞
Pq (x)dx = |un (x)|2 dx = 1
−∞ −∞
hp2 i 1
hEi = hHi = + khx2 i
2m 2
ma come sappiamo sugli autostati dell’oscillatore armonico hpi = hxi = 0 per cui possiamo anche
riscrivere:
(∆p)2 1
hEi = + k(∆x)2
2m 2
~2 1
hEi ≥ 2
+ k(∆x)2 (2.40)
8m(∆x) 2
~
da cui, annullando la derivata rispetto a ∆x si trova che il minimo si ha per (∆x)2 = che
2mω
~ω
sostituito nella (2.40) fornisce hEimin = .
2
Sempre utilizzando anche il fatto che i valori medi di posizione e impulso su autostati dell’energia
sono nulli svolgiamo infine un calcolo dei valori medi hn|x2 |ni e hn|p2 |ni per ottenere due
risultati, uno riguardante il prodotto delle indeterminazioni (∆x) · (∆p) e di energia cinetica e
potenziale hn|T |ni e hn|V |ni su un generico autostato. Tenendo conto che:
a + a†
x = √
2α
128
~α
p = √ (a − a† )
2i
1 1
hn|x2 |ni = 2
hn|a2 + a†2 + 2a† a + 1|ni = (2n + 1)
2α 2α2
~2 α2 ~2 α2
hn|p2 |ni = − hn|a2 + a†2 − aa† − a† a|ni = (2n + 1)
2 2
2n + 1
da cui (∆x) · (∆p) = ~, che restituisce, per n = 0 dove l’autofunzione è una gaussiana, il
2
valore minimo atteso ~/2. Inoltre si ottiene:
~2 α2 (2n + 1)
hn|T |ni = (2n + 1) = ~ω
4m 4
mω 2 (2n + 1)
hn|V |ni = (2n + 1) = ~ω
4α2 4
quindi l’energia si ripartisce in ugual misura tra il termine cinetico e quello di energia potenziale.
{a, a† } = {a† , a} = 1
a† aa† a = a† 1 − a† a a = a† a
129
essendo, come si vede dalle regole di anticommutazione a†2 = 0 = a2 .
Quindi gli autovalori di N̂ = a† a nel caso fermionico sono 0 e 1.
Gli operatori a, a† sono ancora operatori di abbassamento e innalzamento, come si può vedere
dal commutatore [N̂ , a]. Vale la pena notare che il commutatore tra due operatori, dei quali
almeno uno bilineare in altri operatori si può esprimere in termini di anticommutatori:
[AB, C] = ABC − CAB = ABC + ACB − ACB − CAB = A{B, C} − {A, C}B
Gli stati coerenti dell’oscillatore armonico sono autostati dell’operatore di distruzione, non sono
quindi autostati dell’Hamiltoniana. Vediamone alcune caratteristiche ma prima verifichiamo
∂f
preliminarmente che data una funzione f (a† ) = n cn a†n si ha [a, f (a† )] =
P
. Vediamolo fino
∂a†
al terzo ordine:
[a, c0 ] = 0
h i
a, c1 a† = c1
h i h i h i
†2
a, c2 a †
= c2 a a, a + a, a a† = 2c2 a†
† †
h i h i h i
a, c3 a†3 = c3 a† a, a†2 + a, a† a†2 = c3 2a†2 + a†2 = 3c3 a†2
e quindi " #
X X ∂f
a, cn a†n = cn (a† )n−1 =
n n
∂a†
†
|λi = A eλa |0i
130
è autostato dell’operatore a. Infatti:
† † † † †
a|λi = A a eλa |0i = A a, eλa +eλa a |0i = A λe λa +e λa a |0i = λ|λi
2
essendo |A| = e−|λ| /2 come si trova dalla condizione di normalizzazione:
|λ|2 †
|λi = e− 2 eλa |0i
È interessante vedere che sugli stati coerenti il prodotto delle indeterminazioni ∆x̂ · ∆p̂ si man-
tiene costante nel tempo e uguale al minimo consentito ~/2. Per questo calcoliamo prima
l’evoluzione temporale dello stato |λi:
i
Ht−
|λi(t) = e ~ |λi
i
− Ht X |λ|2 λn
= e ~ e− 2 √ |ni
n n!
131
ωt
|λ|2 −i X e−iωtn λn
−
= e 2 e 2 √ |ni
n n!
n
ωt −iωt a†n
|λ|2 −i X λe
= e− 2 e 2 |0i
n
n!
ωt
−i |λ|2 †
= e 2 e− 2 eλ(t)a |0i
2 a + a†
hλ(t)|x̂|λ(t)i = e−iωt/2 hλ(t)| √ |λ(t)i
2α
2 Re λe−iωt
= √
2α
√
2
= λR (t) (2.42)
α
~α
hλ(t)|p̂|λ(t)i = √ hλ(t)|a − a† |λ(t)i
2i
~α
= √ 2 Im λe−iωt
2
√
= 2~αλI (t) (2.43)
1
hλ(t)|xˆ2 |λ(t)i = hλ(t)|a†2 + a2 + 2a† a + 1|λ(t)i
2α2
1 ∗2
λ (t) + λ2 (t) + 2|λ(t)|2 + 1
= 2
2α
1 2 2 2 2
= 2λ R (t) − 2λ I (t) + 2λR (t) + 2λ I (t) + 1
2α2
2λ2R (t) 1
= 2
+ 2
α 2α
e quindi
1
∆x̂(t) = √
2α
132
Per l’impulso si trova:
~2 α2
hλ(t)|pˆ2 |λ(t)i = hλ(t)|2a† a + 1 − a2 − a†2 |λ(t)i
2
~2 α2
2|λ(t)|2 + 1 − λ2 (t) − λ∗2 (t)
=
2
~2 α2 2
2λR (t) + 2λ2I (t) + 1 − 2λ2R (t) + 2λ2I (t)
=
2
~2 α2
= 2~2 α2 λ2I (t) +
2
e quindi
~α
∆p̂(t) = √
2
In definitiva:
~
∆x̂(t) · ∆p̂(t) =
2
e notiamo che il risultato non dipende da λ(t) ovvero è indipendente dal tempo quindi lo stato
(pacchetto) coerente oscilla nel tempo mantenendo sempre il minimo prodotto delle indetermi-
nazioni tra x̂ e p̂.
Riprendendo le soluzioni per i valori medi in eq.(2.42),(2.43) si vede che possono essere riscritte:
√
2
hx̂i(t) = [λR cos(ωt) + λI sin(ωt)]
α
hp̂i0
= hx̂i0 cos(ωt) + sin(ωt)
mω
√
hp̂i(t) = 2~α [λI cos(ωt) − λR sin(ωt)]
che sono le soluzioni calssiche per un moto armonico (sostituendo ai valori medi le variabili
dinamiche x, p). In questo senso gli stati coerenti “somigliano” a quelli classici. Notiamo infine
che gli stati coerenti, benchè normalizzati, non sono un set ortonormale in quanto non sono tra
loro ortogonali. La cosa non deve sorprendere essendo autostati di un operatore non hermitiano:
0
0 0 2 /2 2 /2
X λ ∗m λn
hλ |λi = e−|λ | e−|λ| hm| √ √ |ni
m,n m! n!
0 n
0 2 +|λ|2 X λλ ∗
= e−(|λ | )/2
n
n!
0∗ 0 2 +|λ|2
= eλλ e−(|λ | )/2 (2.44)
133
Sono un set sovracompleto.
134
Capitolo 3
Siano dati due spazi vettoriali V1 , V2 di dimensioni N1 , N2 . Il prodotto tensoriale dei due spazi
si denota con V1 ⊗ V2 e ha dimensione N = N1 · N2 . Se |v1 i ∈ V1 ; |v2 i ∈ V2 −→ |v1 i ⊗ |v2 i ∈
V1 ⊗ V2 .
Per convenzione il vettore “1” sta a sinistra e il “2” a destra e l’operazione è bilineare ovvero:
α|v1 i + α0 |v10 i ⊗ |v2 i = α|v1 i ⊗ |v2 i + α0 |v10 i ⊗ |v2 i
|v1 i ⊗ β|v2 i + β 0 |v20 i = |v1 i ⊗ β|v2 i + |v1 i ⊗ β 0 |v20 i
∀ α, α0 , β, β 0 ∈ C (3.1)
L’elemento nullo di ognuno degli spazi presenti nello spazio prodotto diretto mappa qualunque
vettore nel vettore nullo dello spazio prodotto:
0 ⊗ |v2 i = |v1 i ⊗ 0 = 0
Per spazi con prodotto interno la regola per il prodotto interno dello spazio prodotto è:
hv1 | ⊗ hv2 | · |w1 i ⊗ |w2 i = hv1 |w1 ihv2 |w2 i
135
Una base ortonormale per ciascuno dei due spazi: |ei1 i ∈ V1 ; |ei2 i ∈ V2 fornisce una base
ortonormale ∈ V1 ⊗ V2 :
Tuttavia non tutti i vettori dello spazio prodotto sono esprimibili come prodotto di due vettori
appartenenti uno a V1 e l’altro a V2 . Questi sono gli stati entangled. Un esempio semplice:
che chiaramente appartiene a V1 ⊗ V2 perchè può essere espanso sulla base |Ei1 ,i2 i:
X
|ψi = vi1 vi2 + wi1 wi2 |ei1 i ⊗ |ei2 i
i1 ,i2
ma non può essere espresso come prodotto di un vettore di V1 per uno di V2 ovvero nella forma
P P
i1 vi1 |ei1 i ⊗ i2 vi2 |ei2 i .
Allora:
v 1 w1
v 1 w2
w1
v1 v 1 w3
|v1 i ⊗ |w2 i ↔ ⊗ w2 =
v2 v 2 w1
w3
v 2 w2
v 2 w3
Operatori che agiscono negli spazi V1 , V2 e agiscono su |ai ∈ V1 e |bi ∈ V2 hanno generalizzazione
diretta nello spazio prodotto. Come esempio: Â ∈ V1 −→ Â|ai = |a0 i è generalizzato da:
 ⊗ I −→  ⊗ I |ai ⊗ |bi = |a0 i ⊗ |bi
136
Similmente per B̂ ∈ V2 −→ B̂|bi = |b0 i varrà:
I ⊗ B̂ −→ I ⊗ B̂ |ai ⊗ |bi = |ai ⊗ |b0 i
 ⊗ B̂ λ|ci ⊗ |di + µ|ei ⊗ |f i = λ|c0 i ⊗ |d0 i + µ|e0 i ⊗ |f 0 i
La rappresentazione matriciale del prodotto tensoriale di operatori può essere ottenuta in modo
diretto come:
X X
 ⊗ B̂ = |ei1 ihei1 |Â|ej1 ihej1 | ⊗ |ei2 ihei2 |B̂|ej2 ihej2 |
i1 ,j1 i2 ,j2
X
= |ei1 iAi1 j1 hej1 | ⊗ |ei2 iBi2 j2 hej2 |
i1 ,j1 ,i2 ,j2
X
= |Ei1 i2 iAi1 j1 Bi2 j2 hEi2 j2 |
i1 ,j1 ,i2 ,j2
Spesso il simbolo ⊗ verrà omesso e scriveremo solo |ai|bi o anche più spesso |a, bi. Però
dovremo distinguere nella nostra mente a seconda del contesto se sono indici che si riferiscono
ad osservabili di un set massimale nello stesso spazio o in spazi diversi. È comunque chiaro
che operatori che agiscono in un uno spazio dello spazio prodotto commutano con qualunque
operatore agisca in un altro spazio dello stesso spazio prodotto. Come detto incontreremo il
~ insieme a quello di spin
prodotto tensoriale quando tratteremo il momento angolare orbitale L
137
~ oppure a proposito di sistemi di particelle identiche. Adesso a noi serve per introdurre lo
S
spazio |~xi degli autostati generalizzati dell’operatore x̂. Un operatore tipo V (x̂) dovrebbe a
rigore essere scritto come V (x̂) ⊗ Iy ⊗ Iz ma dal punto di vista pratico lo daremo per scon-
tato. Gli autostati simultanei di x̂, ŷ, ẑ stanno nello spazio prodotto diretto e sono del tipo
|~xi = |xi ⊗ |yi ⊗ |zi = |xi|yi|zi = |x, y, zi.
Come detto, per alleggerire il formalismo, ometteremo quasi sempre il simbolo ⊗ del prodot-
to tensoriale in particolare nel passaggio a più dimensioni spaziali e nel caso di Hamiltoniane
separabili in R3 , nella base |~xi invece di scrivere H = Hx ⊗ Iy ⊗ Iz + Ix ⊗ Hy ⊗ Iz scriveremo
semplicemente H = Hx + Hy + Hz . In questo caso, o riconducibile a questo con trasformazio-
ni unitarie, con i vari termini che commutano tra loro, gli autovalori saranno la somma degli
autovalori e gli autostati (e le autofunzioni) il prodotto degli autostati (o delle autofunzioni) di
singola dimensione.
Vedremo anche come questo si accorda con le proprietà delle soluzioni delle equazioni differen-
ziali a variabili separabili.
Il formalismo che abbiamo introdotto e utilizzato fino ad ora è sufficiente per trattare problemi
di una particella in un potenziale assegnato in una dimensione.
Dobbiamo adesso generalizzare il formalismo a una particella in due o tre dimensioni e anche per
applicazioni future a più di una particella in più dimensioni. In tutti questi casi il formalismo
va appunto generalizzato e lo spazio di Hilbert complessivo va visto quale è di volta in volta.
In pratica va introdotto quanto serve per trattare spazi di Hilbert che sono prodotto diretto
(tensoriale) di spazi riferentesi a gradi di libertà distinti, come ci dice il postulato V:
“Lo spazio di un sistema composto da più sistemi è il prodotto tensoriale degli spazi dei
singoli sistemi componenti. Se abbiamo n sistemi e l’i-esimo sistema è preparato nello stato
|ψi i, allora il sistema totale è nello stato |ψ1 i ⊗ |ψ2 i ⊗ .... ⊗ |ψn i ”.
In realtà tratteremo più avanti sistemi composti, per adesso vogliamo generalizzare problemi
affrontati in una dimensione al caso di due e tre dimensioni, ma formalmente la questione è
analoga, se siamo in presenza di Hamiltoniane separabili, ovvero somma di Hamiltoniane relative
a una dimensione, o riducibili a questo caso, e commutanti tra loro. Per questo sottolineiamo
che in più dimensioni si hanno le regole di commutazione tra gli operatori posizione e impulso
138
nelle varie dimensioni:
[x̂i , x̂j ] = [p̂i , p̂j ] = 0
Per esemplificare partiamo dalla generalizzazione più semplice, ovvero dalla particella libera in
due dimensioni dove avremo:
p̂2x p̂2y
H = +
2m 2m
H|ψi = E|ψi −→
~2 ∂2 ∂2
−→ − + ψ(x, y) = E ψ(x, y)
2m ∂x2 ∂y 2
Ovvero, e di qui in avanti generalizziamo direttamente con estensione ovvia a tre dimensioni:
~2 ~ 2
− ∇ ψ(~x) = E ψ(~x) (3.4)
2m
i
1 − p~ · ~x
ψ(~x) = p e ~ = ψpx (x) · ψpy (y) · ψpz (z)
(2π~)3
p~ 2
Cosı̀ come è evidente che l’energia è la somma delle energie in ciascuna direzione, ovvero gli
2m
autovalori sono la somma degli autovalori.
Come si formalizza nell’ambito del formalismo introdotto? Siamo in presenza di quanto visto
precedentemente per cui avremmo dovuto scrivere H = Hx ⊗ Iy ⊗ Iz + Ix ⊗ Hy ⊗ Iz + Ix ⊗ Iy ⊗ Hz
e per l’equazione agli autovalori:
Hx ⊗ Iy ⊗ Iz + Ix ⊗ Hy ⊗ Iz + Ix ⊗ Iy ⊗ Hz |Ex i ⊗ |Ey i ⊗ |Ez i = E |Ex i ⊗ |Ey i ⊗ |Ez i
139
La proiezione sulla base |~xi = |xi ⊗ |yi ⊗ |zi fornisce infatti:
hx|⊗hy|⊗hz| Hx ⊗Iy ⊗Iz +Ix ⊗Hy ⊗Iz +Ix ⊗Iy ⊗Hz |Ex i⊗|Ey i⊗|Ez i = E hx|Ex ihy|Ey ihz|Ez i
~2 ~ 2
− ∇ ψE (~x) = E ψE (~x)
2m
essendo chiaramente ψE (~x) = hx| ⊗ hy| ⊗ hz| |Ex i ⊗ |Ey i ⊗ |Ez i = hx|Ex ihy|Ey ihz|Ez i
e usando tutte le proprietà imparate in 1d a esempio:
o la completezza:
Z Z Z Z
d3 x|~xih~x| = dx|xihx| dy|yihy| dz|zihz| = I
Similmente l’interpretazione del modulo quadro della funzione d’onda sarà che |ψ(~x)|2 d3 x è la
probabilità di trovare la particella in un elemento di volume tra x e x + dx, y e y + dy, z e z + dz
eccetera. Con questo in mente merita alleggerire il formalismo e scrivere direttamente a esempio
H = Hx + Hy + Hz , ed evitare di usare il simbolo di prodotto tensoriale. Una volta sulla base
|~xi avremo equazioni differenziali per ψ(~x) a variabili separabili per cui le soluzioni saranno il
prodotto delle soluzioni di singola dimensione e gli autovalori la somma degli autovalori. Il caso
interagente è formalmente analogo e per il momento non serve aggiungere altro.
L’Hamiltoniana è:
p2x p2y 1 1
H = + + kx2 + ky 2
2m 2m 2 2
140
autofunzioni dal prodotto delle autofunzioni:
α2 2
(x + y 2 )
−
u~n (x, y) = unx (αx)uny (αy) = Nnx Nny Hnx (αx)Hny (αy) e 2
p
(con al solito α = mω/~).
Naturalmente il problema può essere risolto per via algebrica sulla base dell’energia ovvero dei
numeri di occupazione N̂x = a† a, N̂y = b† b, legati a x̂, ŷ dalle relazioni
a + a† b + b†
x̂ = √ ; ŷ = √
2α 2α
e chiaramente con [b, b] = [b† , b† ] = 0 e [b, b† ] = 1 come per gli operatori a, a† . In questa base
naturalmente gli autostati saranno espressi come:
(come detto il simbolo di prodotto tensoriale sarà generalmente evitato per non appesantire il
formalismo). Ogni operatore numero agisce nel suo spazio:
Diversamente dal caso unidimensionale in questo caso si ha una degenerazione dei livelli uguale
a nx + ny + 1. Infatti il livello fondamentale E0,0 è non degenere, corrispondendo solo allo stato
|0, 0i, il primo livello eccitato E1,0 = E0,1 è doppiamente degenere corrispondendo agli stati |1, 0i
e |0, 1i e cosı̀ via.
Facciamo l’esempio di una forma quadratica in due dimensioni, facendo comunque il caso più
semplice, ovvero consideriamo l’Hamiltoniana
p2x p2y 1 1
H = + + kx2 + ky 2 + cxy
2m 2m 2 2
141
che non è somma di due Hamiltoniane commutanti, ma che come ormai sappiamo può essere
ricondotta a quel caso introducendo nuove coordinate. Introdurre infatti
x+y x−y
ξ= √ ; η= √
2 2
p2ξ p2η 1 1
H= + + (k + c) ξ 2 + (k − c) η 2
2m 2m 2 2
p
e corrisponde a due oscillatori disaccoppiati con pulsazioni ω± = (k ± c)/m.
È quindi immediato scrivere gli autovalori:
1 1
En+ ,n− = ~ω+ n+ + + ~ω− n− + (3.5)
2 2
e gli autostati |n+ , n− i. Si capisce quindi che (salvo valori particolari di k, c) la degenerazione
è completamente rimossa rispetto al caso isotropo, non essendoci in generale due stati con la
stessa energia.
142
Capitolo 4
Partiamo dal caso di spettro imperturbato non degenere e scriviamo l’Hamiltoniana complessiva
H = H0 + λ H1
143
avendo introdotto λ da utilizzare per eseguire uno sviluppo in serie di potenze e riconoscere
i termini dello stesso ordine. Alla fine del procedimento si porrà λ = 1 e supponiamo che
sussistano le condizioni per la convergenza della serie.
Consideriamo quindi l’equazione agli autovalori per l’Hamiltoniana totale H
∞
X
|un i = λi |un(i) i
i=0
∞
X
En = λj En(j) (4.2)
j=0
∞
X ∞
X
i
(H0 + λ H1 ) λ |un(i) i = λi+j En(j) |un(i) i (4.3)
i=0 i,j=0
(0)
Proiettando su hun | si determina la correzione al primo ordine del livello n, infatti:
hu(0) (1) (0) (0) (1) (0) (0) (0) (0) (1)
n |H0 |un i + hun |H1 |un i = En hun |un i + En hun |un i
Utilizzando l’equazione agli autovalori all’ordine zero si vede subito che il primo termine del
membro di sinistra si elide con il secondo termine del membro a destra e quindi:
144
(0) (1)
Notiamo anche che a questo passaggio resta indeterminata la proiezione hun |un i.
(0)
Proiettando l’eq.(4.4) su hum | con m 6= n si ottiene:
hu(0) (1) (0) (0) (1) (0) (0) (0) (0) (1)
m |H0 |un i + hum |H1 |un i = En hum |un i + En hum |un i
ovvero, usando l’equazione agli autovalori e l’ortogonalità degli stati con m 6= n di ordine zero:
(0) (0)
hum |H1 |un i
hu(0) (1)
m |un i = (0) (0)
(4.6)
En − Em
che sono i coefficienti che permettono di calcolare la correzione agli autostati al primo ordine.
Infatti usando la completezza della base di ordine zero si può scrivere, per la correzione allo
stato:
X
|u(1)
n i = |u(0) (0) (1)
m ihum |un i
m
(0) (1)
Resta da determinare hun |un i. A questo scopo imponiamo la condizione di normalizzazione
al primo ordine ovvero non della correzione ma dello stato al primo ordine, ovvero considerando
i primi due termini della serie in eq.(4.2):
1 = hu(0)
n | + λ hu(1)
n | |u(0)
n i + λ |u(1)
n i
= 1 + λ hu(0) (1) (1) (0)
+ O λ2
n |un i + hun |un i (4.7)
(0) (1)
ovvero se hun |un i = iη ; η ∈ R ovvero se è una quantità puramente immaginaria. Quindi
al primo ordine avremo:
e quindi notiamo che ridefinendo la fase dello stato ovvero moltiplicandolo per e−iλ il coefficiente
dipendente da η si annulla consistentemente al primo ordine in λ e ponendo alla fine λ = 1 si
145
può scrivere la soluzione perturbativa per gli autostati al primo ordine:
(0) (0)
X hum |H1 |un i
|un i = |u(0)
n i + |u(0)
m i (0) (0)
(4.8)
m6=n En − Em
Notiamo anche che in questo modo la correzione del primo ordine è ortogonale all’autostato
(0) (1)
imperturbato ovvero hun |un i = 0.
Per la correzione agli stati ci fermiamo qui, rimandando ad altri testi per le correzioni di ordine
superiore, mentre ricaviamo adesso anche le correzioni del secondo ordine per i livelli energetici.
Riprendendo l’eq.(4.3) si scrivono i termini del secondo ordine in λ:
(0)
e proiettandola su hun |, utizzando l’equazione agli autovalori di ordine zero e utilizzando il
(0) (1)
risultato trovato hun |un i = 0, si ricava subito la correzione del secondo ordine:
che usando la correzione degli stati al primo ordine dalla (4.8) si può riscrivere:
Per terminare facciamo due osservazioni. La prima è che guardando a esempio all’espressio-
ne della correzione degli autostati al primo ordine e richiedendo consistemente all’approccio
(1) (0)
perturbativo che sia |un i |un i si trova che deve valere
hu(0) |H |u(0) i
m 1 n
(0) (0)
1 (4.10)
En − Em
146
ovvero, riagganciandoci a quanto detto a inizio sezione, l’espansione perturbativa è giustificata
se gli elementi di matrice dell’Hamiltoniana di perturbazione sono piccoli rispetto alla separa-
zione tra i livelli impertubati.
La seconda osservazione riguarda la correzione ai livelli energetici del secondo ordine che riscri-
viamo per comodità nella forma
Passiamo al caso di spettro discreto con livelli imperturbati degeneri. Ricordiamo prima di tutto
che in presenza di degenerazione la base degli autostati dell’Hamiltoniana imperturbata H0 non
è univocamente determinata nel senso che nel sottospazio degenere qualunque base ortonormale
diagonalizza H0 che in quel sottospazio è proporzionale all’identità. Se l’Hamiltoniana di per-
turbazione H1 commuta con H0 esiste una base simultanea che le diagonalizza entrambe e se
lo spettro di H1 non è degenere una sua base di autostati ortonormali diagonalizza anche H0
rimuovendo anche la degenerazione e quindi in questo caso si cerca di risolvere esattamente il
problema piuttosto che utilizzare l’approccio perturbativo (che può essere comunque usato). Più
in generale H1 non commuterà con H0 . Tuttavia, come si capisce rappresentando i due ope-
ratori come matrici su una base di autostati di H0 , le due matrici commuteranno sicuramente
nel sottospazio degenere (essendo appunto H0 proporzionale all’identità in tale sottospazio). Di
conseguenza il problema si risolve nel cercare una trasformazione unitaria che diagonalizzi H1
nel sottospazio degenere.
Notiamo comunque intanto che nel caso di livello degenere la condizione di validità dell’approccio
147
perturbativo cosı̀ come l’avevamo scritta nella (4.10) non può essere soddisfatta a causa dell’an-
nullarsi del denominatore mentre il numeratore in generale (a meno che H1 non sia già diagonale
nel sottospazio degenere) non si annullerà. Introduciamo quindi un indice di degenerazione del
livello α = 1, 2, ..., d dove appunto d è la degenerazione e riscriviamo l’equazione agli autovalori
di ordine zero:
H0 |u(0) (0) (0)
n , αi = En |un , αi ; α = 1, 2, ..., d (4.12)
e ribadiamo che la base in questo sottospazio di dimensione d è solo una delle possibili basi
accettabili. Considerando l’Hamiltoniana completa H = H0 + λ H1 (con al solito λ = 1
alla fine del procedimento) potremo avere una serie di possibilità. La più banale è il caso nel
quale anche H1 sia proporzionale all’identità nel sottospazio degenere. In questo caso la base
di ordine zero resta indeterminata e gli autovalori resteranno degeneri anche se subiranno un
spostamento a causa della perturbazione. Un altro caso semplice è quello nel quale la base
di ordine zero diagonalizza ancora H1 che però non ha tutti i d autovalori uguali. In questo
caso la degenerazione è in parte rimossa ed è completamente rimossa se tutti i d autovalori
di H1 sono distinti. Più in generale si dovrà diagonalizzare come detto H1 nel sottospazio
degenere determinando le correzioni al livello energetico al primo ordine e la base di ordine zero
che diagonalizza sia H0 che H1 (sempre beninteso nel sottospazio degenere di H0 ). In queste
condizioni la degenerazione sarà rimossa in parte o completamente a seconda della molteplicità
degli autovalori di H1 . Per il caso degenere ci fermiamo qui, rimandando ad altre fonti per
approfondimenti, anche se la sostanza è stata qui esposta.
Per mettere un pò in formule quanto detto, consideriamo l’identità (ricordiamo che 0 ≤ λ ≤ 1 e
che alla fine λ = 1):
Essendo la differenza tra gli autovalori nel membro a destra della precedente equazione
(0) (1)
En − En = λEn + O(λ2 ), per avere il risultato al primo ordine in λ è sufficiente considerare
gli stati descritti dai ket nella precedente equazione all’ordine zero. Tuttavia, a causa della
degenerazione, per questi si può solo affermare che saranno dati in generale da una combinazione
lineare degli stati nel sottospazio degenere, ovvero:
X X
lim |un,β i = |u(0) (0)
n,γ ihun,γ |un,β i = aγβ |u(0)
n,γ i
H1 →0
γ γ
148
e quindi al primo ordine in λ l’eq. (4.13) diventa:
X X
hu(0) (0)
n,α |H1 |un,γ iaγβ = En(1) hu(0) (0)
n,α |un,γ iaγβ
γ γ
X
hu(0)
n,α |H |u(0)
1 n,γ i − E (1)
n αγ aγβ = 0
δ
γ
che per non avere la soluzione banale equivale a risolvere l’equazione agli autovalori e alla
diagonalizzazione della matrice di perturbazione nel sottospazio degenere.
Notiamo che se andiamo a riconsiderare la condizione di validità dell’approccio perturbativo che
avevamo trovato dallo studio del caso non degenere al primo ordine, eq.(4.10), passando al caso
degenere notiamo che dopo avere diagonalizzato H1 nel sottospazio degenere gli elementi fuori
diagonale si annullano insieme ai denominatori e quindi l’espressione non è più divergente anche
nel caso degenere.
4.3 Applicazioni
Per vedere un esempio sia di caso non degenere che degenere, procediamo con un esempio
semplice, che è il caso della forma quadratica in due dimensioni trattata alla fine del capitolo
precedente. Questo è un esempio istruttivo perchè come abbiamo visto il problema si risolve
esattamente e si può quindi verificare, oltre al funzionamento dell’approccio perturbativo, come
questo corrisponda semplicemente a uno sviluppo in serie.
Riconsideriamo quindi
p2x + p2y 1
H = H0 + H1 = + k(x2 + y 2 ) + cxy
2m 2
(1)
∆E0,0 = h0, 0|cxy|0, 0i = c h0|x|0ih0|y|0i
149
(ricordiamo come visto all’inizio del capitolo precedente che ogni operatore agisce nel suo spazio).
Manifestamente la correzione del primo ordine all’energia è nulla in quanto lo sono entrambi i
fattori, come si può facilmente vedere ricorrendo ad argomenti di parità, ma anche ad esempio
al fatto che l’operatore posizione non ha elementi diagonali essendo lineare negli operatori di
salita e discesa. Si deve quindi andare al secondo ordine dove va utilizzata la formula (4.9) che
adattata al caso attuale si scrive:
(2)
X |h0, 0|cxy|nx , ny i|2
∆E0,0 = (0) (0)
nx ,ny 6=0,0 E0,0 − Enx ,ny
X |h0|x|nx ih0|y|ny i|2
= c2 (0) (0)
nx ,ny 6=0,0 E0,0 − Enx ,ny
da cui si vede, riprendendo quanto visto nella trattazione algebrica dell’oscillatore armonico e
pagine seguenti, che contribuisce solo il termine con nx = 1, ny = 1 per il quale si trova facilmente
che l’elemento di matrice
1
h0|x|1ih0|y|1i =
2α2
mentre
(0) (0)
E0,0 − E1,1 = −2~ω
per cui
(2) c2 c2 ~
∆E0,0 = − = − (4.14)
8~ωα4 8m2 ω 3
r
k±c
Se adesso prendiamo la formula esatta per i livelli energetici (3.5) con ω± = troviamo
m
che l’energia dello stato fondamentale esatta è:
r r !
~ ~ k+c k−c
E0,0 = (ω+ + ω− ) = +
2 2 m m
Questa, sviluppata in serie di potenze di c/k, fornisce: il giusto risultato ~ω all’ordine zero,
il primo ordine nullo e il secondo ordine coincidente (come deve essere) con il risultato (4.14)
ottenuto con la teoria perturbativa.
Come applicazione del caso degenere cerchiamo la correzione al primo livello eccitato, che come
sappiamo è doppiamente degenere. Calcoliamo quindi gli elementi di matrice dell’Hamiltoniana
di perturbazione (H1 )αβ con α, β = 1, 2 che numerano gli stati degeneri |1, 0i e |0, 1i. Si ha
quindi:
h1, 0|H1 |1, 0i h1, 0|H1 |0, 1i
(H1 )αβ =
h0, 1|H1 |1, 0i h0, 1|H1 |0, 1i
150
Dato che, come abbiamo già visto, x e y non hanno elementi diagonali, i termini diagonali
sono nulli, mentre:
c
h1, 0|cxy|0, 1i = c h1|x|0i h0|y|1i =
2α2
ax + a†x ay + a†y
come si ricava facilmente da x = √ ; y = √ . Il termine simmetrico rispetto
2α 2α
alla diagonale è ovviamente uguale essendo H1 un operatore hermitiano.
Quindi la matrice ha
c 1 1
autovalori λ± = ± 2
con autovettori rispettivamente v± = √ e quindi la base di
2α 2 ±1
ordine zero che diagonalizza simultaneamente H0 e H1 nel sottospazio degenere del primo livello
eccitato dell’oscillatore imperturbato è:
|1, 0i + |0, 1i c
√ con autovalore 2~ω +
2 2α2
|1, 0i − |0, 1i c
√ con autovalore 2~ω − 2
2 2α
Soluzione
La correzione del primo ordine ai livelli è:
(2)
X |h0|V1 |ni|2 X |h0|x3 |ni|2
∆E0 = (0) (0)
= γ2 (0) (0)
n6=0 E0 − En n6=0 E0 − En
(0) (0)
h0|3aa† a|1i = 3 ; E0 − E1 = −~ω
151
√ (0) (0)
h0|a3 |3i = 6 ; E0 − E3 = −3~ω
per cui:
Pendolo quantistico
Vediamo adesso un esercizio classico, ovvero i livelli delle piccole oscillazioni di un pendolo quan-
tistico con la prima correzione ai livelli dovuta al termine anarmonico. Si consideri quindi una
particella di massa m in un piano verticale (x, y) soggetta alla forza di gravità e vincolata a
distanza ` da un punto fisso.
Si scriva la Lagrangiana del sistema prendendo come coordinata lagrangiana l’arco di traietto-
ria misurato dal punto di equilibrio, l’Hamiltoniana approssimata per piccole oscillazioni dalla
posizione di equilibrio, determinando in questo regime autovalori e autofunzioni dell’energia e
infine si calcoli lo spostamento dei livelli energetici, al primo ordine in teoria delle perturbazioni
dovuto al primo termine anarmonico, discutendo il limite di validità dell’approccio perturbativo.
Soluzione
Prendiamo come coordinata lagrangiana l’arco di traiettoria q = `θ e quindi q̇ = `θ̇, con θ
angolo di spostamento rispetto alla posizione di equilibrio presa come zero dell’energia potenziale.
Questa sarà cosı̀ V = mg` (1 − cos θ) e per la Lagrangiana:
1 h qi
L(q, q̇) = T − V = q̇ 2 − mg` 1 − cos
2 `
p2 h qi
H(q, p) = pq̇(p) − L(q, q̇(p)) = + mg` 1 − cos
2m `
p2 q2 q4
H' + mg` − + ...
2m 2`2 24`4
152
p
ω= g/`:
p2 1 g
H0 = + m q2
2m 2 `
che prendiamo come termine imperturbato. Dalla quantizzazione ritroviamo quindi le soluzioni
già studiate per autofunzioni e autovalori dell’energia con la sola sostituzione per la pulsazione.
Dallo sviluppo in serie per piccoli angoli visto in precedenza si vede che il termine anarmonico da
considerare come una perturbazione, sempre nel limite di piccoli angoli è, posto al solito ξ = αq:
mg 4 mg ξ 4 ~2
H1 = − q = − = − ξ4
24`3 24`3 α4 24m`2
(a + a† )4
Avendo già studiato in precedenza gli elementi diagonali di ξ 4 = , possiamo quindi
4
scrivere direttamente la correzione al primo ordine perturbativo dell’energia dei livelli
~2
∆En(1) = hn|H1 |ni = − 2
2n + 2n + 1
32m`2
per cui:
~2
2n2 + 2n + 1 ~ω
32m` 2
153
Capitolo 5
Momento angolare
L=r×p
Notiamo intanto che l’estensione quantistica che si ottiene dal principio di corrispondenza so-
stituendo a posizione e impulso i relativi operatori quantistici fornisce, come deve essere, un
operatore hermitiano. Infatti:
∂
o esplicitamente (∂x ≡ ∂x ecc.)
Lx = −i~ (y ∂z − z ∂y )
Ly = −i~ (z ∂x − x ∂z )
Lz = −i~ (x ∂y − y ∂x )
154
che con una somma sugli indici ripetuti sottintesa e l’ausilio del tensore di Levi-Civita ijk
(completamente antisimmetrico con 123 = 1) si può riscrivere in forma compatta:
Li = −i~ ijk xj ∂k
Calcoliamo il commutatore
[Lx , Ly ] = [y pz − z py , z px − x pz ] = [y pz , z px ] − [z py , x pz ] =
[Li , Lj ] = i~ ijk Lk
2
L , Li = [Lj Lj , Li ] = Lj [Lj , Li ] + [Lj , Li ]Lj = i~ jik (Lj Lk + Lk Lj ) = i~ jik {Lj , Lk } = 0
Poichè [Li , Lj ] 6= 0 le varie componenti del momento angolare non sono diagonalizzabili simul-
taneamente, ed il massimo insieme di operatori commutanti dato da L2 ed una componente di
L, convenzionalmente Lz .
Le componenti degli operatori posizione e impulso xi ,pi obbediscono alle seguenti regole di
commutazione con le componenti del momento angolare:
e analogamente
[Li , pj ] = i`k [x` pk , pj ] = i~i`k pk δ`,j = i~ijk pk
155
Questo comporta che [Li , x2 ] = [Li , p2 ] = 0 infatti:
e analogamente per p2 . Ciò implica, ad esempio, che come atteso per potenziali centrali V = V (r)
il momento angolare sia conservato, in quanto [Li , H] = 0. Inoltre il fatto che [Li , r] = 0,
suggerisce che le componenti del momento angolare, espresse come operatori differenziali nella
base delle coordinate, una volta passati a un sistema di coordinate sferiche non conterranno
derivate rispetto a r ma solo rispetto agli angoli polare e azimutale θ, ϕ. Questo è anche coerente
con il fatto che le componenti del momento angolare siano i generatori delle rotazioni nello spazio
e quindi appunto dipendano dagli angoli e non dalla coordinata radiale.
Passiamo quindi a coordinate sferiche per trovare la forma esplicita delle componenti Li .
si ha
∂r = ∂r xi ∂xi ∂r x = sin θ cos ϕ
∂θ = ∂θ xi ∂xi ∂r y = sin θ sin ϕ
∂ϕ = ∂ϕ xi ∂x
∂r z = cos θ
i
∂θ x = r cos θ cos ϕ ∂ϕ x = −r sin θ sin ϕ
∂θ y = r cos θ sin ϕ ∂ϕ y = r sin θ cos ϕ
∂θ z = −r sin θ
∂ϕ z = 0
156
∂r = sin θ cos ϕ ∂x + sin θ sin ϕ ∂y + cos θ ∂z
∂θ = r cos θ cos ϕ ∂x + r cos θ sin ϕ ∂y − r sin θ ∂z
∂ϕ = −r sin θ sin ϕ ∂x + r sin θ cos ϕ ∂y
1 1 sin ϕ
∂x = sin θ cos ϕ ∂r + cos θ cos ϕ ∂θ − ∂ϕ
r r sin θ
1 1 cos ϕ
∂y = sin θ sin ϕ ∂r + cos θ sin ϕ ∂θ − ∂ϕ
r r sin θ
1
∂z = cos θ ∂r − sin θ∂θ
r
Lx = −i~ y ∂z − z ∂y
h 1
= −i~ r sin θ sin ϕ cos θ ∂r − sin θ ∂θ
r
i
1 1 cos ϕ
−r cos θ sin θ sin ϕ, ∂r + cos θ sin ϕ∂θ + ∂ϕ
r r sin θ
= −i~ sin ϕ ∂θ + cot θ cos ϕ ∂ϕ
Ly = −i~ z ∂x − x ∂z
h 1
= −i~ r cos θ sin θ cos ϕ) ∂r + cos θ cos ϕ ∂θ −
r
1 sin ϕ 1 i
− ∂ϕ − r sin θ cos ϕ cos θ ∂r − sin θ ∂θ
r sin θ r
= −i~ cos ϕ ∂θ − cot θ sin ϕ ∂ϕ
157
Lz = −i~ x ∂y − y ∂x
1 1 cos ϕ
= −i~ r sin θ cos ϕ sin θ sin ϕ ∂r + cos θ sin ϕ ∂θ + ∂ϕ
r r sin θ
1 1 sin ϕ
−r sin θ sin ϕ sin θ cos ϕ ∂r + sin θ cos ϕ ∂θ − ∂ϕ
r r sin θ
= −i~ ∂ϕ
Riassumendo:
L = −i~ sin ϕ ∂ + cot θ cos ϕ ∂
x ϕ
θ
Ly = −i~ cos ϕ ∂ θ − cot θ sin ϕ ∂ϕ
Lz = −i~ ∂ϕ
Inoltre si trova:
2 2 1 1
∂2
L = −~ ∂θ sin θ ∂θ + (5.1)
sin θ sin2 θ ϕ
Prima di procedere alla ricerca delle autofunzioni simultanee di L2 , Lz in tre dimensioni, facciamo
un passo indietro con un esercizio su un sistema piano con invarianza per rotazioni attorno
all’asse perpendicolare. Con questo esempio si ricavano immediatamente le autofunzioni di Lz
(prendendo il piano in (x, y)). Si consideri quindi una sbarretta lineare omogenea di massa m e
momento di inerzia I, libera di ruotare nel piano (x, y) con il baricentro fisso, nel quale poniamo
l’origine delle coordinate.
Scriviamo l’Hamiltoniana del sistema prendendo come coordinata lagrangiana l’angolo ϕ tra la
sbarretta e l’asse x e determiniamo autofunzioni e autovalori dell’energia. Avremo:
1
L = T = I ϕ̇2
2
∂L
pϕ = = I ϕ̇ = Lz
∂ ϕ̇
l’Hamiltoniana è:
p2ϕ L2
H(ϕ, pϕ ) = pϕ ϕ̇(pϕ ) − L(ϕ, ϕ̇(pϕ )) = = z
2I 2I
Quanto visto fin qui è classico. Adesso, promuovendo H e Lz ad operatori, e tenendo conto che
il problema ha un solo grado di libertà, l’equazione agli autovalori H|Ei = E|Ei proiettata nella
158
base delle coordinate e passando in coordinate polari (come fatto nella trattazione precedente
in tre dimensioni), prenderà la forma:
L2z
uE (ϕ) = E uE (ϕ)
2I
∂
e con pϕ = Lz = −i~ e [ϕ, pϕ ] = i~:
∂ϕ
00 2I
u (ϕ) + E u(ϕ) = 0
~2
~2 2
Em = m ; m = 0, ±1, ±2, ±3, ...
2I
R 2π
e infine, richiedendo che 0 u∗m (ϕ)um0 (ϕ)dϕ = δm,m0 , le autofunzioni normalizzate di H (e Lz )
sono:
1
um (ϕ) = √ eimϕ ; m∈Z
2π
e lo spettro è doppiamente degenere eccetto per m = 0.
Si noti l’analogia con la particella libera in una dimensione quando si divida lo spazio in intervalli
di lunghezza L ponendo condizioni periodiche u(x) = u(x+L) dove in possibili valori dell’impulso
(e dell’energia) risultavano discretizzati.
L’esempio visto adesso mostra già quali saranno le autofunzioni di Lz anche in 3 − d, quando si
scelga Lz come operatore da diagonalizzare simultaneamente a L2 e vedremo che le autofunzioni
simultanee, le Armoniche Sferiche, risulteranno il prodotto delle autofunzioni di Lz moltiplicate
(a parte fattori di normalizzazione) per dei polinomi, i polinomi di Legendre. Le armoniche
sferiche saranno naturalmente ortogonali e normalizzate nell’angolo solido.
159
5.1.2 Armoniche Sferiche
L2 Y m (θ, ϕ) = ~2 λ Y m (θ, ϕ)
λ λ
(5.2)
L Y m (θ, ϕ) = ~ m Y m (θ, ϕ)
z λ λ
∂ Yλm
−i~ ∂ϕ Yλm (θ, ϕ) = ~ m Yλm (θ, ϕ) ⇒ = i m ∂ϕ
Yλm
Yλm (θ, ϕ) = Θm
λ (θ) e
imϕ
con m ∈ Z per la monodromia: Yλm (θ, ϕ) = Yλm (θ, ϕ+2nπ). Sostituendo questa espressione nella
prima equazione delle (5.2), e sostituendo ad L2 l’operatore differenziale scritto in precedenza
si ottiene:
1 1 2 m imϕ
− 2 ∂θ sin θ ∂θ + 2 ∂ϕ Θλ (θ) e = λ Θm
λ (θ) e
imϕ
sin θ sin θ
m2
1
∂θ sin θ ∂θ − + λ Θm
λ (θ) e
imϕ
=0
sin2 θ sin2 θ
m2
1
∂θ sin θ ∂θ − + λ Θm
λ (θ) = 0
sin2 θ sin2 θ
m2
∂w (1 − w2 ) ∂w − + λ Θm
λ (w) = 0
1 − w2
da cui
m2
00 m m
2
(1 − w ) Θλ (w) − 2w Θ0 λ (w) + λ− Θm
λ (w) = 0
1 − w2
Questa è un’equazione differenziale nota, con soluzioni non singolari in w = ±1 (θ = ±π) per
λ = `(` + 1) con ` ∈ N .
160
Le soluzioni per Θm m
λ (w) risultano cosı̀ i polinomi associati di Legendre P` (w), costruiti a
1 d`
P` (w) = (w2 − 1)`
2` `! dw`
ed aventi la forma
|m| d|m|
P`m (w) = (1 − w2 ) 2 P` (w)
dw|m|
Risulta evidente che se |m| > ` il polinomio associato si annulla identicamente. Fisicamente ciò
implica il fatto (ragionevole) che una componente (in questo caso Lz ma vale ovviamente anche
~ In realtà, per il
per le altre) non possa assumere un valore maggiore del modulo del vettore L.
principio di indeterminazione, una singola componente non può neanche uguagliare il modulo di
~ e infatti gli autovalori di L2 sono (`2 + `)~2 , mentre m può assumere valori compresi tra −` e
L
+` e gli autovalori di Lz sono m~.
Riassumiamo adesso alcune proprietà dei polinomi di Legendre:
1) P` (1) = 1
3 1
P0 = 1 , P1 = ω ; P2 = w 2 −
2 2
5 3 35 4 15 2 3
P3 = w3 − w ; P4 = w − w +
2 2 8 4 8
Z
0
dΩ Y`∗m (θ, ϕ) Y`m
0 (θ, ϕ) = δmm0 δ``0
161
Esplicitamente:
1
(−1)`+m 2` + 1 (` − m)! 2 d`+m
Y`m (θ, ϕ) = (sin θ)m (sin θ)2` eimϕ
(2`)!! 4π (` + m)! (d cos θ)`+m
Concludiamo con un’osservazione su qualcosa che viene in genere dato per scontato sui testi,
ovvero: benchè il momento angolare viva naturalmente nello spazio 3 − d, L2 , Lz dipendono solo
dagli angoli polare e azimutale e la coordinata radiale quindi “scompare” dal gioco, si fattorizza.
Questo, insieme al fatto che nel passaggio a coordinate sferiche non vengono introdotti nuovi
operatori corrispondenti ad osservabili connesse a r, θ, ϕ, può portare a domandarsi come eseguire
le manipolazioni formali che portano dal formalismo di Dirac con operatori e ket ad equazioni
per le funzioni d’onda, che come sappiamo sono la proiezione del vettore di stato su una base
di autostati a esempio dell’osservabile posizione o impulso. La risposta è che naturalmente si
possono sempre ripetere le manipolazioni già utilizzate con le coordinate cartesiane, proiettando
sulla base ad esempio delle |xi ed eseguendo i passaggi che servono a calcolare probabilità, valori
medi ecc. e al momento opportuno cambiare coordinate. Tuttavia, trattando del momento
angolare orbitale, si possono introdurre dei ket labellati dagli angoli: |Ωi ≡ |θ, ϕi, con hΩ0 |Ωi =
δ(Ω − Ω0 ) e |ΩihΩ| = I e si avrà:
R
162
dove |`, mi sono gli autostati simultanei di L2 , Lz (labellati quindi dai relativi numeri quantici):
Lz |`, mi = ~m|`, mi
Z
dΩ0 hΩ|L2 |Ω0 ihΩ0 |`, mi = hΩ|~2 `(` + 1)|`, mi
Z
dΩ0 L2 (Ω0 )δ(Ω − Ω0 )Y`m (Ω0 ) = ~2 `(` + 1)Y`m (Ω)
dove L2 (Ω) = L2 (θ, ϕ) è l’operatore differenziale trovato nella eq.(5.1) e l’equazione è la prima
delle eq.(5.2) con λ = `(` + 1).
Aggiungiamo anche una ultima osservazione: come abbiamo visto in precedenza quando è stato
richiamato il prodotto tensoriale, è stato detto che il simbolo ⊗ viene praticamente sempre
omesso e che quasi sempre gli stati sono scritti come ket che contengono la sequenza dei numeri
quantici che specificano il set massimale di operatori mutuamente commutanti. È bene comunque
ricordarsi che questi numeri quantici possono essere a volte relativi a operatori che vivono nello
stesso spazio come nel caso di L2 , Lz , mentre altre volte come ad esempio vedremo per gli stati
con determinato momento angolare e spin, relativi a osservabili che vivono in spazi distinti. La
semplificazione del formalismo non deve quindi far dimenticare cosa si sta facendo di volta in
volta.
163
5.1.3 Armoniche sferiche, potenze delle componenti del vettore posizione e
contenuto di momento angolare
Una domanda tipica è, assegnata la funzione d’onda di una particella, quale sia il contenuto
di momento angolare, ovvero quali siano i possibili risultati di una misura di L2 e Lz ed
eventualmente anche con quali probabilità. Ciò serve per calcolare ad esempio il valor medio
atteso di osservabili, eseguendo misure ripetute su sistemi identicamente preparati nello stato
descritto appunto dalla funzione d’onda assegnata. Ad esempio, nel caso di funzioni d’onda che
non dipendono dagli angoli la risposta è con certezza ` = 0, m = 0 e vale la pena sottolineare
che per funzioni d’onda indipendenti dagli angoli si intendono funzioni d’onda dipendenti solo
p
dal modulo del vettore posizione r = |~x| = x2 + y 2 + z 2 e non da una potenza qualsiasi di una
o più sue componenti (che non sia comunque una combinazione scrivibile come funzione di r).
Quindi se lo stato di una particella nello spazio è descritto da una funzione d’onda della forma:
ψ(~x) = F (r)
indipendente dagli angoli, una misura di momento angolare fornisce con certezza risultato ` = 0
(e quindi anche m = 0).
Supponiamo comunque come sempre che hψ|ψi = 1, ovvero che:
Z Z ∞ Z
d3 ~x |ψ(~x)|2 = r2 dr dΩ |F (r)|2 = 1
0
dove naturalmente:
Z Z 2π Z π Z 2π Z 1
dΩ = dϕ sin θ dθ = dϕ dw (w = cos θ)
0 0 0 −1
Ricordiamo che il modulo quadro della funzione d’onda fornisce la densità di probabilità di pre-
senza per cui se questa ha simmetria sferica il momento angolare orbitale è nullo con probabilità
uno, ossia con certezza.
Come si giustifica ovvero come si dimostra formalmente? E quale è in pratica il modo più rapi-
do per rispondere alla domanda generale di quale sia il contenuto di momento angolare di una
funzione d’onda assegnata?
La risposta in generale si ottiene nel modo più rapido decomponendo la funzione d’onda sulla
base delle armoniche sferiche, dopo averla eventualmente dovuta riscrivere in coordinate sferiche,
ovvero nella forma:
X
ψ(~x) = ψ(r, θ, ϕ) = c`,m (r)Y`m (θ, ϕ) (5.3)
`,m
164
La condizione di normalizzazione hψ|ψi = 1 comporta:
Z
1 = d3 ~x ψ ∗ (~x)ψ(~x)
Z ∞ Z
= r2 dr dΩ ψ ∗ (r, θ, ϕ)ψ(r, θ, ϕ)
0
XXZ ∞ Z
= r dr c`0 ,m0 (r)c`,m (r) dΩ Y`∗0 ,m0 (θ, ϕ)Y`,m (θ, ϕ)
2 ∗
`,m `0 ,m0 0
XZ ∞
= r |c`,m (r)|2 dr
2
(5.4)
`,m 0
e, dato che come sappiamo questa espressione deve avere una interpretazione probabilistica,
questa è proprio la risposta che cercavamo, ovvero le probabilità di un certa coppia `, m come
risultato di una misura di L2 , Lz sono proprio:
Z ∞
P (`, m) = r2 |c`,m (r)|2 dr (5.5)
0
Ci sarebbero molte osservazioni da fare, vediamone alcune: la prima è che in generale la risposta
alla domanda coinvolge il dover “risommare” sulla variabile r. Questo non deve sorprendere
perchè il contenuto di momento angolare ha che fare con la dipendenza dalle variabili angolari
e non da r; quindi come è logico su una variabile “cieca” si deve risommare per ottenere la
probabilità totale . Infatti la stessa cosa vale ad esempio per determinare la probabilità di una
misura di Lz indipendentemente da L2 per ottenere la quale si deve risommare su `, ovvero:
XZ ∞
P (m) = r2 |c`,m (r)|2 dr
` 0
La differenza è che ` è un indice discreto e associato a una osservabile, mentre r è una variabile
continua. Inoltre la domanda sul contenuto di momento angolare è ben posta anche senza speci-
ficare la forma dell’Hamiltoniana e quindi con r non associata a una osservabile. Diversamente
infatti, come a esempio nel caso dell’atomo di idrogeno, uno stato legato è sviluppabile sulla base
di polinomi ortogonali dipendenti da r e associati a un numero quantico n legato all’energia.
Una seconda osservazione è che la risposta data vale nel caso più generale ma spesso la domanda
si può presentare nel caso di dipendenza da r fattorizzabile, ovvero se:
165
In questo caso la risposta è più semplice, in quanto avremmo i coefficienti dell’espansione (5.3)
fattorizzabili come
c`,m (r) = f (r)c`,m
Z ∞
2
P (`, m) = |c`,m | r2 |f (r)|2 dr = |c`,m |2 (5.7)
0
2
P
(con, naturalmente: `,m |c`,m | = 1 ) dovendo essere già normalizzata la funzione d’onda sulla
parte radiale perchè ovviamente la probabilità di trovare la particella a una qualunque distanza
indipendentemente dalla posizione nell’angolo solido dovrà risultare uguale ad uno.
Nel caso di funzione d’onda con la parte radiale fattorizzabile quindi la parte radiale è com-
pletamente ininfluente e può non essere considerata per rispondere alla domanda. Notiamo che
la cosa non è diversa dal caso ad esempio di una funzione d’onda in 2 dimensioni cartesiane
fattorizzabile come:
ψ(x, y) = f (x)g(y)
e ad esempio nel rispondere alla domanda della distribuzione di probabilità in x la parte dipen-
dente da y può essere completamente ignorata.
Altra osservazione è che nel caso di funzione d’onda fattorizzabile (5.6) la probabilità si potrebbe
derivare facilmente anche scrivendo formalmente
e inserendo completezze sull’angolo solido. Solo che l’espressione appena scritta è ambigua e in
qualche modo sbagliata perchè non c’è un solo stato |`, mi ma un sottospazio per cui andrebbe
definito un proiettore coinvolgendo quindi la somma su tutti i vettori |`, mi del sottospazio,
come accennato nella parte iniziale alla presentazione del postulato sulla misura. Il fatto è che,
ripetiamo, se la dipendenza da r è fattorizzata tutto funziona utilizzando in modo un pò sportivo
il formalismo dei bra e dei ket con i proiettori e tutto quanto come visto a esempio nel caso
unidimensionale. Questo suggerisce l’ultima osservazione che riguarda proprio il formalismo
di Dirac e le manipolazioni che spesso abbiamo usato con questo formalismo. L’osservazione
è che mentre è sicuramente un formalismo molto agile e utile in molti casi, in altri, quali ad
esempio quello appena discusso, mostra dei limiti. Infatti, ad esempio ricavare il risultato di
questo paragrafo utilizzando proiettori nel formalismo di Dirac è naturalmente possibile ma
meno pratico di quanto abbiamo fatto. Ripetiamo infatti quanto detto alla fine del paragrafo
166
precedente ossia che quando scriviamo un ket deve essere tenuto ben presente quale stato in
quale spazio di Hilbert rappresenta.
Avendo tutto questo in mente, utilizziamo la (5.7) per giustificare che una funzione d’onda
dipendente solo da r rappresenta un autostato di momento angolare con ` = m = 0. Come
visto infatti l’armonica sferica con ` = 0, m = 0 è una costante, ossia non dipende dagli angoli,
e quindi si ricorda facilmente dovendo essere uguale ad uno l’integrale del suo modulo quadro
sull’angolo solido quindi:
Z
1
|Y00 |2 dΩ = |Y00 |2 · 4π = 1 −→ Y00 = √
4π
Di conseguenza:
√
ψ(r, θ, ϕ) = F (r) = F (r) 4πY00
essendo la parte angolare già normalizzata ad uno sull’angolo solido. Inoltre dovendo identificare:
X
ψ(r, θ, ϕ) = 4πF (r)Y00 = 4πF (r) c`,m Y`,m
`,m
avremo c00 = 1 e tutti gli altri nulli e quindi P (` = 0, m = 0) = 1 e tutte le altre probabilità
nulle.
Procedendo sempre nello stesso modo, salvo il fatto che quando la funzione d’onda non è fatto-
rizzabile come nella (5.6) per le probabilità va usata la (5.5), ci domandiamo quale contenuto di
momento angolare hanno funzioni d’onda lineari, quadratiche, ecc., nelle componenti del vettore
posizione ~x e lo facciamo nel caso fattorizzabile, perchè non cambia niente per i possibili valori
di `, m, nel caso fattorizzabile o meno.
Intanto sappiamo che la parità per riflessioni (quindi di uno o tutti e tre gli assi coordinati in
quanto la riflessione di due è equivalente a una rotazione attorno al terzo asse) le armoniche
sferiche hanno parità (−1)` e quindi monomi o polinomi nelle coordinate di parità pari (dispari)
contengono solo armoniche sferiche di ` pari (dispari). Si verifica anche che il grado del monomio
o polinomio corrisponde al massimo valore di `. Partiamo quindi dalle coordinate del vettore
~x
posizione che corrispondono a stati con ` = 1 come si vede decomponendo le componenti di
r
sulla base delle armoniche sferiche. In particolare x, y sono come è facile verificare mescolamenti
con uguale probabilità di stati con ` = 1 e m = ±1, mentre z con certezza fornisce ` = 1, m = 0.
Le combinazioni delle componenti del vettore posizione con corrispondenza uno a uno con le
167
x ± iy
armoniche sferiche con ` = 1 sono le “componenti sferiche” x± = √ e z.
2
Funzioni d’onda quadratiche nelle componenti e senza termini lineari descrivono stati con ` = 2
e eventualmente anche ` = 0 in particolare le cinque componenti indipendenti del tensore sferico
a traccia nulla:
~x2
Tij = xi xj − δij
3
sono in relazione con le cinque armoniche sferiche con ` = 2 (non in corrispondenza uno a uno).
I termini lineari compaiono a esempio in interazioni tipo dipolo, lineari nel vettore posizione e
quelle del tensore sferico in termini di quadrupolo.
Lasciamo per esercizio la verifica di quanto detto ed eventualmente anche lo studio di potenze
superiori nelle componenti del vettore posizione.
e quindi
−αr sin ϕ
δ~x = ~x0 − ~x '
αr cos ϕ
ovvero (rinominando x, y, z → x1 , x2 , x3 ):
168
mentre ruotando attorno all’asse x3 si ha δx3 = 0. Quindi in 3 − d:
−x2
δ~x = α x1
0
δ~x = αn̂(3) ∧ ~x
δ~x = αn̂ ∧ ~x
Vediamo che la carica di Noether conservata per una rotazione attorno l’asse ` è proprio L` . A
questo scopo consideriamo che per una rotazione intorno all’asse ` il versore avrà componente
ni = δi` e la variazione della componente xj sarà:
(`)
δ` xj = α n̂(`) ∧ ~x = αjik ni xk = αjik δi` xk = αj`k xk
j
1 ∂L
Q` = δ` xj = pj j`k xk = (~x ∧ p~)` = L`
α ∂ ẋj
e come visto per l’impulso e per l’Hamiltoniana e come abbiamo accennato nel primo capitolo
vale in generale, una carica di Noether conservata genera la relativa trasformazione e questo vale
sia classicamente che quantisticamente.
Verifichiamo quindi che anche nel caso quantistico il momento angolare L` = −i~`jk xj ∂k
genera le rotazioni attorno all’asse `:
i (`) ~
αn̂ · L i
Rα(`) =e ~ ~ + O(α2 )
= I + αn̂(`) · L
~
169
i cui elementi nella base delle coordinate sono:
i (`) ~
αn̂ · L
h~x|Rα(`) |ψi = h~x|e ~ |ψi
(`)
= ψ(~x) + αijk ni xj ∂k ψ(~x) + o(α2 )
ψ(~x) → ψR(`) (~x) = ψ ~x + δ (`) ~x
~ x) + O(α2 )
= ψ(~x) + δ (`) ~x · ∇ψ(~
170
5.2 Teoria generale del momento angolare
Ci sono altre osservabili in fisica rappresentate da operatori che obbediscono alle regole di com-
mutazione degli operatori di momento angolare orbitale. Si definiscono in generale operatori di
momento angolare Ji ; i = 1, 2, 3 quelli che soddisfano l’algebra
[Ji , Jj ] = i ijk Jk
e di conseguenza
2
J , Ji = 0
(algebra del gruppo SU (2) delle matrici speciali e unitarie con rappresentazione fondamentale
di dimensione due)
Definiamo per comodità operatori adimensionali ji = Ji /~. Vediamo che dalle regole di commu-
tazione segue che si può formalmente scrivere
~j ∧ ~j = i ~j
infatti
~j ∧ ~j = ijk jj jk
i
[jj , jk ] + {jj , jk }
= ijk
2
[jj , jk ]
= ijk
2
i
= ijk jkm jm
2
i
= (δkk δim − δik δkm ) jm
2
i
= (3δim − δim ) jm
2
= i ji (5.8)
(nel calcolo la saturazione del tensore di Levi Civita, antisimmetrico, per l’anticommutatore,
simmetrico, da risultato nullo). Come si vede il fatto che le componenti di un operatore di mo-
mento angolare non commutino tra loro fa sı̀ che il prodotto vettoriale (formale) tra il vettore
formato con le componenti degli operatori di momento angolare non dia risultato nullo, come
accade invece per i vettori con componenti numeriche.
Ciò detto, torniamo all’algebra e alla ricerca di autostati e autovalori caratterizzanti il set mas-
simale di osservabili mutuamente commutanti, che in questo caso (non consideriamo qui altri
171
operatori oltre a quelli di un momento angolare J~ ) sono J 2 e una componente che tradizional-
mente viene scelta come Jz .
Quindi, diagonalizzando simultaneamente J 2 e Jz si avranno autostati simultanei |λ, mi labellati
dai numeri quantici dei due operatori e le equazioni agli autovalori:
j 2 |λ, mi = λ|λ, mi
jz |λ, mi = m|λ, mi
j± = jx ± ijy
†
che evidentemente soddisfano j± = j∓ e le regole di commutazione:
Usiamo adesso
172
D’altra parte dovrà essere
λ − m2 − m ≥ 0
λ − m2 + m ≥ 0
e per r r
1 1 1 1
− − +λ≤m≤− + +λ
2 4 2 4
k
j+ |λ, mi ∝ |λ, m + ki
ma d’altra parte m non può crescere indefinitamente dovendo rispettare la (5.9) e quindi dovrà
esistere un valore massimo di m che chiamiamo j tale che j+ |λ, ji = 0 e in corrispondenza di
questo per quanto visto precedentemente λ − j 2 − j = 0 ovvero λ = j(j + 1). Similmente
k |λ, j̄i = 0 e questo implica
dovrà esistere un valore minimo di m che chiamiamo j̄ tale che j−
λ − j̄ 2 + j̄ = 0 ovvero λ = j̄(j̄ − 1). Uguagliando i due valori di λ trovati rispettando i limiti
massimi e minimi per m si ha quindi
j(j + 1) = j̄(j̄ − 1)
che ha soluzioni j̄ = j + 1 e j̄ = −j con la prima che va scartata perchè deve essere ovviamente
j̄ < j. Quindi la soluzione accettabile è j̄ = −j ovvero −j ≤ m ≤ j (vedere ancora la (5.9)) e
gli autovalori di j 2 sono λ = j(j + 1).
Dato che m, variando con j± a passi di una unità, assume 2j + 1 valori, che deve essere un
numero naturale, ne segue che j può assumere valore j = 0 o valori seminteri e interi ossia
j = 0, 1/2, 1, 3/2, 2, 5/2, ...
Il momento angolare orbitale, che vive nello spazio delle configurazioni, è quindi un caso
173
particolare di operatore di momento angolare nel quale il numero quantico principale j = `
assume solo valori interi. Il caso di j semintero riguarda ad esempio lo spin dell’elettrone del
quale tratteremo tra breve, ma ci sono anche altri esempi come l’isospin in fisica nucleare e
quindi non solo il momento angolare orbitale. Di qui in avanti il simbolo j sarà mantenuto solo
~ e come
per un generico momento angolare, mentre come già visto per il momento angolare L,
~ useremo appunto simboli specifici perchè sia chiaro il momento angolare
vedremo per lo spin S,
particolare che si sta esaminando.
p
j± |j, mi = j(j + 1) − m(m ± 1) |j, m ± 1i
1
hj, m0 |jx |j, mi = hj, m0 |j+ + j− |j, mi
2
1
hj, m0 |jy |j, mi = hj, m0 |j+ − j− |j, mi
2i
1 2
jx2 = 2
j+ + j+ j− + j− j+ + j−
4
174
quindi
1 1 1
hm|jx2 |mi = hm|j+ j− + j− j+ |mi = j(j + 1) − m2
4 2 2
ed eseguendo un calcolo analogo si trova lo stesso risultato per hm|jy2 |mi come d’altra parte si
poteva dedurre dall’uguaglianza:
e sfruttando il fatto che per invarainza per rotazioni attorno l’asse z sicuramente hm|jx2 |mi = hm|jy2 |mi .
Quindi in conclusione il prodotto delle incertezze (∆jx ) · (∆jy ) su autostati di jz è:
1 1
(∆jx ) · (∆jy ) = j(j + 1) − m2
2 2
ed è minimo quindi per m = j dove vale j/2 . Ricordando che stiamo usando operatori adi-
~
mensionali ~j = J/~, se confrontiamo con la formula ricavata in generale per il prodotto delle
indeterminazioni, avremmo trovato:
1 ~2
(∆Jx ) · (∆Jy ) ≥ |hm|~Jz |mi| = |m|
2 2
~2
che è compatibile con il risultato trovato prima j in quanto l’uguaglianza non è raggiungibile
2
perchè mentre hm|{Jx , Jy }|mi = 0, come si può facilmente verificare sempre usando J+ , J− , non
è soddisfatta in generale la relazione Jx |j, mi ∝ Jy |j, mi se non per |m| = j che non fornisce il
minimo nella disuguaglianza. Vale la pena anche sottolineare che il valore massimo del quadrato
di una componente come Jz2 , che ha massimo j 2 , è sempre inferiore all’autovalore di J~2 che è
j 2 + j: anche questo è legato al principio di indeterminazione sulle componenti Jx , Jy .
Vediamo adesso le matrici di Jx , Jy per j = 1. Ordinando gli stati in modo che gli indici
di riga e di colonna 1, 2, 3 siano in corrispondenza rispettivamente con gli stati |j = 1, mi =
| + 1i, |0i, | − 1i si trova ad esempio
1 1 1 p 1
(jx )12 = h+1|j+ + j− |0i = h+1|j+ |0i = h+1| 1(1 + 1) − 0(0 + 1)|0i = √
2 2 2 2
175
e anche:
0 −i 0
~
Jy = √ −i
i 0
ij 2
0 i 0
mentre ovviamente:
1 0 0 1 0 0
2 2
Jz = ~ 0 0 0 J = 2~ 0 1 0
ij ij
0 0 −1 0 0 1
Avendo le rappresentazioni esplicite per le matrici del momento angolare per j = 1, possiamo
lasciare per esercizio la ricerca degli autovettori della matrice che rappresenta un operatore di
momento angolare lungo una generica direzione n̂ = (cos ϕ sin θ, sin ϕ sin θ, cos θ) per j = 1,
ovvero della matrice:
sin θ e−iϕ
cos θ √ 0
2
sin θ eiϕ sin θ e−iϕ
J~ · n̂
= ~ √ 0 √
ij
2 2
sin θ eiϕ
0 √ − cos θ
2
che come è facile verificare e intuibile ha sempre autovalori +~, 0, −~. Verificare ad esempio che
l’autovettore relativo all’autovalore ~, ovvero che soddisfa J~ · n̂|~in̂ = ~|~in̂ è rappresentato, a
meno di un fattore di fase, dal vettore colonna:
1 + cos θ −iϕ
e
2 √
|~in̂ ↔
sin θ/ 2
1 − cos θ iϕ
e
2
Si lascia per esercizio anche la ricerca dei due autovettori relativi agli autovalori 0, −~.
5.3 Spin
Lo spin, che abbiamo di fatto già introdotto parlando dell’esperienza di Stern-Gerlach, non ha
analogo classico ed è una proprietà dell’elettrone contenuta nella teoria quando si passa a scrivere
la versione relativistica dell’equazione si Schroedinger, ovvero l’equazione di Dirac. Il “momento
angolare intrinseco” di spin, a livello della nostra trattazione, viene quindi introdotto “di forza”
176
~ ma in
nella teoria. Lo spin non vive nello spazio delle configurazioni dove sono definiti ~x, p~, L,
uno spazio diverso e lo spazio di Hilbert complessivo, quando si considera sia il momento orbitale
che di spin, è il prodotto tensoriale dei due spazi H = Ho ⊗ Hs . A rigore dovremmo quindi
~ ⊗ Is quando trattiamo il momento orbitale e Io ⊗ S
scrivere L ~ parlando dello spin, ma come già
~
preannunciato alleggeriremo il formalismo e scriveremo a esempio semplicemente S.
L’elettrone ha spin 1/2 e corrisponde alla rappresentazione non banale di dimensione minima del
momento angolare, ovvero dimensione 2, essendo la rappresentazione con j = 1/2 e jz = ±1/2.
Ricordiamo che i simboli j, jz vengono usati in generale per un generico momento angolare
mentre nello specifico saranno sostituiti da `, `z (o ancora `, m per il momento angolare orbitale
e da s, sz (o ancora s, ms ) quando si tratterà dello spin.
~
Dalla teoria generale sappiamo quindi che valgono, per S:
[Si , Sj ] = i~ ijk Sk [S 2 , Si ] = 0
Tramite le matrici S± = Sx ± iSy e la loro azione sugli stati |s, ms i con s = 1/2:
s r
1 1 3
S± |1/2, ms i = ~ + 1 − ms (ms ± 1) |1/2, ms ± 1i = ~ − ms (ms ± 1) |1/2, ms i
2 2 4
2 ~
~σ = S (5.10)
~
con, evidentemente:
0 1 0 −i 1 0
σx = σy = σz = (5.11)
1 0 i 0 0 −1
177
e anche:
1 0
σ 2 = σx2 + σy2 + σz2 = 3
0 1
A = a0 I + ~a · ~σ = a0 I + ak σk
(usiamo sempre, se non specificato altrimenti, la convenzione di sommare sugli indici ripetuti).
Sfruttando le proprietà (b) ed (e) si trova subito:
1
T r(A) = a0 T r(I) = 2a0 −→ a0 = T r(A)
2
1
T r(Aσj ) = ak T r(σk σj ) = 2aj −→ ak = T r(Aσk )
2
Sempre usando le proprietà precedenti vediamo che, dati due vettori numerici ~a, ~b, si ha:
(~σ · ~a)(~σ · ~b) = ai bj σi σj = ai bj (δij I + iijk σk ) = ~a · ~b I + i ~a ∧ ~b · ~σ (5.12)
(~σ · n̂)2 = I
che era un risultato prevedibile in quanto il quadrato delle matrici di Pauli è l’identità per
tutte le componenti come dalla proprietà (d) e quindi, data l’arbitrarietà nella scelta degli assi
178
coordinati, la proprietà deve giustamente valere per una qualsiasi direzione nello spazio.
Invece, nel caso di vettori costruiti con le componenti di un operatore che non commutano
~ (vale
tra loro si trova un risultato diverso, che vediamo con il momento angolare orbitale L
comunque [σi , Lj ] = 0 perchè come detto vivono in spazi distinti):
2
~σ · L ~2 + i L
~ = σi σj Li Lj = δij Li Lj + iijk Li Lj σk = L ~ ∧L
~ · ~σ = L
~ 2 − ~σ · L
~
5.3.2 Autovettori di ~σ · n̂
Come per la rappresentazione vettoriale j = 1, anche per quella spinoriale j = 1/2 possiamo
trovare gli autovettori lungo una direzione generica n̂. Costruiamo quindi la matrice:
cos θ sin θe−iϕ
~σ · n̂ = σx cos ϕ sin θ + σy sin ϕ sin θ + σz cos θ =
sin θeiϕ − cos θ
Si verifica subito che gli autovalori sono λ± = ±1 e scriveremo dunque l’equazione agli autovalori:
~σ · n̂ χn̂± = ± χn̂±
Lasciamo per esercizio la verifica che le soluzioni sono, a meno di un fattore di fase arbitrario:
cos(θ/2) e−iϕ sin(θ/2)
χn̂+ = χn̂− =
sin(θ/2) − cos(θ/2) eiϕ
Come casi particolari, ponendo ϕ = 0, θ = π/2 e ϕ = π/2, θ = π/2, si ottengono gli autovettori
di σx e σy rispettivamente (evidentemente sempre a meno di un fattore di fase arbitrario):
1 1 1 1
χx+ = √ χx− = √
2 1 2 −1
1 1 1 1
χy+ = √ χy− = √
2 i 2 −i
179
5.3.3 Spinori e precessione dello spin
Deriviamo adesso una formula fondamentale, che si dimostra ricordando che, come visto:
(~σ · n̂)2 = I per cui evidentemente, per m ∈ N , vale (~σ · n̂)2m = I e (~σ · n̂)2m+1 = ~σ · n̂.
Quindi si trova:
∞ ∞ ∞
(iθ)m m θ
2m θ2m+1
e i~σ · n̂ θ
X m
X X
= (~σ · n̂) = I (−1) + i~σ · n̂ (−1)m
m! (2m)! (2m + 1)!
m=0 m=0 m=0
= I cos θ + i ~σ · n̂ sin θ
Vediamo l’effetto di una rotazione ad esempio intorno all’asse z, ricordando che un operatore di
rotazione avrà in generale la forma
i~
J · n̂ θ
R(θ) = e ~
Notiamo quindi che mentre un vettore torna a se stesso dopo una rotazione di un angolo di 2π
attorno a un certo asse, un spinore cambia di segno, ovvero:
comporta che
|χR iθ=2π = −|χi
180
|e|B
con ω = . Allora l’operatore di evoluzione in rappresentazione di Schroedinger assume la
mc
forma di un operatore di rotazione nello spazio degli spinori:
i i θ
− Hint t − Sz ωt −iσz
U (t) = e ~ =e ~ =e 2
con θ = ωt. Al contrario delle fasi degli spinori che non sono misurabili, a noi interessa vedere
come cambiano i valori di osservabili. Calcoliamo quindi ad esempio, in rappresentazione di
Schroedinger, come cambia nel tempo il valor medio di una componente dello spin lungo una
direzione ortogonale al campo magnetico:
θ θ
~ iσz −iσz
hχR |Sx |χR i = hχ|e 2 σx e 2 |χi
2
~
= hχ| [I cos(θ/2) + iσz sin(θ/2)] σx [I cos(θ/2) − iσz sin(θ/2)] |χi
2
~
hχ| cos2 (θ/2)σx + sin2 (θ/2)σz σx σz + i sin(θ/2) cos(θ/2)[σz , σx ] |χi
=
2
~
hχ| [cos2 (θ/2) − sin2 (θ/2)]σx − 2sin(θ/2) cos(θ/2)σy |χi
=
2
~
= hχ| cos θ σx − sin θ σy |χi
2
= hχ|Sx |χi cos θ − hχ|Sy |χi sin θ
1 1 1
eA B e−A = B + [A, B] + [A, [A, B]] + [A, [A, [A, B]]] + .... + [A, [A, [....[A, B]]...] + ...
2! 3! n!
che può servire quando si calcola, come nell’esempio appena visto, come si modifica il valor
medio di una certa osservabile in seguito a una trasformazione sullo stato. Vediamo adesso che
nel caso appena studiato si riproduce il risultato già ottenuto:
i i
Sz θ − Sz θ iθ (iθ)2 (iθ)3
e ~ Sx e ~ = Sx + [Sz , Sx ] + [Sz , [Sz , Sx ]] + [Sz , [Sz , [Sz , Sx ]]] + .....
~ 2~2 3!~3
181
θ2 θ3
= Sx − θ Sy − Sx + Sy + ...
2 6
θ2 θ3
= Sx 1 − + ... − Sy θ − + ...
2 6
= Sx cos θ − Sy sin θ
Notiamo che a differenza degli spinori che come visto cambiano di segno dopo una rotazione di
2π, i valori medi tornano al valore iniziale.
~ vive in uno spazio di Hilbert distinto da quello del momento angolare orbitale L.
Lo spin S ~
~ ⊗ Is e Io ⊗ S
Considerandoli entrambi dovremmo quindi sempre scrivere L ~ essendo lo spazio
per alleggerire il formalismo. Facendo un passo indietro, ricordiamo che come al solito siamo
interessati ad esempio a determinare autovalori e autostati di un set massimale di operatori
corrispondenti a osservabili fisiche. Il fatto è, come vedremo, che se siamo in presenza sia di
spin che di momento orbitale, o anche più in generale di due momenti angolari distinti ~j1 , ~j2 ,
la loro composizione è ancora un operatore di momento angolare e inoltre ci sono set massimali
distinti di operatori diagonalizzabili simultaneamente e quindi anche basi distinte dello spazio
di Hilbert complessivo.
Trattiamo quindi il problema in generale considerando la somma J~ = ~j1 +~j2 , di due generici mo-
menti angolari che, vivendo in spazi diversi, soddisfano le relazioni di commutazione (utilizzando
operatori adimensionali
[j1a , j2b ] = 0
e, con i = 1, 2
[jia , jib ] = iabc jic
[ji2 , jia ] = 0
Verifichiamo che J~ è ancora un operatore di momento angolare ovvero che soddisfa le regole di
commutazione note tra le varie componenti Ja e tra le componenti e J~2 .
182
[J 2 , Ja ] = [j12 + j22 + 2~j1 · ~j2 , j1a + j2a ]
D’altra parte fissato M ci saranno più coppie m1 , m2 che forniscono la stessa somma M e quindi
ci sarà degenerazione rispetto a M . Consideriamo allora lo spazio di Hilbert generato dai vettori
183
|j1 , j2 , m1 , m2 i nel quale ci saranno (2j1 + 1)(2j2 + 1) vettori: passando alla base del momento
angolare totale |j1 , j2 , J, M i consideriamo il valore massimo possibile per Jmax (che ancora non
abbiamo determinato) e scegliamo M = Jmax . Dato che M è il valore massimo possibile per
m1 + m2 anche m1 , m2 assumeranno i valori massimi possibili, ovvero mmax
1 = j1 e mmax
2 = j2
e evidentemente Jmax = Mmax = j1 + j2 . Inoltre, a meno di un fattore di fase arbitrario:
|j1 , j2 , j1 , j2 i = |j1 , j2 , J = j1 + j2 , M = j1 + j2 i
dato che esiste un solo vettore dello spazio con queste caratteristiche e quindi i due vettori di
stato nelle due basi devono coincidere.
Mostriamo poi che J può assumere anche il valore j1 + j2 − 1. Consideriamo gli stati con
M = j1 + j2 − 1. Ci sono due ket possibili in entrambe le basi. Infatti questi sono, nella base di
j12 , j22 , j1z , j2z , |j1 , j2 , m1 = j1 −1, j2 i e |j1 , j2 , m1 , m2 = j2 −1i. Questo sottospazio ha dimensione
due anche nella seconda base j12 , j22 , J 2 , Jz dove gli stati sono |j1 , j2 , J = j1 + j2 , M = j1 + j2 − 1i
e |j1 , j2 , J = j1 + j2 − 1, M = Ji. Quindi anche j1 + j2 − 1 è un possibile valore di J.
Si può ripetere l’argomento diminuendo ogni volta di una unità il valore di J e si arriverà a un
Jmin . Per determinare il valore di Jmin imponiamo che la dimensione dello spazio in entrambe le
basi sia (2j1 + 1)(2j2 + 1) e contiamo in funzione di Jmin il numero di vettori base |j1 , j2 , J, M i.
M (M + 1)
Assumendo J intero, e usando M
P
`=1 ` = :
2
jX
1 +j2
2
e quindi dal confronto dei due membri si ottiene Jmin = (j1 − j2 )2 ovvero:
Jmin = |j1 − j2 |
Lasciamo per esercizio la dimostrazione che lo stesso risultato si ottiene per J semintero.
184
5.4.1 Coefficienti di Clebsch-Gordan
Il passaggio dalla base |j1 , j2 , m1 , m2 i alla base |j1 , j2 , J, M i e viceversa (entrambe ortonormali)
corrisponde a una trasformazione unitaria e ogni vettore in una base è quindi esprimibile come
combinazione lineare di vettori dell’altra base con i coefficienti che si chiamano di Clebsch-
Gordan.
Fissando i numeri quantici principali di j12 e j22 , sfruttiamo la completezza delle due basi per cui:
X
|j1 , j2 , J, M i = |j1 , j2 , m1 , m2 ihj1 , j2 , m1 , m2 |j1 , j2 , J, M i
m1 ,m2
X
M
≡ Cm1 ,m2
(J)|j1 , j2 , m1 , m2 i
m1 ,m2
M
con i Cm (J) = hj1 , j2 , m1 , m2 |j1 , j2 , J, M i che sono appunto i coefficienti di Clebsch-Gordan,
1 ,m2
che permettono il passaggio tra le due basi, e che sono non nulli per |j1 − j2 | ≤ J ≤ (j1 + j2 )
e M = m1 + m2 . Sfruttando il fatto che il vettore di stato è definito a meno di un fattore di
fase, i coefficienti di Clebsch-Gordan possono essere scelti reali e in particolare positivo quello
con Jmax = j1 + j2 e M = J (in questo caso c’è un solo coefficiente non nullo). I coefficienti si
costruiscono proprio a partire dallo stato con J = j1 + j2 e M = J utilizzando poi gli operatori
J− = j1− + j2− .
Come applicazione vediamo la più semplice, ovvero la somma di due momenti angolari con
j1 = j2 = 1/2 per cui m1 , m2 = ±1/2 ≡ ±. Quindi per J~ = j~1 + j~2 avremo 0 ≤ J ≤ 1.
Si parte dallo stato con Jmax e Mmax ovvero dallo stato con J = M = 1 e per alleggerire il
formalismo si danno per sottintesi i valori j1 = j2 = 1/2 negli stati, omettendo di scriverli.
Quindi, la notazione per indicare gli stati sarà nelle due basi |J, M i e |m1 , m2 i. Si avrà quindi:
|J, M i = |m1 , m2 i
|1, 1i = |+, +i
185
ovvero il secondo stato del tripletto di stati con J = 1 è:
|+, −i + |−, +i
|1, 0i = √
2
e agendo nuovamente a sinistra e a destra di questo stato con J− = j1− + j2− si trova:
|+, −i + |−, +i
J− |1, 0i = (j1− + j2− ) √
2
√ |+, −i |−, +i |−, −i + |−, −i
2|1, −1i = j1− √ + j2− √ = √
2 2 2
ovvero:
|1, −1i = |−, −i
Notiamo che tutti gli stati del tripletto sono simmetrici nello scambio m1 ↔ m2 , questa è una
caratteristica generale, ovvero che gli stati internamente a un multipletto ottenuto sommando
due momenti angolari abbiano la proprietà di essere simmetrici o antisimmetrici rispetto allo
scambio m1 ↔ m2 e se un multipletto ha una certa parità rispetto allo scambio i due multipletti
adiacenti hanno la parità opposta. Vediamo adesso che il singoletto, ovvero l’unico stato con
J = 0, M = 0 è in effetti antisimmetrico. Per determinare il legame di questo stato con gli
stati nella base |m1 , m2 i teniamo presente che M = m1 + m2 e quindi 0 = m1 + m2 che implica
che sono coinvolti solo gli stati |+, −i e |−, +i. Quindi lo stato di singoletto |1, 0i sarà una
combinazione lineare di questi due stati ovvero:
e la condizione di normalizzazione:
|+, −i − |−, +i
|0, 0i = √
2
186
che come vediamo appunto è antisimmetrico rispetto allo scambio m1 ↔ m2 . Concludendo, per
la composizione di due momenti angolari con j1 = j2 = 1/2 si ha uno spazio di dimensione
(2j1 +) · (2j2 + 1) = 2 · 2 = 4 dato dal prodotto tensoriale di due spazi di dimensione 2, che si
decompone nella somma diretta di due spazi con J = 0 di dimensione 1 e uno con J = 1 di
dimensione 3. Si trova scritto in linguaggio di teoria dei gruppi che il prodotto di rappresentazioni
viene decomposto nella somma diretta di rappresentazioni in questo caso specificamente:
2 ⊗ 2 = 1 ⊕ 3. Ovviamente il numero di stati (la dimensione dello spazio) è 4 in entrambe le
basi, e li riassumiamo, dando sempre per scontato che in entrambe le basi gli stati sono anche
caratterizzati dai due numeri quantici di j12 e j22 :
|m1 , m2 i |J, M i
con il legame tra gli stati nella base |J, M i e quelli nella base |m1 , m2 i visto precedentemente
che naturalmente può essere invertito scrivendo quelli della base |m1 , m2 i in termini di quelli
nella base |J, M i.
I coefficienti di Clebsch-Gordan si trovano tabulati, ma si consiglia di calcolarli esplicitamente
almeno in un altro paio di esempi come la composizione di j1 = 1 e j2 = 1/2 e anche j1 = 1 e
j2 = 1.
187
Capitolo 6
p2
H= + V (r); r = |x| = |r| (6.1)
2m
Classicamente:
L=x×p
per cui:
= xj pk xj pk − xj pk xk pj = x2 p2 − (x · p)2
= r2 p2 − (r · p)2
p·r
Definendo pr = p · r̂ = classicamente si trova quindi la relazione:
r
L2
p2 = p2r + (6.2)
r2
p2r L2 p2r
H= + + V (r) = + Vef f (r) (6.3)
2m 2mr2 2m
con Vef f (r) = V (r) + L2 /2mr2 che è il potenziale efficace dato dalla somma del potenziale
centrale V (r) più il termine di ”potenziale centrifugo” L2 /2mr2 .
Quantisticamente, si giunge alla stessa espressione per l’Hamiltoniana in eq.(6.3), ma con un
188
calcolo più lungo, complicato dal fatto che [xi , pj ] = i~δij .
Ricordiamo intanto che
[Li , xj ] = i~ijk xk
[Li , pj ] = i~ijk pk
che implicano:
[Li , r2 ] = 0
[Li , p2 ] = 0
[Li , H] = 0
che ha la proprietà
[r, pr ] = i~
Notiamo che [r, pr + f (r)] = [r, pr ]. Nel nostro caso il termine aggiuntivo 1/r serve per l’her-
mitianità di pr . Infatti ciò che cambia rispetto a coordinate cartesiane è che il supporto di r
è (0, +∞) e non (−∞, +∞). Vediamo meglio: l’hermitianità implica che hpr ψ|ψi = hψ|pr ψi
ovvero:
Z ∞ Z ∞
2 ∂ 1 ∗ 2 ∗ ∂ 1
dr r i~ + ψ ψ= dr r ψ (−i~) + ψ
0 ∂r r 0 ∂r r
ossia:
Z ∞ Z ∞ 2
2 d|ψ|
2 2 ∗0 2 2 ∗ 0 2
i~ dr r|ψ| + r ψ ψ + r|ψ| + r ψ ψ = i~ dr r + 2r|ψ| =0
0 0 dr
e in definitiva
Z ∞ ∞
d 2 2
i~ r |ψ| dr = i~r2 |ψ|2 = 0
0 dr 0
Quindi per l’hermitianità è necessario che limr→0 r|ψ(r)| = 0 e limr→+∞ r|ψ(r)| = 0 (sottoli-
neiamo ancora la necessità del termine 1/r nella definizione di pr ).
189
Riprendiamo adesso il calcolo di L2 e come nel caso classico possiamo scrivere:
= xj pk xj pk − xj pk xk pj
solo che adesso va tenuto in conto del fatto che posizione e impulso non commutano e quindi
riprendendo dall’ultimo passaggio:
= r2 p2 + 2i~ r · p − (r · p)2 − i~ r · p
= r2 p2 − (r · p)2 + i~ r · p
Notiamo che:
∂ ∂xi ∂ xi ∂
= =
∂r ∂r ∂xi r ∂xi
da cui:
∂ ∂
r = xi
∂r ∂xi
quindi
∂ ∂ ∂ ∂ ∂
r · p = −i~ x +y +z = −i~ xi = −i~ r
∂x ∂y ∂z ∂xi ∂r
Ma
∂ 1 ∂
rpr = −i~ r + = −i~ r − i~ = r · p − i~
∂r r ∂r
ossia
r · p = rpr + i~
Quindi
L2 = r2 p2 − (r · p)2 + i~ r · p
= r2 p2 − r · p (r · p − i~)
= r2 p2 − r2 p2r
190
e quindi come nel caso classico:
L2
p2 = p2r +
r2
p2r L2
H= + + V (r)
2m 2mr2
con
1 ∂ 1 ∂ ~2 ∂ 2
p2r = −~2 r r=− r
r ∂r r ∂r r ∂r2
Dato che L2 è un operatore differenziale funzione degli angoli e non della coordinata radiale, la
soluzione dell’equazione agli autovalori Hψ = Eψ si fattorizza nella forma:
e quindi una volta fattorizzate le armoniche sferiche si cerca di trovare la soluzione, data la
forma esplicita del potenziale, per la funzione radiale, ovvero di risolvere l’equazione:
p2r ~2 `(` + 1)
+ + V (r) − E R`E (r) = 0
2m 2mr2
~2 ∂ 2 ~2 `(` + 1)
− rRE (r) + + V (r) − E R`E (r) = 0
2mr ∂r2 ` 2mr2
ovvero:
0
2R`E (r)
00 E 2m `(` + 1)
R` (r) + + ((E − V (r)) − R`E (r) = 0
r ~2 r2
Date le condizioni per l’hermitianità di pr discusse in precedenza coinvolgono il prodotto rR`E (r),
conviene chiamare questa combinazione “funzione radiale ridotta” χE E
` (r) = rR` (r) in termini
~2 00 E
2
~ `(` + 1)
− χ (r) + + V (r) − E χE
` (r) = 0
2m ` 2mr2
191
Caratteristica importante e generale delle soluzioni, sarà la degenerazione 2` + 1 dovuta al fatto
che in H compare solo L2 e non Lz nè altre componenti di L. Quindi stati con diverso valore del
numero quantico m con −` ≤ m ≤ ` avranno la stessa energia. Tuttavia in certi casi, come per
l’atomo di idrogeno, la degenerazione può essere superiore (ad esempio per il potenziale Cou-
lombiano gli autovalori dell’energia non dipendono dal numero quantico `) a causa di simmetrie
ulteriori (degenerazione accidentale).
192
Capitolo 7
H = H0 + H1 (t) (7.1)
e dove H0 è un’ l’Hamiltoniana ”imperturbata”, indipendente dal tempo, che si riferisce al siste-
ma in esame, e H1 (t) è una perturbazione dipendente dal tempo che descrive l’interazione tra il
sistema e tipicamente un campo esterno, come a esempio un campo elettromagnetico variabile
nel tempo.
Chiaramente perchè l’approccio perturbativo sia consistente la perturbazione H1 (t) deve essere
”piccola” rispetto ad H0 .
L’energia del sistema in esame quindi non si conserva essendo in presenza di una interazione e
quindi di scambio di energia con qualcosa di esterno al sistema. Questo ripetiamo dipende dal
fatto che ci si concentra su un sistema chiuso, ma non isolato.
L’interazione induce in generale dei cambiamenti dello stato del sistema nel tempo rispetto a una
configurazione iniziale assegnata. In quanto segue quindi il risultato principale è la derivazione,
193
in un approccio perturbativo, della probabilità di transizione tra uno stato e un altro in funzione
del tempo.
Il tema sarebbe molto ampio ma per ragioni di spazio ci limiteremo a studiare questa situazione
e il modo più diretto di trattare il problema sarebbe sicuramente partire della rappresentazione
di interazione. Tuttavia, prima di presentare questa nuova rappresentazione nella sezione suc-
cessiva, mostriamo una derivazione più rapida, utilizzata in molti testi tradizionali e che parte
dall’equazione di Schroedinger temporale:
∂|ψi
i~ = H|ψi
∂t
Il metodo consiste nello scrivere la soluzione come combinazione lineare degli autostati di H0
nella forma:
i
X − En t
|ψ(t)i = an (t)e ~ |un i
n
dove appunto |un i è una base completa di autostati di H0 . La forma è giustificata dal fatto che nel
caso di H1 (t) → 0 questa espressione, con coefficienti an costanti nel tempo, sarebbe la soluzione
esatta. Quindi, detto in altro modo, l’effetto della perturbazione viene inserita nei coefficienti
an che supponiamo siano sviluppabili, attorno alla soluzione imperturbata, in serie di potenze
di H1 (t) (vedremo più avanti che questa assunzione “nasconde” di fatto la rappresentazione di
interazione). Sostituendo l’espansione nell’equazione di Schroedinger si ottiene:
i i
∂|ψ(t)i X − En t X − En t
i~ = e ~ [i~ ȧn (t) + En an (t)] |un i = [H0 + H1 (t)] an (t)e ~ |un i
∂t n n
Ricordando che H0 |un i = En |un i si vede che l’equazione precedente si semplifica e rimane:
i i
X − En t X − En t
i~ e ~ ȧn (t)|un i = an (t)H1 (t)e ~ |un i
n n
Proiettando l’equazione precedente su hum | si ottiene, sfruttando l’ortogonalità tra gli autostati
di H0 :
1 X
ȧm (t) = an (t) hum |H1 (t)|un i ei (ωm − ωn ) t
i~ n
con ωi = Ei /~.
Si ha quindi un sistema di equazioni differenziali nelle incognite am (t) la cui integrazione fornisce
la soluzione per |ψ(t)i. Il metodo perturbativo consiste (reintroducendo un parametro 0 ≤ λ ≤ 1
da porre poi ad uno alla fine del procedimento) nel risolvere il problema per approssimazioni
194
successive in potenze di H1 (t) (di λ), fino a un dato ordine. Scriviamo quindi:
∞
X
am (t) = λr a(r)
m (t) con am (t0 ) = a(0)
m
r=0
poichè si suppone che la perturbazione inizi a un tempo t0 (si suppone anche in generale che si
spenga adiabaticamente a un tempo successivo t1 con questi tempi che possono eventualmente
tendere a ±∞).
Notiamo che a un ordine r si avrà:
1 X (r−1)
ȧ(r)
m (t) = a (t) hum |H1 (t)|un i ei (ωm − ωn ) t
i~ n n
in quanto nel termine a destra è presente l’Hamiltoniana di interazione che è di ordine uno.
Vediamo quindi come si ricava il risultato al primo ordine, al quale ci fermeremo. Partiamo
dall’ordine zero dove si ha semplicemente
ȧ(0)
m =0
(0)
che ha come risultato am = cost = am (t0 ), ovvero il coefficiente al tempo nel quale comincia la
perturbazione. Se supponiamo che a questo tempo il sistema si trovi in un particolare autostato
(0)
di H0 , , |ui i, allora am = δmi . Inserendo questa ipotesi nell’espressione al primo ordine si trova:
1 X (0)
ȧ(1)
m (t) = a (t) hum |H1 (t)|un i ei (ωm − ωn ) t
i~ n n
1 X
= δni hum |H1 (t)|un i ei (ωm − ωn ) t
i~ n
1
= hum |H1 (t)|ui i ei (ωm − ωi ) t
i~
e quindi integrando si trova la soluzione che in generale si usa scrivere con t0 = −∞:
Z t 0
1
a(1)
m (t) = ei (ωm − ωi ) t hum |H1 (t0 )|ui i dt0
i~ −∞
Quindi la probabilità di transizione tra uno stato iniziale nel quale si suppone si trovi il sistema
prima dell’inizio della perturbazione e uno stato finale assegnato, in funzione del tempo è, al
primo ordine perturbativo:
(1)
Pf i (t) = |af i (t)|2
195
che dovrà essere Pf i (t) 1 per la validità dell’approccio perturbativo.
Osserviamo anche che in generale l’Hamiltoniana di perturbazione avrà la forma H1 (t) = Ĥ1 ·f (t)
e quindi saranno possibili transizioni verso stati “collegati” dalla perturbazione, ovvero per i
quali l’elemento di matrice hf |Ĥ1 |ii =
6 0, mentre andrà anche eseguita l’integrazione temporale
0
Rt iωf i t f (t0 )dt0 , con ω = (E − E )/~ e notiamo che per t → ∞ questa espressione è in
−∞ e fi f i
i
|ψI (t)i = e ~ H0 t |ψs (t)i
196
i i
OI (t) = e ~ H0 t Os (t) e− ~ H0 t :
d i i i
OI (t) = H0 OI (t) − OI (t)H0 = [H0 , OI (t)]
dt ~ ~ ~
Z t
i
|ψI (t)i = |ψI (−∞)i − HiI (t1 )|ψI (t1 )i dt1
~ −∞
dove |ψI (−∞)i è uno stato assegnato, generalmente autostato di H0 e comunque a un tempo
nel quale Hi è supposta nulla.
L’espressione in forma integrale per |ψI (t)i ha il vantaggio di poter essere iterata, fornendo in tal
modo la soluzione in termini di uno sviluppo perturbativo in quanto ad ogni iterazione compare
una potenza crescente di HiI (t). Ad esempio, al secondo ordine si ottiene:
t
i t1
Z Z
i
|ψI (t)i = |ψI (−∞)i − |ψI (−∞)i − dt1 HiI (t1 )
I
dt2 Hi (t2 )|ψI (t2 )i
~ −∞ ~ −∞
2 Z t
i t
Z t1
−i
Z
I
= |ψI (−∞)i − dt1 Hi (t1 )|ψI (−∞)i + dt1 dt2 HiI (t1 )HiI (t2 )|ψI (t2 )i
~ −∞ ~ −∞ −∞
Sottolineiamo che in generale HiI (t) non commuta a tempi diversi per cui l’ordine temporale
dei vari termini è importante e si hanno tempi decrescenti da sinistra verso destra. Iterando, il
termine n-esimo della somma conterrà:
n Z t t1 tn−1
−i
Z Z
dt1 dt2 ... dtn HiI (t1 )HiI (t2 )...HiI (tn )
~ −∞ −∞ −∞
T HiI (t1 )HiI (t2 ) = θ(t1 − t2 ) HiI (t1 )HiI (t2 ) + θ(t2 − t1 )HiI (t2 )HiI (t1 )
che si generalizza al caso di più termini nel prodotto e per il quale si può dimostrare che vale:
Z t Z t1 Z tn−1
dt1 dt2 ... dtn HiI (t1 )HiI (t2 )...HiI (tn )
−∞ −∞ −∞
Z t Z t Z t
1
dtn T HiI (t1 )HiI (t2 )...HiI (tn )
= dt1 dt2 ...
n! −∞ −∞ −∞
197
per cui in definitiva si può scrivere:
∞
!
−i n 1 t
X Z Z t Z t
I I I
|ψI (t)i = 1+ dt1 dt2 ... dtn T Hi (t1 )Hi (t2 )...Hi (tn ) |ψI (−∞)i
~ n! −∞ −∞ −∞
n=1
i t
Z
I
−~ dτ Hi (τ )
≡ T
e −∞ |ψI (−∞)i
Lo sviluppo ottenuto (serie di Dyson) contiene quindi tutti gli ordini perturbativi in potenze
di HiI e fornisce l’espressione per l’operatore di evoluzione in rappresentazione di interazione.
Tuttavia a noi per ora interessa soltanto ritrovare l’ampiezza di transizione al primo ordine
perturbativo tra autostati di H0 . A questo scopo assumiamo (senza addentrarci in dettagli
formali) che lo stato assegnato a t = −∞ sia di fatto uno stato iniziale |φi i assegnato, a un
tempo iniziale assegnato (formalmente possiamo lasciare t = −∞ o rinominarlo ti ), e che sia
autostato di H0 con autovalore Ei . Per ottenere l’ampiezza di transizione a un tempo generico t
verso uno stato finale |φf i, anch’esso autostato di H0 con autovalore Ef , basta quindi proiettare
i primi due termini dello sviluppo di |ψI (t)i su |φf i, ovvero:
Z t
i
hφf |ψI (t)i = hφf |φi i − hφf |HiI (τ )|φi i dτ + ....
~ −∞
Z t
i i i
= δf i − hφf |e ~ H0 τ Hi (τ )e− ~ H0 τ |φi i dτ + ....
~ −∞
Z t
i
= δf i − ei(ωf − ωi )τ hφf |Hi (τ )|φi i dτ + ....
~ −∞
(0) (1)
= af i (t) + af i (t) + ...
dove abbiamo tenuto conto del fatto che al primo ordine non c’è ordinamento temporale e abbia-
mo riutilizzato il passaggio tra l’Hamiltoniana di interazione in rappresentazione di Schroedinger
e di interazione.
Si ritrova cosı̀ la formula al primo ordine per l’ampiezza di transizione ottenuta in precedenza
con l’altra derivazione. A questo proposito, se sono assegnati gli autostati di H0 (supposta con
spettro discreto) H0 |un i = En |un i e si introduce la rappresentazione di interazione come:
i
− H0 t
|ψs (t)i = e ~ |ψI (t)i
i
X − H0 t
= |un ihun |e ~ |ψI (t)i
n
198
e−iωn t an (t) |un i
X
= (7.2)
n
si ritrova l’espansione utilizzata in molti testi per introdurre la teoria delle perturbazioni dipen-
dente dal tempo. Tuttavia spesso non viene detto esplicitamente che le ampiezze an (t) sono
appunto la proiezione dello stato |ψI (t)i su autostati di H0 , ovvero che la scrittura dello stato
in rappresentazione di Schroedinger nell’ultima linea di eq.(7.2) equivale di fatto a utilizzare la
rappresentazione di interazione per le ampiezze an (t).
L’ampiezza al primo ordine tra uno stato iniziale |ii e uno stato finale |f i risulta essere:
Z t 0
1
hf |H1 |ii ei(ωf i − ω)t dt0 + c.c.
h i
(1)
af i (t) =
i~ 0
ei(ωf i − ω)t − 1
" #
1
= hf |H1 |ii + c.c.
i~ i(ωf i − ω)
Prendendo il modulo quadro della precedente espressione si capisce dal denominatore che sarà
dominante il termine per il quale ωf i ' ±ω e se prendiamo ad esempio il caso ωf i ' ω vediamo
che questo implica
Ef ' Ei + ~ω
ovvero si descrive l’assorbimento di energia del sistema dal campo esterno che induce una tran-
sizione verso uno stato di energia più alta (assorbimento stimolato), mentre nel caso opposto
ωf i + ω ' 0 si ha Ef ' Ei − ~ω ovvero emissione stimolata con diseccitazione del sistema che
subisce quindi una transizione verso uno stato di energia minore. Nel caso di assorbimento ad
esempio, sarà quindi sufficiente considerare solo il modulo quadro del primo termine scritto in
precedenza ossia:
(ωf i − ω)t
2
sin
(1) 4 2
Pf i (t) = |af i (t)|2 = 2 |hf |H1 |ii|2 (7.3)
~ (ωf i − ω)2
199
che mostra un picco alla risonanza ωf i = ω che all’aumentare di t diventa sempre più pronunciato
e in particolare (è una δ-successione che abbiamo già incontrato) per t → ∞ si comporta come:
4 π
Pi→f −→t→∞ 2
|hf |H1 |ii|2 δ(ωf i − ω) · t
~ 2
2π
= |hf |H1 |ii|2 δ (Ef − Ei − ~ω) · t
~
Pf i 2π
wf i = = |hf |H1 |ii|2 δ (Ef − Ei − ~ω)
t ~
che in generale entrerà in determinate grandezze fisiche “sommando” (integrando) sui possibili
stati finali e quindi selezionando appunto stati con energia vincolata dalla conservazione dell’e-
nergia tra sistema e campo esterno.
È interessante considerare il caso di una perturbazione costante agente per un tempo finito t
come limite del caso precedente ponendo ω = 0. Riprendendo l’espressione in eq.(7.3) e ponendo
ω = 0 si ottiene:
2 ωf i t
sin
(1) 4 2
Pf i (t) = |af i (t)|2 = |hf |H1 |ii|2
~2 ωf2i
ovvero
∆E · ∆t ∼ h
e la perturbazione costante può essere quindi anche considerata per descrivere un processo di
misura per un tempo t dell’energia del sistema. Si vede quindi che idealmente la misura dovrebbe
durare un tempo infinito per fornire il risultato esatto Ei .
Ci sarebbero molti approfondimenti ovviamente e resta ad esempio fuori il caso di perturbazione
dipendente dal tempo “lenta” detta adiabatica, spesso trascurata in molti testi ma di grande
interesse. Come detto all’inizio di questi appunti, queste sono note introduttive che non hanno
pretesa di essere esaurienti sugli argomenti presentati.
200
Bibliografia
201