fondamenti e concetti della fisica...

153
Fondamenti e Concetti della Fisica Contemporanea Roberto Casalbuoni Dipartimento di Fisica, Universit` a di Firenze Sezione INFN, Firenze Istituto di Fisica Teorica Galileo Galilei, Arcetri, Firenze Appunti delle lezioni tenute all’Universita’ di Firenze nell’a.a. 2013/2014 nell’ambito della Laurea Magistrale in Logica, Filosofia e Storia della Scienza.

Upload: vunhi

Post on 29-Aug-2018

228 views

Category:

Documents


2 download

TRANSCRIPT

Fondamenti e Concetti della FisicaContemporanea

Roberto CasalbuoniDipartimento di Fisica, Universita di Firenze

Sezione INFN, Firenze

Istituto di Fisica Teorica Galileo Galilei, Arcetri, Firenze

Appunti delle lezioni tenute all’Universita’ di Firenze nell’a.a. 2013/2014nell’ambito della

Laurea Magistrale in Logica, Filosofia e Storia della Scienza.

Indice

Indice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1

1 Spazio delle fasi in meccanica classica e meccanica quantistica 21.1 Spazio delle fasi classico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21.2 Lo spazio delle fasi in meccanica quantistica . . . . . . . . . . . . . . . . . . 3

1.2.1 Spazi vettoriali . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51.2.2 Spazi vettoriali con prodotto interno . . . . . . . . . . . . . . . . . . 71.2.3 La notazione di Dirac . . . . . . . . . . . . . . . . . . . . . . . . . . 9

1.3 Variabili dinamiche in Meccanica Quantistica . . . . . . . . . . . . . . . . . 111.3.1 Operatori lineari su uno spazio vettoriale . . . . . . . . . . . . . . . 131.3.2 Il problema agli autovalori e equazione caratteristica . . . . . . . . . 191.3.3 Funzioni di un operatore . . . . . . . . . . . . . . . . . . . . . . . . . 22

1.4 Applicazione allo spin dell’elettrone . . . . . . . . . . . . . . . . . . . . . . . 221.5 Spazi vettoriali infinito-dimensionali . . . . . . . . . . . . . . . . . . . . . . 28

1.5.1 Operatori in dimensioni infinite . . . . . . . . . . . . . . . . . . . . . 33

2 I postulati della meccanica quantistica 382.1 Il collasso del vettore di stato . . . . . . . . . . . . . . . . . . . . . . . . . . 452.2 Come si verifica la teoria quantistica . . . . . . . . . . . . . . . . . . . . . . 462.3 Valori medi (o di aspettazione) . . . . . . . . . . . . . . . . . . . . . . . . . 472.4 Variabili compatibili e incompatibili . . . . . . . . . . . . . . . . . . . . . . 52

3 Sistemi con piu’ gradi di liberta’ 573.1 Generalizzazione dei postulati a sistemi con piu gradi di liberta . . . . . . . 573.2 Prodotto tensoriale di spazi . . . . . . . . . . . . . . . . . . . . . . . . . . . 583.3 Particelle identiche . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62

3.3.1 Il caso classico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 623.3.2 Il caso di due particelle identiche. Stati simmetrici ed antisimmetrici 633.3.3 Quando si puo ignorare la simmetrizzazione o l’antisimmetrizzazione

della funzione d’onda? . . . . . . . . . . . . . . . . . . . . . . . . . . 65

4 L’equazione di Schrodinger 674.1 Soluzione dell’equazione di Schrodinger . . . . . . . . . . . . . . . . . . . . . 67

4.1.1 Scrittura dell’equazione di Schrodinger . . . . . . . . . . . . . . . . . 674.1.2 Studio generale della soluzione . . . . . . . . . . . . . . . . . . . . . 674.1.3 L’equazione di Schrodinger per una particella libera . . . . . . . . . 70

4.2 Equazione di Schrodinger per due particelle . . . . . . . . . . . . . . . . . . 71

1

4.3 Piu particelle in piu dimensioni . . . . . . . . . . . . . . . . . . . . . . . . . 73

5 Principio di indeterminazione e limite classico 745.1 Principio di indeterminazione . . . . . . . . . . . . . . . . . . . . . . . . . . 745.2 Teorema di Ehrenfest e limite classico . . . . . . . . . . . . . . . . . . . . . 755.3 La rappresentazione di Heisenberg . . . . . . . . . . . . . . . . . . . . . . . 79

6 Oscillatore armonico 816.1 Oscillatore classico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 816.2 Oscillatore quantistico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83

7 Momento angolare e spin 867.1 Il momento angolare . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 867.2 Lo spin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 877.3 Addizione di momenti angolari . . . . . . . . . . . . . . . . . . . . . . . . . 91

8 Stati entangled 938.1 Stati a due particelle di spin 1/2 . . . . . . . . . . . . . . . . . . . . . . . . 948.2 Matrice densita’ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 968.3 Entropia e entanglement . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1008.4 Matrice densita’ ridotta e misura dell’entanglement . . . . . . . . . . . . . . 1038.5 L’esperimento della doppia fenditura e stati entangled . . . . . . . . . . . . 108

9 La critica EPR 1139.1 EPR riformulato da Bohm e Aharanov . . . . . . . . . . . . . . . . . . . . . 1169.2 Le teorie di variabili nascoste e la disuguaglianza di Bell . . . . . . . . . . . 1219.3 Localita . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 125

10 La misura in Meccanica Quantistica 12810.1 Sistema e apparato di misura . . . . . . . . . . . . . . . . . . . . . . . . . . 13210.2 Misura e sovrapposizione degli stati macroscopici. Il gatto di Schrodinger . 13710.3 La decoerenza . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14210.4 Altre interpretazioni . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 148

11 Conclusioni 150

1

Capitolo 1

Spazio delle fasi in meccanicaclassica e meccanica quantistica

1.1 Spazio delle fasi classico

Gli stati o le configurazioni di un sistema classico sono descritti da punti nello spazio delle

fasi. Questo concetto e’ molto generale. Nel caso piu’ semplice della meccanica classica

(un punto che si muova lungo una retta) , lo spazio delle fasi e’ un piano nelle variabili di

posizione q e di impulso p. I moti possibili del punto corrispondono a fasci di traiettorie

non intersecanti. Infatti, date le equazioni di Hamilton, del primo ordine nelle derivate

temporali, per ogni punto passa una ed una sola traiettoria fisica. Questa idea si puo’

generalizzare ad un insieme generico di punti (anche discreto). E la meccanica classica

puo’ essere caratterizzata dai seguenti elementi:

• Un insieme di punti, ognuno dei quali corrisponde ad un determinato stato fisico,

cioe’ lo spazio delle fasi, M .

• Le osservabili classiche, cioe’ funzioni reali definite su M .

Le operazioni che si possono fare su un insieme di punti sono quelle classiche dell’algebra

booleana, unione e intersezione di sottoinsiemi. Per esempio si puo’ considerare l’unione

di tutte i punti (configurazioni) che soddisfano le proprieta A o B, ecc. L’esempio classico

piu’ semplice e’ il sistema con uno spazio delle fasi costituito da due punti. Fisicamente

questo puo’ corrispondere alle due facce di una moneta. In questo caso i due punti si

possono caratterizzare con i due simboli T e C (testa e croce rispettivamente), oppure con

0 e 1. In questo caso si parla di un bit classico. I bit classici hanno grande importanza

perche’ possono essere messi in corrispondenza con i simboli fondamentali della numera-

zione binaria e, quindi, ogni numero puo’ essere rappresentato da una successione di 0 e

1. Per esempio:

910 = 1× 23 + 0× 22 + 0× 21 + 1× 20 = 10012. (1.1)

E’ su questa corrispondenza che si basano i moderni calcolatori digitali in cui, appunto,

tutte le informazioni vengono digitalizzate in termini di 0 ed 1. Notiamo anche con N

2

copie di coppie 0 e 1 si possono formare 2N stati diversi. Detto in altri termini, con N

monete si possono ottenere una successione di 2N simboli 0 ed 1.

Dunque il sistema logico che sta alla base della meccanica classica e’ quello degli

insiemi con le conseguenti operazioni associate. Come vedremo la situazione e’ molto

diversa in meccanica quantistica, dove lo spazio delle configurazioni e’ costituito da uno

spazio vettoriale. Dunque gli stati, o i punti di questo spazio, sono vettori e come tali

possono essere combinati lineramente. Questa operazione, che e’ possibile in uno spazio

vettoriale, non ha senso su un insieme, corrispondentemente la struttura logica risulta

totalmente diversa.

T C

Figura 1.1: Un sistema a due stati classico. Le due facce di una moneta, T e C.

Per esempio, un sistema a due stati classico (vedi Fig. 1.1) corrisponde, in meccanica

quantistica a uno spazio vettoriale complesso (daremo le opportune definizioni generali in

seguito), in cui i vettori si possono scrivere come combinazioni di due vettori fondamentali

|0〉 e |1〉|ψ〉 = α|0〉+ β|1〉 (1.2)

con α e β numeri complessi. Dunque, mentre lo spazio delle fasi classico di questo esempio

e’ costituito da due punti, nel caso quantistico lo stato generico dipende da una doppia

continuita’ di parametri. Cioe’ tornando all’esempio del lancio di una moneta e’ come se

stessimo considerando una situazione in cui dopo il lancio la moneta non e ne’ testa ne’

croce.

1.2 Lo spazio delle fasi in meccanica quantistica

Abbiamo visto che l’esperimento di Stern e Gerlach mette in luce il fatto che l’elettrone

possiede un momento angolare intrinseco che assume due soli valori ±h//2 in qualunque

direzione si misuri questa osservabile. Il momento angolare intrinseco prende anche il

nome di spin.

In questo esperimento e’ possibile preparare lo stato di spin, per esempio orientando

l’apparato in una certa direzione e selezionando solo il fascio di elettroni parallelo alla dire-

zione del campo magnetico e bloccando l’altro fascio. Questo tipo di procedura si chiama

preparazione del sistema. Lo stesso apparato puo’ essere usato per la rivelazione. Per

esempio se mettiamo due Stern e Gerlach orientati nello stesso modo (sempre bloccando

il fascio che esce dal primo apparato con direzione opposta al campo), il secondo apparato

3

ci serve per rivelare che effettivamente gli elettroni hanno spin lungo il campo. Piu’ in

generale, se il secondo Stern e Gerlach e’ orientato diversamente dal primo, ci puo’ servire

per determinare quanti elettroni passano orientati lungo la sua direzione positiva e quanti

lungo la direzione negativa.

Nella discussione che segue faremo uso di un apparato di rivelazione e di preparazione

diverso da uno Stern e Gerlach convenzionale ma del tutto equivalente. L’apparato e’

illustrato in Fig. 1.2. L’elettrone e’ posto in un campo magnetico abbastanza intenso.

xxxxxxxxxxxxxxxxxx

xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx

Bxxxxx

θ

Figura 1.2: Rappresentazione classica di un elettrone in un campo magnetico cheforma un angolo θ con lo spin.

Dopo qualche tempo lo spin, ~S, dell’elettrone si allinea con il campo ~B. Questa fase

corrisponde alla preparazione dello stato. Se vogliamo usare l’apparato come rivelatore,

sfruttiamo il seguente meccanismo. Come abbiamo detto se lo spin ed il campo non sono

paralleli, dopo un certo tempo lo spin si allinea ma, cosi facendo, emette una radiazione

elettromagnetica con intensita’ che dipende dall’angolo θ tra i due vettori. Se lo spin e’

allineato, θ = 0, non c’e’ irradiazione. Quanto sopra e’ quanto prevede la teoria classica.

Quantisticamente invece si hanno solo due possibilita’:

1. L’elettrone non emette fotoni se lo spin e’ allineato con ~B.

2. L’elettrone emette un fotone di energia pari alla differenza di energia tra gli stati di

spin parallelo ed antiparallelo a ~B.

Ne consegue, nei due casi, che

1. L’elettrone aveva ~S parallelo a ~B

2. L’elettrone aveva ~S antiparallelo a ~B.

Come si vede il risultato e’ esattamente analogo a quanto si aveva per Stern e Gerlach, lo

spin puo’ essere solo parallelo od antiparallelo al campo magnetico. Non ci sono situazioni

intermedie. Comunque si sia preparato lo stato, per esempio con ~S perpendicolari a ~B,

4

quando riveliamo lo stato troviamo solo i due stati parallelo ed antiparallelo. Questo

e’ vero comunque si sia preparato lo stato di spin. Quindi lo spin puo’ esere orientato

lungo qualunque direzione (dipendente da come lo abbiamo preparato), ma alla fine si

hanno solo due risultati possibili. Questo e’ il classico esempio di un bit quantistico o

q-bit. I possibili risultati della misura sono solo due, ma lo stato dipende dalla direzione

arbitraria lungo la quale e’ stato preparato. Il bit classico dipende invece solo dai due

possibili risultati. Nel lancio di una moneta si ha testa o croce. Un vago analogo del caso

quantistico si ha se la moneta non e’ perfetta e quindi le probabilita’ che escano testa o

croce sono diverse, ma non esiste uno stato classico che sia una combinazione lineare di

testa e croce.

Abbiamo detto gli stati possibili per lo spin di un elettrone sono due, corrispondenti

ai due valori misurati ±h//2. In corrispondenza introdurremo i due vettori

|+〉, |−〉 (1.3)

Come abbiamo detto, in meccanica quantistica gli stati del sistema sono descritti da un

vettore e quindi si possono combinare linearmente tra di loro. Quindi una combinazione

arbitraria dei due stati precedenti descrivera’ un possibile stato del sistema

|a〉 = a1|+〉+ a2|−〉 (1.4)

Se consideriamo il caso a due stati classico, la moneta, come potremmo interpretare que-

sta combinazione? Certamente non potremo dire che dopo il lancio la moneta non da’

come risultato ne’ testa ne’ croce. L’intepretazione quantistica e’ che i moduli quadri dei

coefficienti forniscano la probabilita’ di avere l’elettrone con spin up o spin down rispetti-

vamente. Notiamo che i coefficienti a1 e a2 sono le componenti del vettore |a〉 lungo le due

direzioni |±〉. Nel calcolo vettoriale ordinario e’ possibile calcolare la componente di un

vettore lungo una direzione specificata da un versore ~n effettuando il prodotto scalare del

vettore con il versore. Dunque la matematica necessaria per descrivere lo spazio delle fasi

della meccanica quantistica e’ quella degli spazi vettoriali che, come vedremo, sono spazi

vettoriali complessi (cioe’ i coefficienti a1 e a2 sono numeri complessi), equipaggiati con

un prodotto scalare. Nei paragrafi successivi introdurremo i concetti fondamentali relativi

agli spazi vettoriali complessi.

1.2.1 Spazi vettoriali

Come abbiamo gia’ anticipato lo spazio delle fasi quantistico non e’ altro che uno spazio

vettoriale complesso. In questa sezione daremo le definizioni necessarie per comprendere

la struttura di questi spazi e come si opera su di essi.

Uno spazio vettoriale, V , e una collezione di oggetti (vettori), v1, · · · ,vn ∈ V sui

quali e definita una operazione di addizione ed una di moltiplicazione per quantita’ scalari

α, β, γ, · · · ∈ F (usualmente numeri reali o complessi a seconda della natura dello spazio

5

vettoriale, vedi in seguito), tali che

1) v + w ∈ V2) αv ∈ V, se v ∈ V, α ∈ F (1.5)

F e detto il campo degli scalari e su F sono definite le operazioni di addizione e di pro-

dotto (α+ β ∈ F , αβ ∈ F ). Le due operazioni definite sui vettori soddisfano una serie di

proprieta che si possono dividere in due classi:

Assiomi per l’addizione

i) vi + vj = vj + vi

ii) vi + (vj + vk) = (vi + vj) + vk

iii) ∃ vettore nullo,0, vi + 0 = 0 + vi = vi

iv) ∃ unico vettore, (−vi), tale che,vi + (−vi) = 0 (1.6)

Queste proprieta si sintetizzano dicendo che V e uno gruppo abeliano rispetto alla somma.

In particolare, iii) e iv) mostrano che V possiede l’elemento identita (il vettore nullo) e

l’inverso di ogni elemento v (−v).

Assiomi per la moltiplicazione con gli scalari

i) α(vi + vj) = αvi + αvj , α ∈ F, vi,vj ∈ Vii) (α+ β)vi = αvi + βvi

iii) α(βvi) = (αβ)vi

iv) 1vi = vi, 1 ∈ F (1.7)

dove 1 e’ l’identita nel campo F degli scalari, cioe 1α = α.

Il vettore nullo soddisfa:

1) 0v = 0 (0 = identita scalare, 0 = vettore nullo)

2) α0 = 0

3) (−1)v = (−v) (1.8)

Un insieme di n vettori non nulli si dice linearmente indipendente se non ci sono

soluzioni scalari all’equazionen∑i=1

αivi = 0 (1.9)

eccetto per la soluzione banale αi = 0.

Si dice che uno spazio vettoriale e n-dimensionale, se ammette al piu n vet-

tori linearmente indipendenti. Denoteremo uno spazio vettoriale n-dimensionale su

F con il simbolo V n(F ). Su tale spazio vale il seguente:

6

Teorema: Dati n vettori linearmente indipendenti (v1,v2, · · · ,vn), ogni altro vettore

v ∈ V n(F ) puo essere scritto come combinazione lineare degli n vettori.

E opportuno osservare che gli assiomi che definiscono uno spazio vettoriale permettono

di sviluppare rapidamente il calcolo vettoriale. Consideriamo due vettori in V 3(R) espressi

una data base (v1,v2,v3):

v = α1v1 + α2v2 + α3v3

v′ = β1v1 + β2v2 + β3v3 (1.10)

Ovviamente i due vettori si possono sommare con la regola del parallelogrammo, ma

usando gli assiomi si vede subito che si puo fare la somma per componenti

v + v′ = (α1v1 + α2v2 + α3v3) + (β1v1 + β2v2 + β3v3) =

= (α1 + β1)v1 + (α2 + β2)v2 + (α3 + β3)v3 (1.11)

Quindi le componenti del vettore somma sono la somma delle componenti dei due vettori.

Analogamente

αv = α(α1v1 + α2v2 + α3v3) = (αα1)v1 + (αα2)v2 + (αα3)v3 (1.12)

e vediamo che le componenti di αv sono il prodotto delle componenti di v per α. Le

due regole precedenti si estendono immediatamente a V n(F ). Il punto importante e che

assegnata una base un generico vettore in V n(F ) si rappresenta in maniera univoca in

termini delle n-uple delle sue componenti

v =n∑i=1

αivi ⇒ v = (α1, α2, · · · , αn) (1.13)

1.2.2 Spazi vettoriali con prodotto interno

Nell’esempio illustrato all’inizio i coefficienti dell’espansione di uno stato su una base

possono essere estratti tramite le proiezioni del vettore lungo le direzioni della base. A

questo fine e’ necessario introdurre il concetto di prodotto scalare o prodotto interno di

due vettori.

Un prodotto interno in uno spazio vettoriale associa a due vettori di V uno scalare di

F . Cioe e un mapping bilineare V × V → F che soddisfa ai seguenti assiomi:

i) 〈v|v〉 ≥ 0 (= 0 se e solo se v = 0)

ii) 〈vi|vj〉 = 〈vj |vi〉∗

iii) 〈vi|αvj + βvk〉 = α〈vi|vj〉+ β〈vi|vk〉 (1.14)

7

L’operazione ∗ qui introdotta e la coniugazione complessa se F = CC il campo dei complessi.

E invece l’operazione identita nel caso dei reali. Noi lavoreremo quasi sempre nel campo

complesso. La proprieta ii) dice che il prodotto interno (o prodotto scalare) e simmetrico

sui reali, mentre si dice hermitiano per il caso complesso. La proprieta iii) esprime

la linearita del prodotto interno rispetto al secondo vettore, mentre rispetto al primo e

antilineare. Infatti

〈αvi|vj〉 = 〈vj |αvi〉∗ = (α〈vj |vi〉)∗ = α∗〈vi|vj〉 (1.15)

Uno spazio vettoriale sul quale sia definito un prodotto interno si chiama spazio

vettoriale con prodotto interno. In un tale spazio si puo definire la norma di un

vettore:

|v| =√〈v|v〉 (1.16)

Un vettore si dice normalizzato o vettore unitario se ha norma pari ad uno. Due

vettori si dicono ortogonali se il loro prodotto scalare e nullo

〈v|w〉 = 0⇔ v⊥w (1.17)

Un insieme di vettori (e1, e2, · · · , en) e detto ortonormale se

〈ei|ej〉 = δij (1.18)

dove δij e la delta di Kronecker, definita da

δij =

1, i = j0, i 6= j

(1.19)

Il prodotto scalare espresso in termini delle componenti in una base ortonormale e’ dato

da

〈v|v′〉 =

n∑i,j=1

α∗i βj〈ei|ej〉 =

n∑i=1

α∗i βi (1.20)

Notiamo che nel caso complesso, l’operazione ∗ che appare nell’assioma ii) e cruciale

affinche valga la i).

Una proprieta importante del prodotto interno e quella che va sotto il nome di disu-

guaglianza di Schwarz:

|〈vi|vj〉|2 ≤ |vi|2|vj |2 (1.21)

l’uguaglianza vale solo quando vi ∝ vj ossia vi e vj sono paralleli.

Un’altra importante disuguaglianza a cui soddisfa il prodotto interno e la disugua-

glianza triangolare:

|vi + vj | ≤ |vi|+ |vj | (1.22)

8

1.2.3 La notazione di Dirac

Dirac ha introdotto una notazione particolarmente felice per la descrizione di uno spa-

zio vettoriale. Abbiamo gia osservato che un vettore e completamente specificato asse-

gnando le sue componenti rispetto a una base fissata. Per esempio, scegliendo una base

ortonormale

v =n∑i=1

eivi (1.23)

tutte le operazioni sui vettori si riportano ad operazioni sulle componenti vi. pertanto

esiste una corrispondenza biunivoca tra il vettore v e la n-upla delle sue componenti in

una data base

v⇔

v1

v2

···vn

(1.24)

In questa base ortonormale il prodotto interno si puo scrivere nella seguente forma:

〈v|v′〉 =n∑i=1

v∗i v′i =

(v∗1 · · · v∗n

)v′1···v′n

(1.25)

dove abbiamo associato al vettore v la n-upla(v∗1 · · · v∗n

). Si introducono allora i vettori

ket che corrispondono ai vettori colonna, cioe

|v〉 ⇔

v1

···vn

(1.26)

e i vettori bra che corrispondono ai vettori riga:

〈v| ⇔(v∗1 · · · v∗n

)(1.27)

La rappresentazione che associa il bra al vettore v e anche detta duale di quella che ne

associa il ket. Notiamo che in notazione matriciale la rappresentazione duale e ottenuta

tramite le operazioni di trasposizione del vettore colonna e di coniugazione complessa.

L’insieme di queste due operazioni costituisce l’ aggiunto. In forma astratta fa passare

dai ket ai bra e viceversa

〈v| = |v〉† (1.28)

Si richiede anche che

(|v〉†)† = |v〉 (1.29)

9

Nella base (1.23) i vettori base hanno la rappresentazione:

|ei〉 ≡ |i〉 ⇔

0···1···0

→ iesimo posto (1.30)

Ovviamente ogni ket si scrive in questa base come

|v〉 =∑i

vi|i〉 (1.31)

mentre i bra

〈v| =∑i

v∗i 〈i| (1.32)

Ogni equazione che vale per i ket puo essere trasformata in una equazione per i bra,

semplicemente prendendo l’aggiunto. L’ortonormalita dei vettori di base si scrive nella

forma

〈i|j〉 = δij (1.33)

Se un ket ha la decomposizione

|v〉 =∑i

vi|i〉 (1.34)

le sue componenti si calcolano prendendone il prodotto interno con i vettori di base:

〈j|v〉 =∑i

vi〈j|i〉 =∑i

viδij = vj (1.35)

Segue l’espressione

|v〉 =∑i

|i〉〈i|v〉 (1.36)

Analogamente si hanno le relazioni

〈v| =∑i

〈i|v∗i

〈v|j〉 =∑i

〈i|j〉v∗i = v∗j

〈v| =∑i

〈v|i〉〈i| (1.37)

L’ultima equazione si poteva anche ottenere prendendo l’aggiunta della (1.36)

〈v| =∑i

〈i|v〉∗〈i| =∑i

〈v|i〉〈i| (1.38)

10

Un importante teorema sugli spazi vettoriali e il seguente

Teorema: Il numero massimo di vettori ortogonali in uno spazio vettoriale e uguale al

numero massimo di vettori linearmente indipendenti.

Un sottospazio di uno spazio vettoriale, che sia anch’esso uno spazio vettoriale, e detto

un sottospazio vettoriale.

1.3 Variabili dinamiche in Meccanica Quantistica

Abbiamo visto che in meccanica classica una variabile dinamica e’ una funzione del punto

nello spazio delle fasi. Spesso pero’ le variabili dinamiche classiche hanno anche altre fun-

zioni, cioe’ quelle di generare delle trasformazioni nello spazio delle fasi, cioe’ il passaggio

da un punto dello spazio delle fasi ad un altro. Un esempio e’ l’hamiltoniana che, tramite

le equazioni del moto hamiltoniane, genera un flusso nello spazio delle fasi. Nel caso di

un sistema discreto un moto si puo’ pensare come ad una successione discreta di intervalli

temporali tali che ad ogni intervallo corrisponde il passaggio da un punto ad un altro. Una

esemplificazione nel caso del sistema a due stati e’ dato in Fig. 1.3. Nel caso di sinistra

T C

T C

Figura 1.3: Possibili moti in un sistema a due stati classico.

questo corrisponde ad una serie di lanci in cui si alternano indefinitamente testa e croce.

Il secondo caso corrisponde invece ad una serie di lanci in cui esce sempre testa oppure

croce. Nel caso classico si ha che anche altri importanti operatori, come l’impulso od il

momento angolare, danno luogo a trasformazioni nello spazio delle fasi corrispondenti ri-

spettivamente a traslazioni e rotazioni. Quindi, in generale, le variabili dinamiche classiche

possono essere pensate come delle funzioni che servono per generare delle trasformazioni

nello spazio delle fasi, cioe’ mapping di punti in punti. In maniera analoga penseremo a

delle variabili dinamiche quantistiche come a degli oggetti che possono trasformare vettori

in vettori. Le grandezze che hanno questa caratteristica sono ben studiate in matematica

e si chiamano operatori lineari su uno spazio vettoriale. La parola operatore ricorda

che la grandezza opera su un vettore e lo trasforma in un altro, mentre lineare ricorda che

la trasformazione deve rispettare le caratteristiche di linearita’ di uno spazio vettoriale.

Dunque un operatore lineare trasforma uno stato fisico (un vettore) in un altro stato fisico.

Mostreremo successivamente quali sono le caratteristiche di un operatore che si associano

alle grandezze corrispondenti che si misurano.

11

In meccanica classica le variabili dinamiche corrispondono a quantita’ osservabili, cioe’

misurabili sperimentalmente. Il valore aspettato di una data osservabile ad un certo istante

e’ semplicemente il valore della variabile corrispondente calcolata sul punto dello spazio

delle fasi che corrisponde allo stato del sistema a quell’istante. Inoltre l’insieme delle misure

che si possono fare corrisponde ad un insieme di numeri reali. Come possiamo generalizzare

questa idea al caso di operatori lineari? In genere un operatore lineare mappa un vettore

in un vettore diverso. Quindi se vogliamo associare il valore dell’osservabile misurata ad

un dato operatore, dovremo pensare che il sistema si trovi in uno stato che e’ lasciato

inalterato dall’operatore. Cio’ che in genere succede e’ che per un dato operatore esistono

dei vettori (autovettori) con tale proprieta’, cioe’

A|v〉 = λ|v〉 (1.39)

Questa equazione dice appunto che il ket |v〉 e’ lasciato inalterato (conserva la direzione)

dall’azione dell’operatore A, salvo un fattore moltiplicativo, λ, che e’ detto autovalore di

A. Dunque, nello stato |v〉, si puo’ associare ad A un numero ben preciso, l’autovalore λ.

Notiamo che se e’ possibile associare ad una quantita’ osservabile corrispondente all’ope-

ratore A due valori distinguibili sperimentalmente, i corrispondenti vettori di stato devono

essere ortogonali. Infatti se misuriamo l’osservabile e misuriamo il valore λ1, lo stato cor-

rispondente deve essere il corrispondente autostato e quindi non puo’ avere componente

sullo stato con autovalore λ2, altrimenti lo stato su cui abbiamo misurato λ1 dovrebbe

avere una espressione del tipo

|ψ〉 = a1|λ1〉+ a2|λ2〉 (1.40)

Ma questo stato, contrariamente all’ipotesi, non e’ autostato di A. Dunque se misu-

riamo una osservabile, in genere i valori che si ottengono sono numeri reali e gli stati

corrispondenti devono essere ortogonali. Gli operatori hermitiani (vedi in seguito) go-

dono esattamente di queste proprieta’, cioe’ hanno autovalori reali ed i corrispondenti

autovettori formano una base ortonormale dello spazio vettoriale. Inoltre, in uno spazio

n-dimensionale, un operatore hermitiano ha n-autovalori reali. Da qui in avanti useremo

osservabile ed operatore hermitiano come sinonimi. Pertanto, se il sistema si trova in

un autostato (o autovettore) di un’osservabile, il risultato della misura sara’ con certezza

l’autovalore corrispondente.

Ovviamente, non sempre il sistema si trovera’ in un autostato dell’osservabile che

vogliamo misurare. E’ in questa situazione che nasce la necessita’ dell’interpretazione

probabilistica della meccanica quantistica. Infatti in questa situazione non c’e’ un unico

autovalore di A associato allo stato. Infatti la decomposizione del vettore di stato in

autovettori dell’osservabile che si misura, coinvolge, in genere, tutti gli autostati di A:

|ψ〉 =∑i

ai|i〉, A|i〉 = λi|i〉 (1.41)

con ai le proiezioni di |ψ〉 lungo gli autovettori |i〉, cioe’

ai = 〈i|ψ〉 (1.42)

12

Dunque l’unica cosa che potremo fare sara’ quella di associare i coefficienti ai alla proba-

bilita’ di ottenere come risultato della misura λi. Pero’ una probabilita’ deve essere una

quantita’ definita positiva e minore di 1. Questa condizione e’ soddisfatta se assumiamo

la probabilita’ di ottenere λi come

P (λi) = |ai|2 = |〈i|ψ〉|2 (1.43)

Infatti questa e’ una quantita’ positiva e minore di uno se il vettore di stato |ψ〉 e’

normalizzato

〈ψ|ψ〉 =∑i

|ai|2 = 1 (1.44)

La proprieta’ per cui la probabilita’ di misurare un qualunque valore di A deve essere

minore di 1 e’ automaticamente soddisfatta per vettori normalizzati. Se poi il vettore e’

un autovettore di A con autovalore λi, la probabilita’ di trovare λi come risultato della

misura e’ uguale a 1, mentre la probabilita’ di trovare un valore λj con j 6= i e’ zero.

1.3.1 Operatori lineari su uno spazio vettoriale

Un operatore A e una istruzione che trasforma un vettore in un altro vettore. Cioe A e

un mapping dello spazio vettoriale V in se:

A : V → V (1.45)

L’azione di A sui vettori si rappresenta nel seguente modo

|v′〉 = A|v〉 (1.46)

Dato che stiamo considerando spazi vettoriali gli unici operatori che hanno senso, cioe che

trasformano lo spazio vettoriale in un altro spazio vettoriale sono quelli che ne preservano

la struttura lineare. Gli operatori con questa proprieta sono detti operatori lineari. Piu

precisamente un operatore e lineare se soddisfa la seguente proprieta:

A(α|v〉+ β|w〉) = αA|v〉+ βA|w〉 (1.47)

Un operatore A puo agire anche sui bra:

(〈v|α+ 〈w|β)A = 〈v|Aα+ 〈w|Aβ (1.48)

Si puo definire un’algebra1 di operatori, introducendo il prodotto e la somma di due

operatori tramite le relazioni:

i) (A1A2)|v〉 = A1(A2|v〉)ii) (A1 +A2)|v〉 = A1|v〉+A2|v〉 (1.49)

1Un’algebra e uno spazio vettoriale, V , nel quale sia definito il prodotto di due vettori, comeun mapping bilineare V × V → V

13

nonche il prodotto di uno scalare per un operatore

iii) (αA)|v〉 = α(A|v〉) (1.50)

E importante osservare che il prodotto di due operatori in genere non e commutativo, cioe

A1A2 6= A2A1 (1.51)

Il grado di non commutativita e definito in termini di una quantita detta commutatore

[A1, A2] = A1A2 −A2A1 (1.52)

Due proprieta molto utili del commutatore, che si verificano immediatamente usando

la definizione, sono le seguenti:

[A,BC] = B[A,C] + [A,B]C, [AB,C] = A[B,C] + [A,C]B (1.53)

Se esiste, l’inverso di un operatore A lo si scrive A−1 ed e definito da

AA−1 = A−1A = I (1.54)

con I l’operatore identita. L’inverso del prodotto di due operatori e uguale al prodotto

degli inversi, cioe

(AB)−1 = B−1A−1 (1.55)

Abbiamo visto che un vettore in una data base corrisponde ad una ennupla di numeri,

le sue componenti in quella base. Analogamente, in una data base, un operatore lineare e

rappresentato da una matrice di n × n numeri, i suoi elementi di matrice. Ovviamente i

valori degli elementi di matrice dipendono dalla base scelta, ma il loro uso risulta estrema-

mente conveniente. Un operatore e completamente assegnato una volta che ne sia stata

definita l’azione sugli elementi di una base. In particolare si possono facilmente calcolare

le componenti del ket trasformato sotto l’azione dell’operatore. Se

|v′〉 = A|v〉 (1.56)

segue

v′i = 〈i|v′〉 = 〈i|A|v〉 = 〈i|A∑j

vj |j〉 =∑j

〈i|A|j〉vj (1.57)

Posto

Aij = 〈i|A|j〉 (1.58)

segue

v′i =∑j

Aijvj (1.59)

Quindi l’azione dell’operatore si puo valutare agendo con i suoi elementi di matrice sulle

componenti del vettore iniziale. Nella data base il vettore iniziale e rappresentato da un

vettore colonna e l’azione dell’operatore e semplicemente il prodotto della matrice che

14

lo rappresenta per il vettore colonna con la consueta definizione di prodotto righe per

colonne.

Gli elementi di matrice dell’operatore identita si calcolano immediatamente:

〈i|I|j〉 = 〈i|j〉 = δij (1.60)

Quindi l’operatore identita in una base ortonormale corrisponde alla matrice identita.

Ricordiamo che abbiamo dimostrato la relazione

|v〉 =n∑i=1

|i〉〈i|v〉 (1.61)

che puo essere riscritta nella forma

|v〉 =

(n∑i=1

|i〉〈i|

)|v〉 (1.62)

Questa relazione ci dice che l’espressione in parentesi altro non e che un operatore che

applicato al ket |v〉 lo riproduce. Quindi si ha

I =

(n∑i=1

|i〉〈i|

)(1.63)

E interessante considerare le quantita |i〉〈i| come operatori. La loro azione e data da

(|i〉〈i|) |v〉 = |i〉〈i|v〉 = vi|i〉 (1.64)

Questi operatori sono definiti proiettori

Pi = |i〉〈i| (1.65)

Vediamo chen∑i=1

Pi = I (1.66)

Inoltre i proiettori definiscono la seguente algebra2

PiPj = |i〉〈i|j〉〈j| = δij |i〉〈i| = δijPi (1.67)

Il contenuto fisico di questa equazione puo essere capito considerando gli analizzatori di

polarizzazione, che in pratica funzionano come proiettori, vedi Fig 1.4.

L’azione dei proiettori sui bra si ottiene facilmente

〈v|Pi = 〈v|i〉〈i| = v∗i 〈i| (1.68)

2La proprieta P 2i = Pi ha il nome di idempotenza, mentre PiPj = 0 per i 6= j si chiama

ortogonalita

15

xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx

xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx

xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx

xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx

xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx

xxxxxxxxxxxxxxxxxxxxxxxxxxxxx

xxxxxxxxxxxxxxxxxxxxxxxxxxxxx

Py Py Px

EE y E y

0

Figura 1.4: Gli analizzatori si comportano come operatori di proiezione. Il primoanalizzatore seleziona la componente y del campo. Dato che il secondo analizzatoreha lo stesso orientamento del primo, il campo passa inalterato (corrisponde a P 2

y =Py). Il terzo analizzatore proietta nella direzione ortogonale x e quindi il risultato ezero (corrisponde a PxPy = 0).

Si ha

〈j|Pi|k〉 = 〈j|i〉〈i|k〉 = δijδik (1.69)

Il prodotto di due operatori in termini di matrici si ottiene da AB

(AB)ij = 〈i|AB|j〉 = 〈i|AIB|j〉 =

n∑k=1

〈i|A|k〉〈k|A|j〉 =

n∑k=1

AikBkj (1.70)

Definiamo adesso l’ aggiunto di un operatore. Sia:

A|v〉 = |v′〉 (1.71)

Il bra che corrisponde a |v′〉 lo scriveremo come

〈v′| ≡ 〈v|A† (1.72)

od anche

〈v|A† = (A|v〉)† (1.73)

Questa relazione definisce l’aggiunto di A come un operatore sullo spazio dei bra. Possiamo

calcolare gli elementi di matrice dell’aggiunto. Avremo

(A†)ij = (〈i|A†)|j〉 = [〈j|(A|i〉)]∗ = 〈j|A|i〉∗ = A∗ji (1.74)

cioe

(A†)ij = A∗ji (1.75)

16

Una proprieta importante riguarda l’aggiunto del prodotto di operatori

(AB)† = B†A† (1.76)

Ovvero, l’aggiunto del prodotto e uguale al prodotto degli aggiunti in ordine inverso.

Consideriamo infatti

(AB)|v〉 = |v′′〉 (1.77)

e poniamo

B|v〉 = |v′〉, A|v′〉 = |v′′〉 (1.78)

Avremo

〈v′′| = 〈v′|A† = 〈v|B†A† (1.79)

Ma per definizione

〈v′′| = 〈v|(AB)† (1.80)

e quindi confrontando queste due equazioni

(AB)† = B†A† (1.81)

Classi importanti di operatori sono gli operatori hermitiani

A† = A (1.82)

e gli operatori anti-hermitiani

A† = −A (1.83)

Ogni operatore puo essere sempre decomposto in una parte hermitiana ed in una parte

anti-hermitiana

A =1

2(A+A†)︸ ︷︷ ︸hermitiano

+1

2(A−A†)︸ ︷︷ ︸

anti−hermitiano

(1.84)

Altri operatori importanti sono gli operatori unitari, tali che

UU † = U †U = I (1.85)

o, in altri termini,

U † = U−1 (1.86)

Il prodotto di operatori unitari e unitario

(U1U2)† = U †2U†1 = U−1

2 U−11 = (U1U2)−1 (1.87)

Inoltre gli operatori unitari conservano il prodotto interno.

E importante osservare che se pensiamo alle colonne di una matrice unitaria n × ncome alle componenti di n vettori, questi formano un set ortonormale. Infatti, partendo

da U †U = I si ha

δij = 〈i|I|j〉 = 〈i|U †U |j〉 =n∑k=1

〈i|U †|k〉〈k|U |j〉 =n∑k=1

(U †)ikUkj =n∑k=1

U∗kiUkj (1.88)

17

Definiamo dei vettori v(i) con componenti

v(i)k = Uki (1.89)

segue:n∑k=1

v(i)∗k v

(j)k = δij ⇔ 〈v(i)|v(j)〉 = δij (1.90)

La stessa considerazione si puo fare per le n righe.

Possiamo applicare a tutti i vettori di uno spazio vettoriale, V , una trasformazione

unitaria

|v〉 → U |v〉, ∀ |v〉 ∈ V, U †U = I (1.91)

Il prodotto scalare tra due vettori rimane inalterato, mentre gli elementi di matrice di un

determinato operatore A sono trasformati come segue

〈v′|A|v〉 ⇒ 〈Uv′|A|Uv〉 = 〈v′|U †AU |v〉 (1.92)

In questo caso si parla di una trasformazione attiva. Lo stesso risultato, in termini di

elementi di matrice, si otterrebbe lasciando fissi i vettori e ruotando gli operatori con la

trasformazione unitaria U :

A→ U †AU (1.93)

In questo caso si parla di trasformazione passiva. La nomenclatura fa riferimento ai

vettori consueti in cui le trasformazioni attive equivalgono a trasformare i vettori, mentre

vengono lasciati inalterati in una trasformazione passiva. L’opposto accade per gli ope-

ratori. I due tipi di trasformazioni sono equivalenti sul piano della fisica, dato che non

cambiano i valori dei prodotti scalari (questo sara visto meglio nel seguito).

Ci sono delle operazioni che si possono fare sugli operatori e che sono invarianti sotto

trasformazioni unitarie. Per esempio la traccia (somma degli elementi diagonali):

Tr[A] =n∑i=1

Aii (1.94)

L’invarianza deriva dalla proprieta fondamentale della traccia

Tr[AB] = Tr[BA] (1.95)

Infatti

Tr[AB] =∑i,j

AijBji =∑i

BjiAij = Tr[BA] (1.96)

Da questa segue la proprieta ciclica della traccia

Tr[ABC] = Tr[A(BC)] = Tr[(BC)A] = Tr[B(CA)] = Tr[CAB] (1.97)

Usando quest’ultima si ha

Tr[U †AU ] = Tr[UU †A] = Tr[A] (1.98)

Anche il determinante e invariante sotto trasformazioni unitarie. Infatti

det|U †AU | = det|U †|det|U |det|A| = det|U †U |det|A| = det|A| (1.99)

18

1.3.2 Il problema agli autovalori e equazione caratteristica

Discuteremo adesso il problema agli autovalori per un operatore A dato che, come detto

in precedenza, questo problema e’ strettamente collegato all’interpretazione fisica degli

operatori lineari.

Come abbiamo detto, siamo interessati a determinare le direzioni dello spazio vetto-

riale che non sono cambiate dall’‘azione di un dato operatore A. Queste sono definite

dall’equazione

A|v〉 = ω|v〉 (1.100)

Il vettore |v〉 e detto un autovettore o un autoket di A (detto anche eigenvector o eigenket)

con autovalore (o eigenvalue) ω. La determinazione degli autovettori e degli autovalori di

un operatore e il problema centrale della meccanica quantistica.

L’equazione agli autovalori per l’operatore A si puo riscrivere in componenti:

n∑j=1

(Aij − ωδij)vj = 0 (1.101)

Questa e una equazione lineare ed omogenea nelle componenti dell’autovettore. Pertanto

si hanno soluzioni non identicamente nulle per le vj se e solo se il determinante del sistema

e nullo

det|A− ωI| = 0 (1.102)

Se espandiamo il determinante si trova una equazione di grado n che determina i possibili

autovalori:

0 = det|A− ωI| =n∑k=0

ckωk (1.103)

L’equazione risultante e indicata come l’ equazione caratteristica e il polinomio

P (ω) =n∑k=1

ckωk (1.104)

come il polinomio caratteristico. Chiaramente la forma del polinomio dipende dalla

base che scegliamo per effettuare i calcoli, ma le soluzioni sono indipendenti dalla base,

dal momento che l’equazione originaria non ne dipende.

Dal teorema fondamentale dell’algebra (ogni equazione di grado n ha n radici reali

o complesse) segue che ogni operatore in V n(C) ha n autovalori reali o complessi, non

necessariamente distinti. Una volta trovati gli autovalori, gli autovettori nella data base

si determinano risolvendo l’equazione agli autovalori∑j

(Aij − ωδij)vj = 0 (1.105)

Quando alcuni degli autovalori coincidono questi si dicono degeneri ed anche l’operatore

e’ detto degenere.

19

D’altra parte non sempre gli autovettori esistono. Esistono pero sempre per operatori

hermitiani3 e per operatori unitari.

Gli autovalori degli operatori hermitiani sono reali. Gli operatori hermitiani soddisfa-

no ad un teorema che assicura l’esistenza degli autovettori. Precisamente

Teorema: Per ogni operatore hermitiano esiste almeno una base di autovettori orto-

gonali. In questa base l’operatore e diagonale (cioe tutti gli elementi di matrice fuori della

diagonale principale sono nulli) ed i suoi autovalori sono gli elementi di matrice diagonali.

Esempio:

Consideriamo l’operatore

A =

(0 11 0

)(1.106)

L’equazione agli autovalori risulta

A|v〉 = ω|v〉 ⇒(

0 11 0

)(v1

v2

)= ω

(v1

v2

)(1.107)

che possiamo riscrivere nella forma(−ω 11 −ω

)(v1

v2

)=

(−ωv1 + v2

v1 − ωv2

)= 0 (1.108)

Il sistema in v1 e v2 e’ lineare ed omogeneo e quindi ha soluzioni solo se il determinante

dei coefficienti si annulla (equazione agli autovalori)

0 = det

(−ω 11 −ω

)= ω2 − 1 (1.109)

Dunque gli autovalori sono ω = ±1. Le due equazioni in v1 e v2 non sono indipenden-

ti, allorche’ ω sia uguale ad uno degli autovalori, ed e’ quindi sufficiente risolvere una

equazione, per esempio la prima

−ωv1 + v2 = 0⇒ v2 = ωv1 (1.110)

Dunque:

ω = +1, v2 = v1, ω = −1, v2 = −v1 (1.111)

Si puo’ poi determinare v1 imponendo la condizione di normalizzazone

|v1|2 + |v2|2 = 1 (1.112)

e poiche’ |v1| = |v2| in entrambi i casi, si ha

|v1|2 =1

2(1.113)

3Quindi anche per quelli anti-hermitiani, dato che assegnato un operatore A anti-hermitiano,l’operatore iA e hermitiano

20

e scegliendo v1 reale

v1 =1√2

(1.114)

Pertanto i due autovettori, normalizzati ed ortogonali tra loro (controllare!) sono

ω = +1⇒ 1√2

(11

), ω = −1⇒ 1√

2

(1−1

)(1.115)

Teorema: Gli autovalori di un operatore unitario sono numeri complessi di modulo 1,

cioe della forma eiφ. Gli autovettori di un operatore unitario sono mutuamente ortogonali

Un teorema che come vedremo gioca un ruolo fondamentale in meccanica quantistica

e il seguente

Teorema: Se A e B sono operatori hermitiani che commutano tra loro

[A,B] = 0 (1.116)

allora esiste una base di autovettori comuni che li diagonalizza entrambi.

Dimostriamo questo teorema nel caso di operatori non degeneri, ma la dimostrazione

si estende facilmente al caso piu’ generale. Consideriamo gli autovettori di A

A|ai〉 = ai|ai〉 (1.117)

Si ha anche

BA|ai〉 = aiB|ai〉 (1.118)

Ma dato che A e B commutano segue

A(B|ai〉) = ai(B|ai〉) (1.119)

Pertanto B|ai〉 e un autostato di A con autovalore ai. Vista la non degenerazione di A

segue che B|ai〉 deve essere proporzionale a |ai〉

B|ai〉 = bi|ai〉 (1.120)

Quindi |ai〉 e un autovettore di entrambi gli operatori. La base degli autovettori di A

diagonalizza entrambi gli operatori.

Si dimostra inoltre il

Teorema: Condizione necessaria e sufficiente affinche un operatore sia diagonalizzabile

con una trasformazione unitaria e che valga

[A,A†] = 0 (1.121)

o, come si dice, che l’operatore A sia normale.

Dato che gli autovettori di un operatore hermitiano, A sono ortogonali e sono in numero

pari alle dimensioni dello spazio vettoriale essi formano un sistema ortonormale e possiamo

quindi ottenere una decomposizione dell’identita’ in termini degli autovettori di A, |ωi〉

I =∑i

|ωi〉〈ωi| (1.122)

21

In questo caso si parla di decomposizione spettrale. Possiamo anche ottenere una

rappresentazione dell’operatore A in termini dei proiettori sui suoi autostati, Pi = |ωi〉〈ωi|∑i

ωi|ωi〉〈ωi| = A∑i

|ωi〉〈ωi| = A (1.123)

da cui

A =∑i

ωiPi (1.124)

cioe’ la decomposizione spettrale dell’operatore A.

1.3.3 Funzioni di un operatore

La maniera piu semplice per definire una funzione di un operatore e quella di considerare

delle funzioni che ammettano uno sviluppo in serie di potenze

f(x) =

∞∑n=0

cnxn (1.125)

con x reale o complesso. Definiamo allora una funzione di un operatore A come

f(A) =∞∑n=0

cnAn (1.126)

Consideriamo ora un operatore A(λ) dipendente da un parametro λ. Definiamo la

derivata dell’operatore rispetto al parametro il limite

dA(λ)

dλ= lim

∆λ→0

A(λ+ ∆λ)−A(λ)

∆λ(1.127)

1.4 Applicazione allo spin dell’elettrone

Abbiamo visto gli stati possibili per lo spin di un elettrone sono due, corrispondenti ai

due valori misurati ±h//2. Dunque e’ possibile definire una variabile dinamica associata

allo spin, con autostati |±〉. E’ conveniente identificare i risultati della misura con i valori

±1, o semplicemente con ±. Iniziamo considerando il campo ~B orientato lungo l’asse z.

Identificheremo l’osservabile di spin lungo l’asse z con σz (lo spin moltiplicato per 2/h/).

Gli autostati di σz e gli autovalori saranno dunque

σz|+〉 = +|+〉, σz|−〉 = −|−〉 (1.128)

L’operatore σz nella base dei suoi autostati e’ diagonale con autovalori ±1. Dunque

σz =

(1 00 −1

)(1.129)

22

Lo spazio vettoriale con il quale lavoreremo sara’ dunque quello dei vettori complessi a

due dimensioni, con vettori ket

|a〉 ↔(a1

a2

)(1.130)

e corrispondenti bra

〈a| =(a∗1 a∗2

)(1.131)

Il prodotto scalare e’ dato da

〈a|b〉 = a∗1b1 + a∗2b2 (1.132)

e la norma quadrata e’

〈a|a〉 = |a1|2 + |a2|2 (1.133)

Nella base degli autostati di σz abbiamo

|+〉 ↔(

10

), |−〉 ↔

(01

)(1.134)

Dunque la decomposizione di un generico vettore su questa base e’ data da

|a〉 = a1|+〉+ a2|−〉 (1.135)

In base alla interpretazione probabilistica che abbiamo dato, se lo stato di spin e’ |a〉 e lo

si misura con l’apparato sopra descritto allineato lungo l’asse z, avremo che le probabilita’

per trovare lo spin parallelo o antiparallelo all’asse z sono

P (σz = +1) = |a1|2, P (σz = −1) = |a2|2 (1.136)

Ovviamente dovremo aver normalizzato lo stato |a〉 e dunque

|a1|2 + |a2|2 = 1⇒ P (σz = +1) + P (σz = −1) = 1 (1.137)

Consideriamo adesso l’operatore di spin lungo l’asse x. Normalizzando sempre con

il fattore 2/h/ si ha (vedremo in seguito che questa matrice e’ proporzionale proprio alla

componente lungo l’asse x del momento angolare intrinseco, o spin, per una particella di

spin 1/2)

σx =

(0 11 0

)(1.138)

Dato che σ2x = 1 si vede subito che i possibili autovalori sono ancora ±1. Per capirlo basta

osservare che ogni equazione operatoriale che dipenda da un operatore A e’ invariante

sotto la trasformazione

A′ = UAU−1 (1.139)

infatti, per ogni potenza di A si ha

UAnU−1 = UAU−1UAU−1 · · ·UAU−1 = (UAU−1)n (1.140)

23

Quindi il trasformato di una potenza e’ uguale alla stessa potenza dei trasformati. Per-

tanto, dato che σx e’ hermitiana e si puo’ diagonalizzare con una trasformazione unitaria,

l’equazione σ2x = 1 vale anche per la matrice diagonalizzata e dunque i suoi autovalori

devono essere uguali a ±1. Inoltre la traccia di una matrice e’ invariante per trasforma-

zioni unitarie e quindi anche σx diagonalizzata deve avere traccia nulla. Segue che i due

autovalori devono essere +1 e −1. Per trovare gli autovettori avremo

σx|σx = +1〉 = |σx = +1〉 ↔(

0 11 0

)(v1

v2

)=

(v1

v2

)(1.141)

Da cui segue l’equazione

v1 = v2 (1.142)

La normalizzazione richiede

2|v1|2 = 1 (1.143)

e scegliendo v1 reale segue che l’autostato normalizzato e’

|σx = +1〉 =1√2

(|+〉+ |−〉)↔ 1√2

(11

)(1.144)

In modo del tutto analogo si dimostra che

|σx = −1〉 1√2

(|+〉 − |−〉)↔ 1√2

(1−1

)(1.145)

Si verifica subito che questi due stati sono ortogonali tra loro. Supponiamo adesso di pre-

parare uno stato corrispondente all’autovalore +1 di σx e di voler conoscere la probabilita’

di trovarlo orientato lungo l’asse z. Dunque lo stato iniziale e’

|ψ〉 = |σx = +1〉 (1.146)

e si chiede la probabilita’ di trovare lo spin nello stato

|σz = +1〉 (1.147)

Questa probabilita’ e’ data dal modulo quadro del coefficiente di |+〉 nella decomposizione

di |σx = +1〉

P (σz = +1) = |〈σz = +1|σx = +1〉|2 =

∣∣∣∣( 1 0) 1√

2

(11

)∣∣∣∣2 =1

2(1.148)

In modo analogo si ha

P (σz = −1) = |〈σz = −1|σx = +1〉|2 =

∣∣∣∣( 0 1) 1√

2

(11

)∣∣∣∣2 =1

2(1.149)

Nello stesso modo possiamo considerare lo spin lungo l’asse y che risulta corrispondere

all’operatore

σy =

(0 −ii 0

)(1.150)

24

’ Anche questo operatore ha autovalori ±1 e’ hermitiano ed suoi autostati sono

|σy = +1〉 ↔ 1√2

(1i

), |σy = −1〉 ↔ 1√

2

(1−i

)(1.151)

Si verifica che anche in questo caso i due autostati sono ortogonali. Se poi prepariamo lo

stato come autostato di σy e chiediamo ancora la probabilita’ di trovare lo spin parallelo

o antiparallelo all’asse z, dovremo calcolare

P (σz = +1) = |〈σz = −1|σx = +1〉|2 =

∣∣∣∣( 1 0) 1√

2

(1i

)∣∣∣∣2 =1

2(1.152)

e

P (σz = −1) = |〈σz = −1|σy = +1〉|2 =

∣∣∣∣( 0 1) 1√

2

(1−i

)∣∣∣∣2 =1

2(1.153)

Dunque se lo spin e’ preparato a 900 rispetto all’asse z, la probabilita’ di osservarlo parallelo

o antiparallelo a questo asse e’ sempre 1/2.

Notiamo che i tre operatori σx,y,z non hanno autovettori comuni e quindi non commu-

tano tra loro. Infatti

[σx, σy] = 2iσz, [σy, σz] = 2iσx, [σz, σx] = 2iσy (1.154)

La situazione piu’ generale e’ quando si prepara lo spin in una direzione ~n (|~n|2 = 1)

nel nostro riferimento. In questo caso l’operatore di spin e’ dato da

~σ · ~n = σxnx + σyny + σznz =

(nz nx − iny

nx + iny −nz

)≡(nz n−n+ −nz

)(1.155)

dove abbiamo definito

n− = nx − iny, n+ = n∗− (1.156)

Dato che ~n e’ un versore segue

n2z + n+n− = 1 (1.157)

Usando questa ultima relazione e’ facile dimostrare che

(~σ · ~n)2 = 1 (1.158)

da cui segue che anche gli autovalori di (~σ · ~n)2 sono ±1. Per l’autovettore corrispondente

all’autovalore +1 di ~σ · ~n si ha l’equazione(nz n−n+ −nz

)(αβ

)=

(αβ

)(1.159)

che da’ luogo alle due equazioni omogenee

nzα+ n−β = α, n+α− nzβ = β (1.160)

25

Dalla prima si haβ

α=

1− nzn−

(1.161)

e dunque l’autovettore sara’, a meno di un fattore di normalizzazione N ,

|~σ · ~n = +1〉 ↔ N

11− nzn−

(1.162)

Normalizzando si ha

|N |2(

1 +(1− nz)2

n+n−

)= |N |2 2

1 + nz= 1 (1.163)

e quindi

|~σ · ~n = +1〉 ↔√

1 + nz2

11− nzn−

(1.164)

In modo del tutto analogo si trova

|~σ · ~n = −1〉 ↔√

1 + nz2

1

−1 + nzn−

(1.165)

Si verifica facilmente che questi due vettori sono ortogonali.

Supponiamo adesso di preparare lo stato con lo spin diretto lungo l’asse ~n e di voler

determinare la probabilita’ di osservarlo diretto lumgo l’asse ~m, con ~m un versore. Dato

che il problema dipende solo dai due versore ~m e ~n il risultato finale puo’ dipendere solo

dall’angolo θ tra i due versori, cioe’ da ~n · ~m = cos θ. Questo risultato si puo’ ottenere

sia osservando che la probabilita’ non puo’ dipendere dalla nostra scelta del sistema di

coordinate e si puo’ dunque prendere ~n diretto lungo l’asse z. In questo caso

|~σ · ~n = +1〉 ↔(

10

)(1.166)

e dunque

P (~σ ·m = +1) = |〈~σ · ~m = +1|~σ · ~n = +1〉|2 =1 +mz

2=

1 + cos θ

2(1.167)

Oppure per calcolo diretto, usando la (1.164), si dimostra che

P (~σ ·m = +1) = |〈~σ · ~m = +1|~σ · ~n = +1〉|2 =1 + ~m · ~n

2(1.168)

Notiamo che non e’ possibile misurare ~σ · ~n e ~σ · ~m, con ~m 6= ~n. Basta pensare, per

esempio, a σx e σy che non hanno autovettori comuni. Questa affermazione e’ correlata al

fatto che le σi non commutano tra loro. Infatti si puo’ verificare esplicitamente che

[σx, σy] = 2iσz, [σy, σz] = 2iσx, [σz, σx] = 2iσy (1.169)

26

Dunque nessuna di queste matrici commuta con le altre ed in particolare anche

[~σ · ~n, ~σ · ~m] 6= 0, se ~n 6= ~m (1.170)

Una proprieta’ interessante dell’operatore ~σ · ~n e’ che, dato uno stato normalizzato

(α, β), esiste sempre un versore ~n tale che

~σ · ~n(αβ

)=

(αβ

)(1.171)

La dimostrazione e’ semplice perche’ basta risolvere le due equazioni non omogenee per le

componenti di ~n che seguono dalla precedente, e cioe’(nz n−n+ −nz

)(αβ

)=

(αβ

)(1.172)

ovvero

nzα+ n−β = α, n+α− nzβ = β (1.173)

Prendendo la complessa coniugata della seconda si ricava n− in termini di nz

n−α∗ = (nz + 1)β∗ (1.174)

Sostituendo nella prima si ha

nzα+nz + 1

α∗|β|2 = α (1.175)

Usando la condizione di normalizzazione |α|2 + |β|2 = 1 si trova

nz = |α|2 − |β|2 (1.176)

Sostituendo nella prima delle (1.173) segue

n− = 2αβ∗, n+ = 2α∗β (1.177)

Dato che il vettore (α, β) e’ definito a meno di un fattore di fase comune, possiamo sempre

scegliere per i parametri α e β le espressioni

α = cos θe−iφ, β = sin θe+iφ (1.178)

In questo modo la condizione di romalizzazione e’ automaticamente soddisfatta. Inoltre

si ha

nz = cos2 θ − sin2 θ = cos 2θ (1.179)

n− = 2 sin θ cos θe−2iφ = sin 2θe2iφ, n+ = sin 2θe+2iφ (1.180)

da cui

nx = sin 2θ cos 2φ, ny = sin 2θ sin 2φ (1.181)

Se il versore ~n e’ assegnato in coordinate polari (θ, φ) si ha

~n = (sin θ cos φ, sin θ sin φ, cos θ) (1.182)

Dunque vale

θ = θ/2, φ = φ/2 (1.183)

27

1.5 Spazi vettoriali infinito-dimensionali

In meccanica quantistica hanno interesse gli spazi vettoriali infinito-dimensionali. Cer-

cheremo qui di introdurre i concetti di base in maniera intuitiva e non rigorosa. Per un

maggior approfondimento si rimanda ai testi di Analisi Funzionale.

Partiamo dall’idea che una funzione assegnata puo essere pensata come un vettore in

uno spazio infinito-dimensionale. A questo scopo consideriamo una funzione f(x) definita

su un intervallo chiuso 0 ≤ x ≤ L (vedi Figura 1.5). Questa potrebbe rappresentare, ad

esempio, lo spostamento di una corda fissata agli estremi 0 ed L. Possiamo campionare

questa funzione dividendo l’intervallo [0, L] in N + 1 parti ed assegnando i valori di f(x)

negli N punti di divisione (vedi Figura 1.6)

xi = iL

N + 1, i = 1, · · · , N (1.184)

0 Lx

f(x)

Figura 1.5: La funzione f(x) definita sull’intervallo [0, L].

Possiamo pensare ai valori che assume la funzione in questi N punti come a un vettore

in V N (R):

|fN 〉 ⇔

f(x1)f(x2)··

f(xN−1)f(xN )

(1.185)

Identificheremo i vettori base come ket denotati con xi, le coordinate del punto in cui

campioniamo la f(x), e avremo

|xi〉 ⇔

0·1·0

(1.186)

28

0 L x

f(x)

x x x xx1 2 3 N-1 N

Figura 1.6: Il campionamento della funzione f(x) data in Figura 1.5.

I vettori base corrispondono ad una funzione che vale 1 in xi e zero negli altri punti.

Chiaramente si hanno le relazioni

〈xi|xj〉 = δij ,N∑i=1

|xi〉〈xi| = I (1.187)

Cioe questi vettori formano un sistema di vettori ortonormali. Immaginiamo adesso uno

spazio N dimensionale con ogni direzione individuata da un vettore unitario |xi〉. Allora

il vettore fN , che rappresenta la campionatura di f(x), sara quel vettore che ha per

componente f(xi) lungo l’asse |xi〉

|fN 〉 =

N∑i=1

f(xi)|xi〉 (1.188)

Occorre naturalmente dimostrare che stiamo effettivamente costruendo uno spazio vetto-

riale. Infatti possiamo definire una struttura lineare sulle funzioni definite nell’intervallo

[0, L], introducendo la somma di funzioni e la moltiplicazione per uno scalare. Consideria-

mo allora le funzioni definite nell’intervallo [0, L] tali che f(0) = f(L) = 0. Si definiscono

l’addizione ed il prodotto per uno scalare come segue:

(f + g)(x) = f(x) + g(x), (αf)(x) = αf(x) (1.189)

Si verifica immediatamente che tutte le proprieta che definiscono uno spazio vettoriale

sono soddisfatte. Inoltre, dato che le definizione sopra date valgono punto per punto, e

chiaro che anche le funzioni campionate soddisfano le condizioni di spazio vettoriale. In

particolare

|(f + g)N 〉 = |fN 〉+ |gN 〉 ⇔

(f + g)(x1)

···

(f + g)(xN )

=

f(x1)···

f(xN )

+

g(x1)···

g(xN )

(1.190)

29

e

|(αf)N 〉 = α|fN 〉 ⇔

(αf)(x1)···

(αf)(xN )

= α

f(x1)···

f(xN )

(1.191)

Possiamo anche definire un prodotto interno come

〈fN |gN 〉 =N∑i=1

f(xi)∗g(xi) (1.192)

In particolare |fN 〉 e |gN 〉 sono detti vettori ortogonali se

〈fN |gN 〉 = 0 (1.193)

Vogliamo adesso vedere cosa succede quando mandiamo N all’infinito, in modo che il

nostro campionamento riproduca esattamente la funzione originale. Il ket corrispondente

|fN 〉 → |f∞〉 ≡ |f〉 (1.194)

e un vettore in uno spazio infinito-dimensionale (per di piu continuo, cioe non numerabile).

Ovviamente le proprieta di spazio vettoriale non vengono alterate dal limite, dato che

queste sono definite tramite le equazioni (1.189). Le cose sono pero diverse con il prodotto

scalare. Consideriamo la norma di un vettore per N finito

〈fN |fN 〉 =

N∑i=1

|f(xi)|2 (1.195)

Nel limite N →∞ la somma precedente diverge in pratica per qualunque funzione. D’altra

parte non e difficile alterare la definizione di prodotto interno in modo da avere somme

convergenti. Una scelta possibile (ma non l’unica) e, per esempio

〈fN |gN 〉 =N∑i=1

f(xi)∗g(xi)∆N (1.196)

con

∆N =L

N + 1(1.197)

Nel limite N →∞ si ottiene la definizione consueta di integrale

〈f |g〉 =

∫ L

0f(x)∗g(x)dx (1.198)

Si vede facilmente che questa definizione soddisfa tutte le proprieta che definiscono in

generale il prodotto interno. Ovviamente e possibile definire il prodotto interno anche in

altro modo. Infatti piu in generale, se introduciamo la misura

dµ(x) = ρ(x)dx (1.199)

30

con ρ(x) definita positiva, la seguente espressione soddisfa le condizioni per definire un

prodotto interno

〈f |g〉 =

∫ L

0f∗(x)g(x)dµ(x) (1.200)

Se le funzioni sono definite in un intervallo generico [a, b] la forma piu generale e

〈f |g〉 =

∫ b

af∗(x)g(x)dµ(x) (1.201)

Dobbiamo vedere adesso come normalizzare i vettori di base. In ogni punto x dell’intervallo

in esame, avremo un autoket |x〉 tale che per ogni x′ 6= x

〈x|x′〉 = 0, x 6= x′ (1.202)

D’altra parte, dato che nel passaggio dal discreto al continuo abbiamo cambiato la de-

finizione di prodotto scalare non potremo avere 〈x|x〉 = 1. Per capire cosa succede

consideriamo la relazione di completezza che vorremmo della forma∫ b

a|x′〉〈x′|dx′ = I (1.203)

Da questa segue ∫ b

a〈x|x′〉〈x′|f〉dx′ = 〈x|I|f〉 = f(x) (1.204)

Pertanto si dovra avere ∫ b

a〈x|x′〉f(x′)dx′ = f(x) (1.205)

Definiamo

〈x|x′〉 = δ(x, x′) (1.206)

con

δ(x, x′) = 0, x 6= x′ (1.207)

Integrando nell’intorno di x avremo∫ x+ε

x−εδ(x, x′)f(x′)dx′ = f(x) (1.208)

Nella regione di integrazione possiamo approssimare f(x′) con f(x) e quindi segue∫ x+ε

x−εδ(x, x′)dx′ = 1 (1.209)

Vediamo che δ(x, x) non puo avere un valore finito dato che il suo integrale su un intervallo

infinitesimo e finito. Inoltre il valore di δ(x, x′) dipende solo dal fatto che x− x′ sia nullo

oppure diverso da zero. Pertanto dovremo avere

δ(x, x′) = δ(x− x′) (1.210)

31

Le proprieta di δ(x− x′) sono dunque

δ(x− x′) = 0, x 6= x′,

∫ b

aδ(x− x′)dx′ = 1, a ≤ x ≤ b (1.211)

La funzione δ(x)4 e nota come la delta di Dirac. Sebbene non la si possa considerare

come una funzione, e pero definibile come il limite di una sequenza di funzioni. A titolo

esemplificativo consideriamo la famiglia di Gaussiane (vedi la Figura 1.7)

g∆(x− x′) =1√π∆2

e−

(x− x′)2

∆2 (1.212)

∆π

1/2

21/2

1

x

g(x-x')∆

x'

Figura 1.7: La famiglia di gaussiane che definisce come limite la delta di Dirac.

Queste funzioni diventano sempre piu alte e piu strette man mano che ∆→ 0. D’altra

parte l’integrale rimane sempre uguale ad uno. Infatti, consideriamo l’integrale di una

gaussiana:

I(α) =

∫ +∞

−∞e−αx

2dx (1.213)

Si ha

I2(α) =

∫ +∞

−∞e−αx

2dx

∫ +∞

−∞e−αy

2dy =

∫ +∞

−∞e−α(x2 + y2)dxdy =

=

∫ ∞0

∫ 2π

0ρdρdφe−αρ

2= 2π

∫ ∞0

1

2dρ2e−αρ

2= π

∫ ∞0

dye−αy =π

α(1.214)

da cui

I(α) =

∫ +∞

−∞e−αx

2dx =

√π

α(1.215)

4La δ(x) risulta ben definita da un punto di vista matematico solo nell’ambito della teoria delledistribuzioni, che non sono funzioni nel senso classico, ma funzionali lineari.

32

Usando queste formula si verifica immediatamente che∫ +∞

−∞g∆(x− x′)dx′ = 1 (1.216)

Vediamo anche che per ∆→ 0, la funzione g∆(x− x′) tende ad essere sempre piu piccola

nei punti x 6= x′. Pertanto in questo limite si ha

lim∆→0

g∆(x− x′) = δ(x− x′) (1.217)

In generale si definisce una serie di funzioni, fε(x) come δ-convergenti se nel limite in cui

ε→ 0 succede che

limε→0

fε(x) =0 se x 6=0

∞ se x=0(1.218)

e contemporaneamente

limε→0

∫fε(x)dx = 1 (1.219)

In questo caso si ha

limε→0

fε(x) = δ(x) (1.220)

Dunque la successione di gaussiane che abbiamo considerato e’ δ-convergente. I matema-

tici hanno dato una forma rispettabile alla delta di Dirac nell’ambito della teoria delle

distribuzioni. le distribuzioni sono funzioni generalizzate che si definiscono tramite le loro

proprieta di integrazione con classi di funzioni con opportune proprieta.

1.5.1 Operatori in dimensioni infinite

Dato che abbiamo definito i ket in corrispondenza biunivoca con le funzioni, un operatore

su questi spazi mappa una funzione f in un’altra funzione f

A|f〉 = |f〉 (1.221)

Per esempio, consideriamo l’operatore derivata:

d

dx: f(x)→ df(x)

dx(1.222)

Nello spazio infinito-dimensionale che abbiamo costruito, indicando con D l’operatore

corrispondente avremo

D|f〉 = |df/dx〉 (1.223)

Cioe D mappa una funzione nella sua derivata. Calcoliamo l’espressione

〈x|D|f〉 = 〈x|df/dx〉 =df(x)

dx(1.224)

da cui, inserendo la completezza, si ottengono gli elementi di matrice di D tra i vettori di

base ∫〈x|D|x′〉〈x′|f〉dx′ =

∫〈x|D|x′〉f(x′)dx′ =

df(x)

dx(1.225)

33

Vediamo cosi che

〈x|D|x′〉 =d

dxδ(x− x′) (1.226)

Siamo ora in grado di valutare le proprieta di hermiticita di D. Si ha dunque

Dx,x′ = δ ′(x− x′) (1.227)

da cui (l’apice indica sempre la derivata rispetto al primo argomento)

D∗x′,x = δ ′(x′ − x)∗ = δ ′(x′ − x) = −δ ′(x− x′) (1.228)

Vediamo che l’operatore D e antihermitiano

D† = −D (1.229)

Possiamo dunque definire un operatore hermitiano

K = −iD (1.230)

L’analisi fin qui fatta e formale. Dato che si ha a che fare con distribuzioni, tutte le pro-

prieta andrebbero controllate sotto segno di integrale. Consideriamo dunque un generico

elemento di matrice di K, 〈g|K|f〉. Affinche K sia hermitiano dobbiamo avere

〈g|K|f〉 = 〈g|Kf〉 = 〈Kf |g〉∗ = 〈f |K†|g〉∗ = 〈f |K|g〉∗ (1.231)

cioe

〈g|K|f〉 = 〈f |K|g〉∗ (1.232)

Questa relazione si puo riscrivere usando la completezza:

〈g|K|f〉 =

∫dxdx′〈g|x〉〈x|K|x′〉〈x′|f〉 =

∫dxdx′g∗(x)Kx,x′f(x′) =

=

∫dxdx′g∗(x)(−i)dδ(x− x

′)

dxf(x′) =

=

∫dxg∗(x)(−i)df(x)

dx(1.233)

D’altra parte

〈f |K|g〉∗ =

(∫dxf∗(x)(−i)dg(x)

dx

)∗=

= i

∫dxdg∗(x)

dxf(x) = −i

∫dxg∗(x)

df(x)

dx+ i [g∗(x)f(x)]ba =

= 〈g|K|f〉+ i [g∗(x)f(x)]ba (1.234)

Dunque K e hermitiano se e solo se l’espressione

[g∗(x)f(x)]ba (1.235)

34

e nulla. Dunque l’hermiticita dell’operatore K dipende dalla classe di funzioni sulla quale

e definito. Per esempio, se si ha a che fare con funzioni che si annullano agli estremi

dell’intervallo di definizione, K e hermitiano. Analogamente si ha hermiticita nel caso di

funzioni periodiche, f(a) = f(b). Nel seguito saremo interessati a funzioni definite in un

intervallo infinito (−∞,+∞). Ovviamente se si ha a che fare con funzioni che si annullano

all’infinito avremo hermiticita. Spesso pero avremo a che fare con funzioni oscillanti, del

tipo eikx. Poniamoci adesso il problema agli autovalori:

K|k〉 = k|k〉 (1.236)

Passando alla base |x〉 si ha

〈x|K|k〉 = k〈x|k〉 (1.237)

Definendo

ψk(x) = 〈x|k〉 (1.238)

segue ∫〈x|K|x′〉〈x′|k〉dx′ = −i

∫δ ′(x− x′)ψk(x′)dx′ = −i

dψk(x)

dx(1.239)

Dobbiamo dunque risolvere

−idψk(x)

dx= kψk(x) (1.240)

La soluzione generale e

ψk(x) = Aeikx (1.241)

dove A e una costante di normalizzazione. Ogni valore di k produce un autovalore, d’altra

parte K deve essere hermitiano anche sui suoi autovettori. Ma per k complesso, k =

k1 + ik2, le soluzioni divergono in uno dei due limiti e quindi dobbiamo restringerci a k

reale. Una normalizzazione conveniente e quella che produce autovettori ortonormali (nel

senso del continuo)

〈k|k′〉 = δ(k − k′) (1.242)

Si ha

〈k|k′〉 =

∫〈k|x〉〈x|k′〉dx =

∫ψ∗k(x)ψk′(x)dx =

= |A|2∫e−i(k − k

′)xdx = (2π)|A|2δ(k − k′) (1.243)

dove abbiamo fatto uso della equazione (??). Dunque scegliendo A reale si ha

A =1√2π

(1.244)

Pertanto

〈x|k〉 = ψk(x) =1√2πeikx (1.245)

35

Si verifica facilmente che gli autovettori di K costituiscono un set ortonormale (nel senso

del continuo). Infatti∫dk〈x|k〉〈k|x′〉 =

1

∫dkeik(x− x′) = δ(x− x′) (1.246)

da cui ∫|k〉〈k|dk = I (1.247)

Assumeremo che anche nel continuo gli autovettori di un operatore hermitiano

costituiscano un set ortonormale. Nel caso in esame funzioni che si espandono nella

base |x〉 con componenti f(x) = 〈x|f〉 si potranno espandere anche nella base |k〉. Infatti

si ha

f(k) = 〈k|f〉 =

∫〈k|x〉〈x|f〉dx =

1√2π

∫e−ikxf(x)dx (1.248)

e viceversa

f(x) = 〈x|f〉 =

∫〈x|k〉〈k|f〉dk =

1√2π

∫eikxf(k)dk (1.249)

Si ritrovano per questa via le formule dell’espansione di Fourier. Nella base |k〉 gli elementi

di matrice di K sono ovviamente banali

〈k|K|k′〉 = k′〈k|k′〉 = k′δ(k − k′) (1.250)

Visto che la base |k〉 e data dagli autovettori di K ci possiamo chiedere se i vettori |x〉sono autovettori di un qualche operatore. Questo operatore puo essere appunto definito

in termini dei suoi autovettori dalla relazione

X|x〉 = x|x〉 (1.251)

con elementi di matrice

〈x′|X|x〉 = xδ(x− x′) (1.252)

E interessante calcolare l’azione di X sulle funzioni

X|f〉 = |f〉 (1.253)

Si ha

〈x|X|f〉 =

∫〈x|X|x′〉〈x′|f〉dx′ =

∫x′δ(x− x′)f(x′)dx′ = xf(x) (1.254)

Pertanto

f(x) = xf(x) (1.255)

e

X|f〉 = |xf〉 (1.256)

Esiste una interessante relazione tra gli operatori X, che equivale a moltiplicare una fun-

zione per il valore di x, cioe il valore della coordinata alla quale e calcolata, e l’operatore K,

36

l’operatore di differenziazione rispetto a x. Questa relazione si puo trovare considerando

gli elementi di matrice di X tra autostati di K

〈k|X|k′〉 =1

∫e−ikxxeik

′xdx = id

dk

(1

∫ei(k

′ − k)xdx

)= i

d

dkδ(k − k′) (1.257)

Pertanto

〈k|X|g〉 = idg(k)

dk(1.258)

Gli operatori X e K vengono detti operatori coniugati ed in particolare hanno la

proprieta di non commutare. Infatti, da

X|f〉 ⇔ xf(x), K|f〉 ⇔ −idf(x)

dx(1.259)

segue

XK|f〉 ⇔ −ix ddxf(x) (1.260)

e

KX|f〉 ⇔ −i ddx

(xf(x)) = −if(x)− ix ddxf(x) (1.261)

Pertanto

[X,K]|f〉 ⇔ if(x)⇔ iI|f〉 (1.262)

o

[X,K] = iI (1.263)

Lo spazio delle funzioni normalizzabili alla delta di Dirac e anche chiamato lo spazio di

Hilbert fisico.

37

Capitolo 2

I postulati della meccanicaquantistica

Introdurremo adesso i postulati della meccanica quantistica seguendo quella che viene

chiamata l’interpretazione di Copenhagen. Come discuteremo, il principale difetto di

questa impostazione e’ che gli effetti di un apparato di misura sulle osservabili vengono

postulati assumendo che l’apparato di misura sia classico e quindi, in qualche modo, esca

dalla descrizione quantistica. E’ subito evidente la difficolta’ di una simile supposizione.

Infatti, ogni apparato macroscopico e’ costituito da entita’ microscopiche, atomi e loro

costituenti, e quindi, in linea di principio, dovrebbe essere riconducibile ad una descrizione

quantistica. Cio’ nonostante l’interpretazione di Copenhagen fornisce un quadro molto

coerente dei dati sperimentali e fino ad oggi non e’ mai stata smentita. Piu’ avanti nel

corso discuteremo il problema della misura in maniera piu’ approfondita.

Inizieremo considerando un sistema costituito da un singolo grado di liberta, una

particella in una dimensione spaziale. Descriveremo ora i postulati della meccanica quan-

tistica per un tale sistema mettendoli a raffronto con gli analoghi postulati della meccanica

classica.

Come vedremo, questi postulati si basano sulle considerazioni iniziali relative allo spa-

zio delle fasi ed alle variabili dinamiche in Meccanica Quantistica.

Meccanica Classica Meccanica Quantistica

1) Lo stato di una sistema ad ogni 1) Lo stato di un sistema e specificato da

istante e specificato assegnando un punto un vettore |ψ(t)〉 in uno spazio di Hilbert

P nello spazio delle fasi. (spazio delle fasi quantistico).

2) Ogni variabile dinamica, ω, e una 2) Una variabile dinamica (o osservabile),

funzione sullo spazio delle fasi, ω = ω(P ). Ω, e un operatore hermitiano sullo

spazio di Hilbert in esame.

38

3) Se il sistema e nello stato determinato 3) Se il sistema e nello stato |ψ(t)〉, la

dal punto P , la misura di ω dara il valore misura della variabile corrispondente a Ω

ω(P ). Lo stato del sistema rimane dara uno degli autovalori ω di Ω con

inalterato dopo la misura. probabilita P (ω) ∝ |〈ω|ψ〉|2. Dopo la

misura il sistema viene proiettato nello

stato |ω〉 corrispondente all’autovalore ω.

4) Le variabili di stato evolvono secondo 4) Il vettore di stato evolve in accordo alla

le equazioni di Hamilton: equazione di Schrodinger:dω

dt=∂ω

∂t+ ω,H ih/

∂t|ψ(t)〉 = H|ψ(t)〉

dove H e un operatore hermitiano detto

operatore hamiltoniano.

Quando si ha a che fare con un sistema specifico, i postulati 2) e 3) vengono ulterior-

mente specificati. Per esempio, se si considera un punto materiale che si muova lungo una

retta, il suo spazio delle fasi e descritto dalle variabili di posizione e di impulso (x, p) e i

postulati 2) e 3) diventano:

Meccanica Classica (particella unidimensionale) Meccanica Quantistica

2) Ogni variabile dinamica, ω, e una 2) Le variabili x e p della meccanica classica

funzione di x e p, ω = ω(x, p) sono rappresentate da operatori hermitiani

X and P con i seguenti elementi di matrice

〈x|X|x′〉 = xδ(x− x′)

〈x|P |x′〉 = −ih/ d

dxδ(x− x′)

Gli operatori hermitiani che corrispondono

alle variabili classiche ω(x, p) si ottengono

tramite la sostituzione

Ω(X,P ) = ω(x→ X, p→ P )

4) Le variabili di stato evolvono secon- 4) Il vettore di stato evolve in accordo alla

do le equazioni di Hamilton: equazione di Schrodinger:

x =∂H

∂p, p = −∂H

∂xih/∂

∂t|ψ(t)〉 = H|ψ(t)〉

dove H(X,P ) = H(x→ X, p→ P ) e

l’hamiltoniana quantistica, ottenuta dalla

hamiltoniana classica, seguendo il

postulato 2).

39

Notiamo che per entrambi i casi i primi tre postulati fanno riferimento al sistema a un

dato istante, mentre il quarto specifica la variazione dello stato con il tempo.

Iniziamo con l’osservare che mentre il sistema classico e descritto da un punto nello

spazio delle fasi, e quindi, in genere, da un numero finito di gradi di liberta (per esempio

due gradi di liberta x e p nel caso della particella in una dimensione), il sistema quantistico

e specificato da un vettore di stato |ψ(t)〉 che, generalmente, e un vettore in uno spazio

di Hilbert infinito-dimensionale. L’interpretazione fisica del vettore di stato e fornita dai

postulati 2) e 3). Abbiamo detto che assegnato lo stato (o il punto nello spazio delle fasi),

in meccanica classica ogni osservabile ω e univocamente assegnata dal suo valore ω(P ).

Viceversa in meccanica quantistica, allorche sia assegnato lo stato, per misurare una os-

servabile Ω dobbiamo effettuare le seguenti operazioni:

1) - Costruire l’operatore hermitiano Ω corrispondente alla variabile dinamica ω tramite

la regola di corrispondenza (o, comunque postulare le proprieta’ dell’operatore se non

si ha un corrispondente classico), per esempio per la particella

Ω = ω(x→ X, p→ P ) (2.1)

2) - Determinare gli autovettori |ωi〉 e gli autovalori ωi di Ω.

3) - Espandere il vettore di stato nella base degli autovettori di Ω

|ψ〉 =∑i

|ωi〉〈ωi|ψ〉 (2.2)

4) - La probabilita P (ωi) di ottenere come risultato della misura l’autovalore ωi e

P (ωi) ∝ |〈ωi|ψ〉|2 (2.3)

Questo risultato si puo anche esprimere usando il proiettore Pωi = |ωi〉〈ωi|

P (ωi) ∝ 〈ψ|ωi〉〈ωi|ψ〉 = 〈ψ|Pωi |ψ〉 = 〈ψ|PωiPωi |ψ〉 = 〈Pωiψ|Pωiψ〉 (2.4)

ovvero, la probabilita e la norma quadrata della proiezione del vettore di stato sull’auto-

vettore corrispondente all’autovalore misurato.

Possiamo fare alcune osservazioni:

i) - La teoria fa solo predizioni probabilistiche per i risultati di una misura. Inoltre i

soli possibili risultati della misura di una osservabile Ω sono i suoi autovalori.

Se la quantita’ che si misura corrisponde a un operatore hermitiano i risultati della misura

sono reali.

40

ii) - Dato che P (ωi) ∝ |〈ωi|ψ〉|2, |〈ωi|ψ〉|2 e solo una probabilita relativa. Per avere la

probabilita assoluta occorre dividere per tutti i risultati possibili

P (ωi) =|〈ωi|ψ〉|2∑j |〈ωj |ψ〉|2

=|〈ωi|ψ〉|2∑

j〈ψ|ωj〉〈ωj |ψ〉=|〈ωi|ψ〉|2

〈ψ|ψ〉(2.5)

Quindi se normalizziamo lo stato |ψ〉

|ψ′〉 =|ψ〉

[〈ψ|ψ〉]1/2]→ 〈ψ′|ψ′〉 = 1 (2.6)

si ha

P (ωi) = |〈ωi|ψ′〉|2 (2.7)

Questo risultato vale solo per stati normalizzabili. Il caso di vettori normalizzati alla delta

di Dirac verra riesaminato in seguito. Ovviamente due stati paralleli |ψ〉 e α|ψ〉 danno

luogo alla stessa distribuzione di probabilita. Pertanto a uno stato fisico non e realmente

associato un vettore nello spazio di Hilbert ma piuttosto una direzione o un raggio. Quin-

di quando si parla di stato di una particella si intende tipicamente uno stato normalizzato

〈ψ|ψ〉 = 1. Anche con questa ulteriore restrizione lo stato |ψ〉 non e univocamente fissato

dato che se |ψ〉 e normalizzato, anche eiθ|ψ〉 lo e e da la stessa distribuzione di probabilita

di |ψ〉. A volte questa liberta viene usata per scegliere le componenti di |ψ〉 reali in una

data base.

iii) - Nel caso in cui lo stato |ψ〉 coincida con un autovettore, o autostato |ωi〉 dell’o-

peratore Ω, il risultato della misura di Ω sara certamente ωi.

iv) - Nel caso in cui lo stato |ψ〉 sia una sovrapposizione di due autostati di Ω:

|ψ〉 =α|ω1〉+ β|ω2〉(|α|2 + |β|2)1/2

(2.8)

avremo

P (ω1) =|α|2

|α|2 + |β|2, P (ω2) =

|β|2

|α|2 + |β|2(2.9)

v) - Se vogliamo informazioni relativamente a un’altra osservabile Λ, occorre ripetere tutto

il procedimento visto sopra. Cioe trovare autovalori ed autovettori di Λ, da cui

P (Λ) = |〈λ|ψ〉|2 (2.10)

Vediamo dunque che il ket |ψ〉 che rappresenta lo stato del sistema contiene le

predizioni relative a tutte le possibili osservabili. Questo e’ analogo alla meccanica

classica in cui la conoscenza del punto dello spazio delle fasi in cui si trova il sistema

permette di calcolare tutte le osservabili del sistema.

vi) - Per passare dalla base degli autostati di Ω a quella degli autostati di Λ conviene

41

procedere nel seguente modo. Una volta determinate le componenti di |ψ〉 nella base |ωi〉,〈ωi|ψ〉, si puo passare alla base |λi〉 usando la seguente espressione per |ψ〉:

|ψ〉 =∑i

|ωi〉〈ωi|ψ〉 (2.11)

e proiettando su |λj〉〈λj |ψ〉 =

∑i

〈λj |ωi〉〈ωi|ψ〉 (2.12)

o

ψ(λ)j =

∑i

Sjiψ(ω)i (2.13)

con

Sji = 〈λj |ωi〉 (2.14)

La matrice S con elementi di matrice (2.14) e chiamata la matrice di transizione tra

le due basi e soddisfa

(S†S)ij =∑k

(S†)ikSkj =∑k

S∗kiSkj =∑k

〈λk|ωi〉∗〈λk|ωj〉 =

=∑k

〈ωi|λk〉〈λk|ωj〉 = 〈ωi|ωj〉 = δij (2.15)

cioe S e una matrice unitaria. Questo e generalmente vero per le matrici di transizione

che fanno passare da una base ortonormale a un’altra ortonormale.

Esempio: Consideriamo lo spazio V 3(R) e una base ortonormale corrispondente agli

autostati ortonormali di un operatore hermitiano Ω, con uno stato del sistema dato da

|ψ〉 =1

2|ω1〉+

1

2|ω2〉+

1√2|ω3〉 (2.16)

Segue che |ψ〉 e normalizzato1

4+

1

4+

1

2= 1 (2.17)

e quindi

P (ω1) =1

4, P (ω2) =

1

4, P (ω3) =

1

2(2.18)

Supponiamo adesso di avere un’altra osservabile Λ con un set completo di autostati dati

in termini degli autostati di Ω da

|ω1〉 = cos θ|λ1〉 − sin θ|λ2〉|ω2〉 = sin θ|λ1〉+ cos θ|λ2〉|ω3〉 = |λ3〉 (2.19)

Avremo dunque

|ψ〉 =1

2(cos θ|λ1〉 − sin θ|λ2〉) +

1

2(sin θ|λ1〉+ cos θ|λ2〉) +

1√2|λ3〉 (2.20)

42

da cui

|ψ〉 =1

2(cos θ + sin θ)|λ1〉+

1

2(cos θ − sin θ)|λ2〉+

1√2|λ3〉 (2.21)

e

P (λ1) =1

4(1 + sin 2θ)

P (λ2) =1

4(1− sin 2θ)

P (λ3) =1

2(2.22)

Ovviamente∑

i P (λi) = 1.

Sia nei postulati che nella discussione sin qui fatta ci sono alcune ambiguita e compli-

cazioni che adesso discuteremo:

La prescrizione Ω = ω(x→ X, p→ P ) e ambigua. Consideriamo ad esempio

ω = xp = px (2.23)

Ovviamente potremmo porre Ω = XP oppure Ω = PX, ma queste due espressioni non

coincidono. Infatti dal postulato 2)

〈x|P |x′〉 = −ih/ d

dxδ(x− x′) (2.24)

vediamo che

P = h/K (2.25)

dove K e l’operatore definito in (1.230). Segue dunque da (1.263) che

[X,P ] = ih/I 6= 0 (2.26)

In questo caso adotteremo la prescrizione di Weyl che consiste nel simmetrizzare in X e

in P , cioe

Ω =1

2(XP + PX) (2.27)

Vediamo che questa prescrizione rende anche l’operatore Ω hermitiano dato che

(XP )† = PX (2.28)

In casi piu complessi in cui Ω contenga prodotti di due o piu potenze di X con due o piu

potenze di P non esiste una prescrizione univoca ed occorre ricorrere all’esperimento.

L’operatore Ω e degenere. Supponiamo di avere due autovalori degeneri ω1 = ω2 = ω.

Come calcoliamo P (ω) in questo caso? A questo scopo scegliamo una base ortonormale

nell’autospazio Vω, |ω, 1〉 e |ω, 2〉. Supponiamo poi di partire da un caso non degenere in

cui i due autovalori siano ω e ω + ε. Inoltre supponiamo che

|ω〉 = |ω, 1〉, limε→0|ω + ε〉 = |ω, 2〉 (2.29)

43

Allora la probabilita di ottenere ω o ω + ε come risultato della misura e

P (ω o ω + ε) = |〈ω|ψ〉|2 + |〈ω + ε|ψ〉|2 (2.30)

E ragionevole supporre che il risultato rimanga tale nel limite ε→ 0 e quindi

P (ω) = |〈ω, 1|ψ〉|2 + |〈ω, 2|ψ〉|2 (2.31)

Se introduciamo l’operatore di proiezione sull’autospazio Vω

Pω = |ω, 1〉〈ω, 1|+ |ω, 2〉〈ω, 2| (2.32)

si ha

P (ω) = 〈ψ|Pω|ψ〉 = 〈Pωψ|Pωψ〉 (2.33)

Pertanto il postulato 3) si generalizza semplicemente dicendo che la probabilita di ottenere

l’autovalore ω come risultato della misura di Ω e data da

P (ω) ∝ 〈ψ|Pω|ψ〉 (2.34)

con Pω il proiettore sull’autospazio Vω.

Lo spettro di Ω e continuo. In questo caso si ha

|ψ〉 =

∫|ω〉〈ω|ψ〉dω (2.35)

Dato che ω varia con continuita chiameremo

〈ω|ψ〉 = ψ(ω) (2.36)

la funzione d’onda nello spazio ω o anche l’ampiezza di probabilita per ottenere

ω dalla misura di Ω. E ovvio che non possiamo interpretare |〈ω|ψ〉|2 come una proba-

bilita dato che ω assume infiniti valori e vogliamo una probabilita totale uguale ad uno.

Interpreteremo dunque P (ω) = |〈ω|ψ〉|2 come una densita di probabilita. Cioe

P (ω)dω = probabilita di trovare un risultato compreso tra ω e ω + dω

Con questa definizione, se |ψ〉 e normalizzata a uno si ha∫P (ω)dω =

∫〈ψ|ω〉〈ω|ψ〉dω = 〈ψ|ψ〉 = 1 (2.37)

quindi probabilita totale uguale ad uno. Se invece |ψ〉 non e normalizzabile allora P (ω) va

pensata come una densita di probabilita relativa. Un esempio importante e quello dell’o-

peratore X di posizione. La funzione d’onda nello spazio delle x si chiama semplicemente

la funzione d’onda. Osserviamo anche che una particella classica ha una posizione defi-

nita, mentre una particella quantistica puo assumere qualunque posizione e quindi |ψ(x)|2

rappresenta la densita di probabilita per trovare la particella al punto x. In fisica classica

44

dobbiamo specificare anche l’impulso per definire completamente lo stato di una particel-

la, invece in meccanica quantistica si da la densita di probabilita per ottenere un dato

valore dell’impulso. Ancora, questa non e una ulteriore informazione, infatti tale densita

si ottiene sempre dal vettore di stato |ψ〉 proiettando nella base |p〉, cioe da 〈p|ψ〉 = ψ(p).

La variabile Ω non ha analogo classico. Ci sono vari casi importanti in cui non

si ha analogo classico. Un esempio e lo spin dell’elettrone. In queste situazioni occorre

affidarsi all’intuizione e ad analogie, non dimenticando il confronto con i dati sperimentali.

2.1 Il collasso del vettore di stato

Abbiamo visto nel postulato 3) che il processo di misura cambia, in generale, lo stato del

sistema. Infatti se misuriamo l’osservabile Ω e |ωi〉 sono i suoi autovettori, lo stato del

sistema, che prima della misura era

|ψ〉 =∑i

|ωi〉〈ωi|ψ〉 (2.38)

viene proiettato nell’autovettore corrispondente all’autovalore ωi determinato dal processo

di misura

|ψ〉 =⇒misura|ωi〉 (2.39)

Notiamo che questa condizione, oltre ad essere verificata in innumerevoli esperimenti e’

anche una necessita’ logica della teoria. Infatti se non fosse cosi, la teoria non potrebbe fare

delle predizioni sui risultati sperimentali. Infatti il risultato di una misura non potrebbe

essere usato come dato iniziale di una successiva evoluzione del sistema. In altri termini

la teoria non sarebbe usabile ai fini pratici.

Vorremmo anche far notare una distinzione profonda tra il significato di misura in

fisica classica ed in meccanica quantistica. Quando si parla di misura in fisica classica

pensiamo di dover misurare il valore di una grandezza che corrisponde al valore che questa

grandezza ha nel sistema che stiamo misurando. Se misuriamo la velocita’ di una macchina

che risulta 10 m/sec., classicamente pensiamo che la macchina possieda quella velocita’

prima di effettuare la misura. In meccanica quantistica la situazione e’ profondamente

diversa a causa della natura probabilistica della teoria. Misurare significa determinare il

valore che ha una certa osservabile, dopo che l’abbiamo misurata. Prima della misura,

non sappiamo quale valore abbia la grandezza che misuriamo. Questa distinzione e’ da

tenere ben presente, perche’ spesso l’origine delle difficolta’ e’ nel diverso significato che

misura assume nei due contesti, classico o quantistico.

Occorre puntualizzare che in genere si intende di effettuare una misura ideale. Misura

ideale significa che se la si effettua su un autostato dell’osservabile che si sta misurando,

lo stato del sistema rimane inalterato.

In conclusione di questa analisi assumeremo che per ogni osservabile sia possibile una

misura ideale che lascia inalterati gli stati costituiti dagli autovettori dell’osservabile stessa.

45

Vediamo dunque che la differenza fondamentale tra meccanica classica e mecca-

nica quantistica e che in meccanica classica si possono fare, per ogni variabile,

delle misure ideali che lasciano invariati tutti gli stati del sistema; invece, in

meccanica quantistica, una misura ideale dell’osservabile Ω lascia invariati solo

i suoi autostati.

Ripetendo ancora una volta, se come risultato della misura di Ω il risultato e l’auto-

valore ω, allora l’effetto della misura e la proiezione

|ψ〉 =⇒misura

Pω|ψ〉〈Pωψ|Pωψ〉1/2

(2.40)

dove Pω e il proiettore sull’autospazio Vω. Notiamo anche che, nel caso degenere, se

conosciamo lo stato del sistema prima della misura, lo conosceremo anche dopo. Per

esempio, supponiamo che in questo caso la decomposizione del vettore di stato rispetto

all’osservabile Ω che si desidera misurare, sia

|ψ〉 =1

2|ω, 1〉+

1

2|ω, 2〉+

∑ωi 6=ω

αi|ωi〉 (2.41)

con l’autovalore ω doppiamente degenere. Supponiamo anche che il risultato della misura

sia proprio ω. Allora lo stato del sistema dopo la misura e certamente

|ψ〉 =⇒misura

1√2

(|ω, 1〉+ |ω, 2〉) (2.42)

Se invece lo stato non e noto, dopo la misura possiamo solo dire che lo stato appartiene

all’autospazio Vω e quindi

|ψ〉 =⇒misura

α|ω, 1〉+ β|ω, 2〉√α2 + β2

(2.43)

2.2 Come si verifica la teoria quantistica

La teoria quantistica fa delle predizioni probabilistiche riguardo ai risultati delle misure

su una particella che si trovi nello stato |ψ〉 e predice l’evoluzione temporale dello stato.

Quindi, per essere in grado di verificare una teoria quantistica occorre poter effettuare due

operazioni fondamentali:

1) Creare delle particelle in uno stato definito |ψ〉.

2) Controllare le predizioni probabilistiche agli istanti successivi.

Osserviamo che la proprieta del collasso dei vettori di stato ci permette di creare degli

stati ben definiti. Infatti possiamo partire da uno stato generico |ψ〉 e misurare una os-

servabile Ω. Se il risultato della misura e un autovalore non degenere (altrimenti sono

46

necessarie altre misure, vedi in seguito) sappiamo con certezza che il sistema si trova nel-

lo stato |ω〉. Se vogliamo misurare un’altra osservabile Λ subito dopo aver misurato Ω,

avremo uno sviluppo quale, ad esempio

|ω〉 =1√3

(|λ1〉+

√2|λ2〉

)(2.44)

In questo caso la teoria predice in modo univoco che si otterranno i valori λ1 e λ2 con

probabilita pari a 1/3 e 2/3 rispettivamente. Se ottenessimo come risultato λ 6= λ1, λ2

sapremmo con certezza che la nostra teoria e errata. Se viceversa si trova λ1 o λ2 e un

buon indizio che la teoria sia corretta. Pero questa non e la fine della storia. Infatti

dobbiamo ancora verificare che le probabilita sono proprio 1/3 e 2/3. D’altra parte, se

abbiamo trovato come risultato λ1, il sistema non si trova piu nello stato (2.44), ma nello

stato |λ1〉. Se quindi ripetessimo la misura di Λ troveremmo λ1 con probabilita uno.

Dobbiamo dunque ripetere l’esperimento partendo nuovamente con una particella nello

stato originale |ω〉. Quindi si deve considerare un insieme quantistico di N particelle

nello stesso stato (|ω〉 nell’esempio in discussione). Effettuando la misura di Λ su

tutte le particelle dell’insieme dovremmo dunque trovare in media N/3 particelle nello

stato |λ1〉 e 2N/3 particelle nello stato |λ2〉. La differenza con un insieme classico e che

con i risultati precedenti ottenuti dalla misura, nel caso classico si puo pensare che prima

della misura N/3 particelle fossero nello stato caratterizzato da λ = λ1 e 2N/3 nello stato

λ = λ2. Nel caso quantistico invece tutte e N le particelle sono nello stesso stato |ω〉 prima

della misura, ed in grado quindi di dare come risultato sia λ1 che λ2. Solo dopo la misura

N/3 particelle sono proiettate nello stato |λ1〉 e 2N/3 nello stato |λ2〉. La situazione e

completamente analoga a quanto abbiamo visto nell’esperimento di Young. Non possiamo

qui dire, prima della misura, che il sistema si trovava o nello stato |λ1〉 o nello stato |λ2〉,cosi come nell’esperimento di Young non si puo dire da quale delle due fenditure passa la

particella.

2.3 Valori medi (o di aspettazione)

Abbiamo visto che una volta assegnate N particelle nello stato |ψ〉 (supposto normalizzato)

e possibile prevedere quale frazione di esse da, come risultato della misura dell’osservabile

Ω, l’autovalore ω. Per questo e necessario risolvere il problema agli autovalori per Ω da

cui otterremo che la frazione desiderata sara

NP (ω) = N |〈ω|ψ〉|2 (2.45)

Se invece siamo interessati a conoscere il valor medio di Ω sull’insieme delle N

particelle in esame, possiamo eludere il problema agli autovalori. Infatti si avra, dalla

definizione di valor medio:

〈Ω〉 =∑i

ωiP (ωi) =∑i

ωi|〈ωi|ψ〉|2 =∑i

〈ψ|ωi〉ωi〈ωi|ψ〉 =

=∑i

〈ψ|Ω|ωi〉〈ωi|ψ〉 = 〈ψ|Ω|ψ〉 (2.46)

47

Dunque

〈Ω〉 = 〈ψ|Ω|ψ〉 (2.47)

La quantita’ 〈Ω〉 e’ detta anche valore di aspettazione o valore aspettato di Ω con termi-

nologia impropria. Piu’ corretto e’ chiamarla valor medio. Osserviamo che:

1) - Per calcolare il valor medio di Ω nello stato ψ basta conoscere lo stato e l’opera-

tore.

2) - Se la particella si trova in un autostato di Ω, |ω〉, allora

〈Ω〉 = ω (2.48)

3) - Quando parliamo di valore medio di una osservabile ci riferiamo sempre alla media

fatta sull’insieme. Una singola particella puo determinare un unico valore per la misura

di Ω.

Allorche si facciano considerazioni probabilistiche una quantita utile e la cosiddetta de-

viazione standard definita come

∆Ω = 〈(Ω− 〈Ω〉)2〉1/2 (2.49)

La quantita ∆Ω e anche detta l’indeterminazione su Ω. Si ha

∆Ω =[〈ψ|(Ω− 〈Ω〉)2|ψ〉

]1/2=[〈ψ|(Ω2 − 2Ω〈Ω〉+ 〈Ω〉2)|ψ〉

]1/2=

=[〈ψ|Ω2|ψ〉 − 〈ψ|Ω|ψ〉2

]1/2=[〈Ω2〉 − 〈Ω〉2

]1/2(2.50)

ovvero

∆Ω =[〈Ω2〉 − 〈Ω〉2

]1/2(2.51)

Esercizio: Dati i seguenti operatori su V 3(C)

Lx =1√2

0 1 01 0 10 1 0

, Ly =1√2

0 −i 0i 0 −i0 i 0

, Lz =

1 0 00 0 00 0 −1

(2.52)

1) - Quali sono i possibili autovalori di Lz? Chiaramente ±1, 0 visto che Lz e diagonale.

2) - Nell’ autostato di Lz con autovalore +1, quanto valgono 〈Lx〉, 〈L2x〉 e∆Lx? Iniziamo

calcolando l’autostato di Lz, con Lz = 1. Si ha

Lz|Lz = 1〉 ⇔

1 0 00 0 00 0 −1

x1

x2

x3

=

x1

0−x3

=

x1

x2

x3

(2.53)

48

da cui

x2 = x3 = 0 (2.54)

Quindi

|Lz = 1〉 ⇔

100

(2.55)

Pertanto

〈Lx〉 =1√2

(1 0 0

)0 1 01 0 10 1 0

100

= 0 (2.56)

Si ha poi

L2x ⇔

1

2

0 1 01 0 10 1 0

0 1 01 0 10 1 0

=1

2

1 0 10 2 01 0 1

(2.57)

Per cui

〈L2x〉 =

1

2

(1 0 0

)1 0 10 2 01 0 1

100

=1

2

(1 0 0

)101

=1

2(2.58)

e

∆Lx =[〈L2

x〉 − 〈Lx〉2]1/2

=[〈L2

x〉]1/2

=1√2

(2.59)

3) - Quali sono gli autovalori e gli autovettori di Lx nella base Lz? Dato che nella rap-

presentazione assegnata Lz e diagonale, la matrice di Lx e gia nella base Lz. Quindi gli

autovalori sono dati dall’equazione caratteristica data da

P (λ) = det

∣∣∣∣∣∣∣−λ 1√

20

1√2−λ 1√

2

0 1√2−λ

∣∣∣∣∣∣∣ = λ(1− λ2) = 0 (2.60)

Dunque gli autovalori sono λ = ±1, 0. Gli autovettori si ottengono facilmente, per esempio,

il caso λ = +1 si ottiene risolvendo

0 =

−1 1√2

01√2−1 1√

2

0 1√2−1

x1

x2

x3

=

−x1 + 1√2x2

1√2(x1 + x3)− x2

1√2x2 − x3

(2.61)

Risolvendo si ha

x1 =1√2x2, x3 =

1√2x2 (2.62)

Pertanto il vettore normalizzato e dato da

|Lx = 1〉 ⇔ 1√2

1√2

11√2

(2.63)

49

Analogamente si trova

|Lx = 0〉 ⇔ 1√2

−10

+1

(2.64)

|Lx = −1〉 ⇔ 1√2

1√2

−11√2

(2.65)

4) - Se la particella ha Lz = −1 e si misura Lx, quali sono i possibili risultati della misura

e le rispettive probabilita? I possibili risultati sono gli autovalori di Lx e quindi ±1, 0. Lo

stato in cui si trova la particella, avendo Lz = −1 e chiaramente

|ψ〉 ⇔

001

(2.66)

Quindi

P (Lx = +1) = |〈Lx = 1|ψ〉|2 =

∣∣∣∣∣∣(

12

1√2

12

)001

∣∣∣∣∣∣2

=1

4(2.67)

e inoltre

P (Lx = 0) = |〈Lx = 0|ψ〉|2 =1

2(2.68)

P (Lx = −1) = |〈Lx = −1|ψ〉|2 =1

4(2.69)

5) - Supponiamo che lo stato del sistema, nella base Lz, sia dato da

|ψ〉 ⇔

12121√2

(2.70)

Supponiamo inoltre di misurare L2z e di trovare il risultato +1, quale e lo stato del sistema

dopo la misura? L’operatore L2z e dato da

L2z ⇔

1 0 00 0 00 0 1

(2.71)

Quindi l’autovalore +1 di L2z e doppiamente degenere. Una base nell’autospazio corrispon-

dente a L2z = +1 e chiaramente

|L2z = +1, 1〉 = |Lz = +1〉 ⇔

100

|L2z = +1, 2〉 = |Lz = −1〉 ⇔

001

(2.72)

50

Il proiettore su questo autospazio e dato da

PL2z=1 ⇔

100

(1 0 0)

+

001

(0 0 1)

=

1 0 00 0 00 0 1

(2.73)

Pertanto

PL2z=1|ψ〉 ⇔

1 0 00 0 00 0 1

12121√2

=

1201√2

⇔ 1

2|Lz = +1〉+

1√2|Lz = −1〉 (2.74)

Lo stato normalizzato sara quindi

PL2z=1|ψ〉

||PL2z=1|ψ〉||1/2

=1√3|Lz = +1〉+

√2

3|Lz = −1〉 (2.75)

dove con il simbolo ||.|| intendiamo la norma quadrata di un vettore. Notiamo che la

probabilita di ottenere questo stato e data da

||PL2z=1|ψ〉|| =

1

4+

1

2=

3

4(2.76)

Se dopo aver misurato L2z misuriamo Lz troveremo +1 con probabilita 1/3 e −1 con pro-

babilita 2/3.

6) - Il sistema si trova in uno stato per il quale

P (Lz = +1) =1

4, P (Lz = 0) =

1

2, P (Lz = −1) =

1

4(2.77)

Quale e lo stato piu generale con questa proprieta? Chiaramente avremo

|ψ〉 = α|Lz = +1〉+ β|Lz = 0〉+ γ|Lz = −1〉 (2.78)

con

|α|2 =1

4, |β|2 =

1

2, |γ|2 =

1

4(2.79)

da cui

|ψ〉 =1

2eiδ1 |Lz = +1〉+

1√2eiδ2 |Lz = 0〉+

1

2eiδ3 |Lz = −1〉 (2.80)

Se per esempio calcoliamo la probabilita di trovare Lx = 0 in questo stato avremo

P (Lx = 0) = |〈Lx = 0|ψ〉|2 =1

4(1− cos(δ3 − δ1) (2.81)

Quindi questa probabilita dipende solo dalla differenza delle fasi δ3 e δ1. Infatti possiamo

sempre fattorizzare una fase nel nostro stato, per esempio δ1, ottenendo

|ψ〉 = eiδ1(

1

2|Lz = +1〉+

1√2ei(δ2−δ1)|Lz = 0〉+

1

2ei(δ3−δ1)|Lz = −1〉

)(2.82)

51

D’altra parte, come discusso in precedenza, possiamo identificare |ψ〉 con e−iδ1 |ψ〉 e quindi

la fisica dipende solo da due differenze di fase. Notiamo anche che nel caso particolare

δ1 = δ2 = δ3 si ha

|ψ〉 ⇔

121√2

12

⇔ |Lx = +1〉 (2.83)

mentre con δ2 − δ1 = π e δ3 − δ1 = 0

|ψ〉 ⇔

12− 1√

212

⇔ |Lx = −1〉 (2.84)

2.4 Variabili compatibili e incompatibili

Come abbiamo visto nelle sezioni precedenti, per una particella in uno dato stato |ψ〉una variabile dinamica non ha un valore definito a meno che lo stato non sia autostato

dell’osservabile. Un tale stato e ottenuto semplicemente misurando l’osservabile. L’atto

della misura fa collassare lo stato |ψ〉 nell’autostato |ω〉 con probabilita |〈ω|ψ〉|2. In que-

sta sezione estenderemo queste considerazioni al caso di piu osservabili. In particolare ci

porremo i seguenti problemi:

1) - E possibile definire un sistema di filtraggio in modo da produrre uno stato con valori

definiti per due osservabili Ω e Λ?

2) - Qual’e la probabilita per ottenere un tale stato?

Per il primo punto possiamo pensare di partire con uno stato |ψ〉 e misurare Ω. A

questo punto il sistema si trovera nell’autostato |ω〉. Se dopo questa misura misuriamo

immediatamente Λ trovando l’autovalore λ avremo:

|ψ〉 =⇒Ω |ω〉 =⇒

Λ |λ〉 (2.85)

D’altra parte in generale |ω〉 non e un autostato di Λ ne |λ〉 e un autostato di Ω, per cui ne

dopo la prima misura ne dopo la seconda avremo un autostato di entrambe le osservabili.

Ma se vogliamo un autostato di entrambe le osservabili, lo stato prodotto dalla prima

misura non deve essere modificato dalla seconda, cioe |ω〉 deve essere autostato di Λ. Per

dare risposta positiva al primo problema occorre dunque filtrare un autostato simultaneo

delle due osservabili

Ω|ω, λ〉 = ω|ω, λ〉, Λ|ω, λ〉 = λ|ω, λ〉 (2.86)

Queste due relazioni implicano

[Ω,Λ]|ω, λ〉 = 0 (2.87)

Vediamo che il commutatore [Ω,Λ] deve avere almeno un autovettore con autovalore nullo.

A questo proposito si possono avere tre possibilita distinte:

52

A) - Gli operatori Ω e Λ sono compatibili, cioe [Ω,Λ] = 0.

B) - Gli operatori sono incompatibili, cioe il commutatore e un operatore con nessun

autovalore nullo.

C) - Altri casi.

Consideriamo adesso i vari casi:

A) - Se Ω e Λ sono operatori hermitiani e compatibili esiste una base completa di auto-

stati simultanei. Ogni vettore di questa base ha un valore ben definito delle due osservabili.

B) - Consideriamo, per esempio gli operatori X e P . Come sappiamo

[X,P ] = ih/I (2.88)

Ovviamente

ih/I|ψ〉 6= 0 · |ψ〉 (2.89)

per qualunque |ψ〉 non banale. Pertanto X e P sono incompatibili non ammettendo auto-

vettori simultanei. Ogni misura che filtri un autostato di X viene distrutta da una misura

successiva di P . Come vedremo meglio in seguito questa e la base del principio di inde-

terminazione di Heisenberg.

C) - In alcuni casi e possibile trovare alcuni stati (ma non un set completo) che sono

autostati simultanei dei due operatori non commutanti.

Discutiamo adesso le probabilita (non discuteremo il caso C) che e di scarso interesse):

A) - Supponiamo di essere nel caso non degenere. In questo caso misurando Ω si proietta

il sistema in un autostato di Ω che e anche autostato di Λ. Quindi:

|ψ〉 =⇒Ω |ω, λ〉 (2.90)

e

P (ω) = |〈ω, λ|ψ〉|2 (2.91)

Dato che il sistema e anche in un autostato di Λ con autovalore λ, la probabilita di trovare

λ dopo la misura di Λ e uguale ad uno. Quindi

P (ω, λ) = |〈ω, λ|ψ〉|2 (2.92)

Se invertiamo il processo di misura (prima Λ e poi Ω) il risultato non cambia. In altri ter-

mini, in questi casi possiamo espandere il vettore di stato in un set completo di autovettori

53

delle due osservabili compatibili:

|ψ〉 =∑|ω, λ〉〈ω, λ|ψ〉 (2.93)

con

P (ω, λ) = P (λ, ω) = |〈ω, λ|ψ〉|2 (2.94)

Le due osservabili sono dette compatibili perche il processo di misura della seconda os-

servabile non altera l’autovalore ottenuto per la prima. Nel caso non degenere anche

l’autovettore non viene alterato. Questo puo invece succedere nel caso degenere. A titolo

esemplificativo consideriamo V 3(R) e due operatori Ω e Λ su questo spazio con Λ avente

un autovalore doppiamente degenere e una corrispondente base ortonormale data da

|ω1, λ〉, |ω2, λ〉, |ω3, λ3〉 (2.95)

Supponiamo poi di avere uno stato normalizzato

|ψ〉 = α|ω3, λ3〉+ β|ω1, λ〉+ γ|ω2, λ〉 (2.96)

Se misurando Ω si ottiene ω3, la misura successiva di Λ dara sicuramente λ3 con probabilita

per le due misure

P (ω3, λ3) = |α|2 (2.97)

Supponiamo invece di ottenere ω1 dalla prima misura, lo stato diventera |ω1, λ〉 e il risultato

di misurare Λ dara con certezza λ. La probabilita complessiva risultera pari a |β|2. Se

invece effettuiamo le misure in ordine inverso e il risultato della misura di Λ e λ, otterremo

lo stato normalizzato

|ψ′〉 =Pλ|ψ〉

|〈Pλψ|Pλψ〉|1/2=β|ω1, λ〉+ γ|ω2, λ〉

(β2 + γ2)1/2(2.98)

con probabilta

P (λ) = |β|2 + |γ|2 (2.99)

Se adesso misuriamo Ω otterremo lo stato |ω1, λ〉 con probabilita

P (ω1) =|β|2

|β|2 + |γ|2(2.100)

Quindi la probabilita di ottenere λ seguito da ω1 sara

P (λ, ω1) = P (λ)P (ω1) = (|β|2 + |γ|2)× |β|2

|β|2 + |γ|2= |β|2 = P (ω1, λ) (2.101)

Pertanto la probabilita non dipende dall’ordine delle misure nemmeno nel caso degenere.

D’altra parte lo stato puo cambiare. In generale possiamo dunque dire per osservabili

compatibili l’autovalore misurato nella prima misura non cambia a seguito della seconda

misura. Corrispondentemente anche l’autospazio non cambia. D’altra parte nel caso

degenere sappiamo che l’autospazio non determina univocamente un autovettore e quindi

54

il vettore di stato puo essere alterato dalla seconda misura. In conclusione un processo

di misura puo essere usato per preparare un sistema in un determinato stato quantico.

Se siamo nel caso degenere e misuriamo l’osservabile Ω possiamo solo dire che il vettore

risultante sta nell’autospazio Vω. Possiamo allora misurare una osservabile compatibile

con Ω, diciamo Λ. Se questa osservabile e non degenere nell’autospazio Vω otterremo un

vettore ben definito |ω, λ〉, altrimenti dovremo trovare una terza variabile compatibile Γ.

Alla fine di questo processo avremo rimosso tutta la degenerazione e avremo ottenuto uno

stato ben definito caratterizzato da tutti gli autovalori delle osservabili usate nella misura,

Ω, Λ, Γ, · · · :|ω, λ, γ, · · · 〉 (2.102)

Assumeremo che un tale sistema di osservabili compatibili esista sempre e lo chiameremo

un set completo di osservabili commutanti.

B) - Se Ω e Λ sono incompatibili possiamo ancora specificare quale sia la probabilita

di ottenere prima ω e poi λ dalle due misure in successione, ma invertendo l’ordine si ha

P (ω, λ) 6= P (λ, ω) (2.103)

Infatti la successione delle due misure da

|ψ〉 =⇒Ω |ω〉〈ω|ψ〉 =⇒

Λ |λ〉〈λ|ω〉〈ω|ψ〉 (2.104)

|ψ〉 =⇒Λ |λ〉〈λ|ψ〉 =⇒

Ω |ω〉〈ω|λ〉〈λ|ψ〉 (2.105)

Le rispettive probabilita sono dunque

P (ω, λ) = |〈λ|ω〉|2|〈ω|ψ〉|2 6= P (λ, ω) = |〈ω|λ〉|2|〈λ|ψ〉|2 (2.106)

Come vediamo le due probabilita differiscono in quanto, in generale 〈ω|ψ〉 6= 〈λ|ψ〉. Inoltre

dopo la seconda misura il sistema e autostato della seconda osservabile misurata e non piu

della prima.

Esempio: Consideriamo i due operatori ω = σx e λ = σz. Consideriamo inoltre lo

stato |ψ〉 che nella base in cui σz e diagonale e dato da

|ψ〉 ↔(αβ

)(2.107)

con α e β dati da

α = cos θe−iφ, β = sin θeiφ (2.108)

(vedi eq. 1.179). Supponiamo adesso di misurare prima σx e poi σz con risultato +1 in

entrambi i casi. Avremo (sempre nella base in cui σz e diagonale)

|σz = 1〉 ↔(

10

)(2.109)

55

e

|σx = 1〉 ↔ 1√2

(11

)(2.110)

I prodotti scalari che ci servono sono

〈λ|ω〉 = 〈σz = +1|σx = +1〉 =1√2

〈ω|λ〉 = 〈σx = +1|σz = +1〉 =1√2

〈ω|ψ〉 = 〈σx = +1|ψ〉 =1√2

(α+ β)

〈λ|ψ〉 = 〈σz = +1|ψ〉 = α (2.111)

Dunque in questo caso si ha

P (σz = 1, σx = 1) =1

2|α+ β|2 (2.112)

e

P (σx = 1, σz = 1) = |α|2 (2.113)

In termini dei parametri θ e φ si ha

P (σz = 1, σx = 1) =1

2(1 + sin 2θ cos 2φ) (2.114)

P (σx = 1, σz = 1) = cos2 θ (2.115)

56

Capitolo 3

Sistemi con piu’ gradi di liberta’

3.1 Generalizzazione dei postulati a sistemi con

piu gradi di liberta

L’estensione dei postulati a piu gradi di liberta e molto semplice e, nel caso di particelle

consiste nel modificare il postulato 2) come segue:

In corrispondenza alle n coordinate cartesiane x1, · · · , xn della teoria classica, esistono

n operatori commutanti X1, · · · , Xn. In una base simultanea di questi operatori

|x1, · · · , xn〉 (3.1)

si ha

〈x1, · · · , xn|x′1, · · · , x′n〉 = δ(x1 − x′1) · · · δ(xn − x′n) (3.2)

e

|ψ〉 ⇔ 〈x1, · · · , xn|ψ〉 = ψ(x1, · · · , xn) (3.3)

Xi|ψ〉 ⇔ 〈x1, · · · , xn|Xi|ψ〉 = xiψ(x1, · · · , xn) (3.4)

Pi|ψ〉 ⇔ 〈x1, · · · , xn|Pi|ψ〉 = −ih/ ∂

∂xiψ(x1, · · · , xn) (3.5)

Inoltre le variabili classiche dipendenti ω(xi, pj) vengono rappresentate dagli operatori

(modulo le ambiguita che abbiamo discusso in precedenza)

Ω = ω(xi → Xi, pi → Pi) (3.6)

Notiamo in particolare che

dP (x1, · · · , xn) = |ψ(x1, · · · , xn)|2dx1, · · · , dxn (3.7)

e la densita di probabilita affinche le coordinate siano comprese tra x1, · · · , xn e x1 +

dx1, · · · , xn + dxn.

57

E importante sottolineare che il postulato e formulato strettamente in termini delle

variabili cartesiane che definiscono il sistema, dato che solo in tal caso e possibile effettuare

le semplici sostituzioni operatoriali sulla funzione d’onda

Xi → xi, Pi → −ih/∂

∂xi(3.8)

Una volta effettuata questa sostituzione e poi possibile passare ad un generico sistema di

coordinate tramite la corrispondente sostituzione di variabili.

3.2 Prodotto tensoriale di spazi

Consideriamo adesso a scopo esemplificativo lo spazio di Hilbert relativo a due gradi di

liberta’ descritti da due operatori commutanti, ma queste considerazioni si estendono

facilmente ad un generico spazio di Hilbert in una base di n operatori commutanti.

Consideriamo allora lo spazio di Hilbert, H, come lo spazio degli autostati simultanei

di σ1z e σ2z. Vale a dire che stiamo considerando come gradi di liberta gli spin di due

particelle diverse. In genere, operatori che descrivono gradi di liberta diversi commutano

tra loro. Indicando gli autovalori di σ1z e σ2z con ±, invece di scrivere esplicitamente ±1,

si ha che i possibili stati, autostati di questi due operatori sono i seguenti quattro:

|+,+〉, |+,−〉, |−,+〉, |−,−〉 (3.9)

Dove gli spin delle due particelle, sono rispettivamente +1/2h/ per entrambe le particelle

per il primo stato, +1/2h/ per la prima particella e −1/2h/ per la seconda particella nel

secondo stato e cosi via1.

Quello che vogliamo fare e di costruire lo spazio descritto dalla base (3.9) in termini

dei due spazi di Hilbert descritti dalle basi in cui sono diagonali rispettivamente σ1z e σ2z.

Denoteremo questi due spazi con H1 e H2 e faremo vedere che e possibile, a partire da

questi due spazi, costruire uno spazio vettoriale, che chiameremo il prodotto tensoriale di

H1 eH2,H1⊗H∈. e mostreremo che questo spazio e equivalente adH. Costruiremo gli stati

del prodotto tensoriale partendo dagli operatori di particella singola e, per distinguerli da

σ1z e σ2 che agiscono nello spazio di Hilbert a 4 dimensioni complesse H, saranno denotati

da

σ(1)1z , σ

(2)2z (3.10)

Questi due operatori agiscono nei due spazi di Hilbert a due dimensioni complesseH1 eH2.

Supponiamo di misurare prima lo spin della particella 1, ottenendo cosi uno stato |±〉1 e

poi lo spin della particella 2 ottenendo lo stato |±〉2. Dato che i due operatori commutano,

lo stato della particella 1 non sara alterato da questa misura, e lo denoteremo come

|±〉1 ⊗ |±〉2 (3.11)

1Ricordiamo che la relazione tra gli operatori ~σ e di spin ~S e ~S = 1/2h/~σ

58

In questo modo si ottengono 4 stati indipendenti e il prodotto tensoriale ha le stesse

dimensioni di H. Dato che vogliamo ottenere uno spazio vettoriale, assumeremo che il

prodotto precedente sia lineare rispetto ai vettori di entrambi gli spazi, cioe

(α|ψ〉1 + β|φ〉1)⊗ |χ〉2 = α|ψ〉1 ⊗ |χ〉2 + β|φ〉1 ⊗ |χ〉2 (3.12)

|ψ〉1 ⊗ (α|φ〉2 + β|χ〉2) = α|ψ〉1 ⊗ |φ〉2 + β|ψ〉1 ⊗ |χ〉2 (3.13)

ed anche, per quanto riguarda la moltiplicazione per un numero complesso,

α(|ψ〉1 ⊗ |χ〉2) = (α|ψ〉1)⊗ |χ〉2) + |ψ〉1 ⊗ (α|χ〉2) (3.14)

In questo modo il prodotto tensoriale risulta uno spazio vettoriale con le stesse dimensioni

complesse di H. Inoltre i vettori di base che abbiamo scelto nelle due basi hanno lo stesso

significato fisico e quindi i due spazi sono equivalenti (o isomorfi in linguaggio matematico).

Le definizioni che qui abbiamo dato valgono per spazi vettoriali di qualunque dimensione.

Tornando al problema originario, dato che ogni vettore nello spazio di parcella singola si

puo espandere in una data base, avremo per generici vettori in H1 e H2:

|ψ〉1 =∑i=±

ci|i〉1, |χ〉2 =∑j=±

dj |j〉2 (3.15)

da cui

|ψ〉1 ⊗ |χ〉2 =∑i,j=±

cidj |i〉1 ⊗ |j〉2 (3.16)

dove abbiamo sfruttato la richiesta di linearita per il prodotto tensoriale. Dunque i vettori

|i〉1⊗ |j〉2 costituiscono una base per lo spazio prodotto tensoriale e un vettore generico si

scrivera nella forma

|ψ〉 =∑i,j=±

cij |i〉1 ⊗ |j〉2 (3.17)

Notiamo che non tutti i vettori del prodotto diretto si possono scrivere in termini del

prodotto tensore di due vettori, come nella (3.17). Questo sara possibile solo quando i

coefficienti cij si possono fattorizzare nella forma cidj . Notiamo anche che, per costruzione,

si ha l’identificazione

|i, j〉 = |i〉1 ⊗ |j〉2, i, j = ± (3.18)

essendo entrambi autostati degli stessi operatori.

Anche tutto questo si generalizza facilmente al prodotto tensore di due spazi V1 e V2

di dimensioni dimV1 = n e dimV2 = m. In questo caso il vettore piu generale sara

i=n,j=m∑i=1,j=1

Tij |i〉 ⊗ |j〉 (3.19)

Vediamo dunque che per spazi vettoriali finito-dimensionali si ha

dim(V1 ⊗ V2) = dimV1 · dimV2 (3.20)

59

Osserviamo anche che il prodotto diretto di due spazi e cosa diversa dalla somma diretta

per cui vale invece

dim(V1 ⊕ V2) = dimV1 + dimV2 (3.21)

Il prodotto interno in V1 ⊗ V2 e definito da

(〈ψ|1 ⊗ 〈χ|2)(|φ〉1 ⊗ |ρ〉2) = 〈ψ|φ〉1〈χ|ρ〉2 (3.22)

dove i due prodotti scalari sulla destra sono fatti negli spazi V1 e V2 rispettivamente. Il

prodotto scalare tra vettori generici si estende per linearita, esprimendo i vettori come

combinazione lineare di prodotti tensoriali. E anche utile esprimere gli operatori sugli

stati a due particelle in termini di operatori sugli spazi di particella singola.

Vogliamo adesso esprimere gli operatori σiz, operanti sullo spazio a due particelle,

in termini degli operatori σ(i)iz operanti sugli stati di particella singola. ad operatori che

agiscono sullo spazio prodotto tensoriale. Chiaramente si deve avere

σ(1)1z (|i〉1 ⊗ |j〉2) = i(|i〉1 ⊗ |j〉2), i, j = ± (3.23)

Quindi possiamo definire l’azione sul prodotto diretto come

σ1z(|i〉⊗|j〉2) = (σ(1)z1 (|i〉1 ⊗ I(2)|j〉2) (3.24)

dove I(2) e l’identita in H2. Cioe σz1 agisce di fatto solo sul primo ket. Piu generalmente,

dati due operatori A(1) e B(2) che agiscono rispettivamente in V1 e V2, possiamo definire

il loro prodotto diretto come

(A(1) ⊗B(2))|ψ1〉 ⊗ |φ2〉 = (A(1)|ψ1〉)⊗ (B(2)|φ2〉) (3.25)

Dunque potremo scrivere

σz1 = σ(1)z1 ⊗ I

(2) (3.26)

In modo analogo si ha

σz2 = I(1) ⊗ σ(2)z2 (3.27)

L’algebra degli operatori agenti su un dato spazio vettoriale si puo estendere al prodotto

diretto

(A(1) ⊗B(2)) · (C(1) ⊗D(2)) = (A(1)C(1))⊗ (B(2)D(2)) (3.28)

Segue dunque immediatamente che

[A(1) ⊗ I(2), I(1) ⊗B(2)] = 0 (3.29)

e

(A(1)⊗(2)1 +A

(1)⊗(2)2 )2 = (A

(1)1 )2 ⊗ I(2) + I(1) ⊗ (A

(2)2 )2 + 2A

(1)1 ⊗A

(2)2 (3.30)

Questa relazione e ovvia, dato che i due operatori commutano.

60

Torniamo adesso alla (3.17). Il suo significato e che i coefficienti cij sono le componenti

del vettore ψ nella base |i〉1 ⊗ |j〉i. Possiamo allora costruire l’equivalenza tra lo spazio

H e H1 ⊗H2 riordinando le componenti del prodotto tensoriale come un vettore colonna¡

Vediamo un esempio:

|+〉1 ⊗ |+〉2 ↔(

10

)1

⊗(

10

)2

1000

(3.31)

Infatti, in questo caso, le componenti del prodotto tensoriale si ottengono moltiplicando

tra loro le componenti dei vettori di particella singola e abbiamo scelto di ordinare le com-

ponenti del prodotto tensoriale nell’ordine c1d1, c2d1, c2d1, c2d2, con ici e di le componenti

dei vettori nei due spazi vettoriali. Ovviamente si sarebbe potuto scegliere anche un altro

ordine di moltiplicazione, il che sarebbe equivalse solo allo scambio di alcune componenti

del vettore prodotto diretto. In maniera analoga si possono costruire tutti i vettori di base

nel prodotto diretto:

|−〉1 ⊗ |+〉2 ↔(

01

)1

⊗(

10

)2

0100

(3.32)

|+〉1 ⊗ |−〉2 ↔(

10

)1

⊗(

01

)2

0010

(3.33)

|−〉1 ⊗ |−〉2 ↔(

01

)1

⊗(

01

)2

0001

(3.34)

Vediamo dunque che questi vettori sono effettivamente una base nello spazio prodotto

diretto a 4 dimensioni complesse. In maniera assolutamente analoga e possibile costruire,

a partire dagli operatori negli spazi di particella singola, gli operatori nello spazio a due

particelle. E sufficiente usare la stessa regola di prodotto usata per i vettori2. Per esempio:

σ1z = σ(1)1z ⊗ I

(2) ↔(

1 00 −1

)⊗(

1 00 1

)↔

1 0 0 00 −1 0 00 0 1 00 0 0 −1

(3.35)

e

σ2z = I(1) ⊗ σ(2)2z ↔

(1 00 1

)⊗(

1 00 −1

)↔

1 0 0 00 1 0 00 0 −1 00 0 0 −1

(3.36)

2Questo si puo giustificare rigorosamente utilizzando la rappresentazione spettrale deglioperatori

61

Notiamo infine che la relazione di completezza per lo spazio prodotto tensoriale e data

in generale da:i=n,j=m∑i,j=1

(|i〉1 ⊗ |j〉2) (〈i|1 ⊗ 〈j|2) = I(1) ⊗ I(2) (3.37)

In seguito ometteremo di indicare con gli indici 1 e 2 i vettori degli spazi di particella

singola in quanto i vettori dei due spazi sono univocamente determinati dall’ordine in cui

appaiono nel prorotto tensoriale, il primo a sinistra e il secondo a destra.

3.3 Particelle identiche

3.3.1 Il caso classico

Definiremo particelle identiche le particelle che sono repliche esatte le une delle altre per

quanto concerne le loro caratteristiche intrinseche, cioe massa, spin, momento magnetico,

ecc. Per esempio due elettroni sono da considerarsi come identici. Ovviamente non ci rife-

riamo alle loro caratteristiche contingenti quali la loro posizione o il loro impulso. Questa

definizione rimane valida sia nel caso classico che in quello quantistico, ma le implicazioni

sono enormemente diverse nei due casi. Classicamente e infatti possibile, almeno in linea

di principio, assegnare una descrizione spazio-temporale completa di ciascuna particella

del sistema. Pertanto anche particelle identiche possono essere identificate dalla loro storia

spazio-temporale. E come se potessimo assegnare a ognuna un segnaposto che le segue in

tutta la loro evoluzione. Dunque a livello classico non c’e poi molta distinzione tra par-

ticelle identiche e non identiche. Per esemplificare questo punto consideriamo un biliardo

e due palle una vicina alla buca 1 e l’altra alla buca 2. Queste palle saranno chiamate

rispettivamente palla 1 e palla 2 (vedi Figura 3.1).

In questa configurazione le due palle sono chiaramente distinguibili a causa della loro

diversa posizione spaziale, se pero le scambiassimo troveremmo una configurazione equiva-

lente. Per essere sicuri che le particelle sono distinguibili occorre mostrare che e possibile

trovare un esperimento in cui le due configurazioni non sono equivalenti. Immaginiamo

allora che due giocatori colpiscano le palle che si urtano al centro del biliardo e finiscono

nelle buche 3 e 4, come mostrato in Figura 3.1. Se chiedessimo a due fisici di predirre il

risultato avremmo due possibili risposte:

A1 :palla 1 in buca 3palla 2 in buca 4

t = T

A2 :palla 1 in buca 4palla 2 in buca 3

t = T (3.38)

Ma l’esperimento dice che si verifica A1 e quindi A1 e giusta mentre A2 e errata. Ovvia-

mente le due possibilita a t = T sono completamente equivalenti (cosı come vi erano due

possibilita equivalenti a t = 0), cioe se un osservatore osserva solo il risultato a t = T non

avra modo di sapere quale delle due risposte e esatta. Cio che ci permette di sapere che la

risposta giusta e proprio A1 e la conoscenza della storia spazio-temporale delle due palle.

62

1 2

3 4t=T

t=0

Figura 3.1: L’esempio del tavolo da biliardo discusso nel testo.

In modo analogo, le due situazioni apparentemente equivalenti a t = 0 non lo sarebbero

per qualcuno che avesse seguito la storia precedente delle due palle. Come conseguenza

in meccanica classica e possibile distinguere due particelle identiche dal fatto che le loro

storie spazio-temporali non sono identiche. D’altra parte, in meccanica quantistica non e

possibile ricostruire la storia spazio-temporale di una particella in modo completo e per-

tanto due configurazioni che differiscono per lo scambio di due particelle identiche devono

essere trattate come la stessa configurazione

3.3.2 Il caso di due particelle identiche. Stati simmetrici edantisimmetrici

Consideriamo, nel caso quantistico, il caso di due particelle distinguibili, 1 e 2. Se si

effettua una misura di posizione trovando 1 in x = a e 2 in x = b, il vettore di stato sara

|ψ〉 = |x1 = a, x2 = b〉 ≡ |a, b〉 (3.39)

Se la particella 1 fosse misurata in b e la 2 in a, a causa della distinguibilita i due vettori

di stato sarebbero diversi

|ψ′〉 = |x1 = b, x2 = a〉 ≡ |b, a〉 6= |ψ〉 (3.40)

Se invece le due particelle sono identiche e denotiamo il vettore di stato con |ψ(a, b)〉,dovremo avere che questo e il vettore che corrisponde allo scambio delle due particelle

63

|ψ(b, a)〉 sono fisicamente equivalenti, cioe

|ψ(a, b)〉 = α|ψ(b, a)〉 (3.41)

con α un numero complesso. Ovviamente non possiamo identificare il vettore di stato

|ψ(a, b)〉 ne con |a, b〉 ne con |b, a〉. Questo e cosı sia matematicamente che fisicamente,

in quanto nel caso di particelle identiche non possiamo attribuire il risultato x1 = a ed

x2 = b rispettivamente alle particelle 1 e 2 e nemmeno alle particelle 2 ed 1, proprio

per l’indistinguibilita3. Ma questo significa che noi non possiamo distinguere tra i due

stati |a, b〉 e |b, a〉, e pertanto possiamo assumere che il vettore di stato cercato sia una

combinazione lineare di questi due vettori

|ψ(a, b)〉 = β|a, b〉+ γ|b, a〉 (3.42)

Richiedendo la (3.41) si ha

β|a, b〉+ γ|b, a〉 = α(β|b, a〉+ γ|a, b〉) (3.43)

da cui

β = αγ, γ = αβ (3.44)

Segue dunque

α2 = 1 ⇒ α = ±1 (3.45)

Gli stati corrispondenti risultano (a meno della normalizzazione)

α = +1, β = +γ, |a, b, S〉 = |a, b〉+ |b, a〉 (3.46)

α = −1, β = −γ, |a, b, A〉 = |a, b〉 − |b, a〉 (3.47)

Una data specie di particelle deve necessariamente adeguarsi a una e una sola di queste due

possibilita. Se cosı non fosse sarebbe possibile costruire un vettore del tipo α|a, b, S〉 +

β|a, b, A〉 che pero non ha proprieta di simmetria definita rispetto allo scambio a ↔ b.

Le particelle con vettori di stato simmetrici sono dette bosoni, mentre le particelle

con vettori di stato antisimmetrici sono dette fermioni. Esempi di bosoni sono i

fotoni, i gravitoni, i pioni. Esempi di fermioni sono gli elettroni, i protoni, i neutroni, i

quark. E uno dei risultati piu importanti della teoria quantistica dei campi il Teorema

spin-statistica che asserisce che i bosoni hanno spin intero, mentre i fermioni hanno spin

semintero (vedi in seguito per lo spin).

Dunque se misuriamo le posizioni di due bosoni con risultati x1 = a e x2 = b, dopo la

misura lo stato del sistema sara certamente

|ψ〉 = |a, b, S〉 = |a, b〉+ |b, a〉 (3.48)

3E come se considerassimo la misura di X1 + X2 con autovalore a + b. Ovviamente questoautovalore non risente del modo in cui siano assegnati a e b.

64

Questo risultato vale per la misura di qualunque osservabile, se misuriamo Ω ottenendo

come risultati ω1 e ω2, il vettore di stato dopo la misura sara |ω1, ω2, S〉 o |ω1, ω2, A〉 a

seconda che si abbiano due bosoni o due fermioni.

Notiamo che per due fermioni si ha

|ω, ω,A〉 = |ω, ω〉 − |ω, ω〉 = 0 (3.49)

La conseguenza di questo risultato e il Principio di esclusione che afferma che due

fermioni non possono trovarsi nello stesso stato quantico.

Tutto questo si generalizza al caso tridimensionale, ma ovviamente lo stato e ora

caratterizzato da piu variabili. Per esempio potremo avere uno stato di particella singola

del tipo |ω, s〉 con ω che caratterizza i gradi di liberta orbitali e s lo spin. In questo caso

la funzione d’onda di due fermioni sara

|ω1, s1;ω2, s2, A〉 = |ω1, s1;ω2, s2〉 − |ω2, s2;ω1, s1〉 (3.50)

Questa e zero se

ω1 = ω2 e s1 = s2 (3.51)

Pertanto due elettroni possono stare nello stesso stato orbitale, ω1 = ω2, se e solo se gli

spin sono diversi, s1 6= s2.

3.3.3 Quando si puo ignorare la simmetrizzazione o l’anti-simmetrizzazione della funzione d’onda?

Considerando due particelle identiche molto ben separate spazialmente ci aspetteremmo

anche nel caso quantistico di poterle pensare come particelle distinte e quindi di poter

ignorare la simmetrizzazione o l’antisimmetrizzazione della funzione d’onda. Per esempli-

ficare consideriamo due particelle identiche entrambe descritte da un pacchetto gaussiano,

uno centrato sulla terra, ψT (xT ), e l’altro centrato sulla luna, ψL(xL). Dunque le funzioni

d’onda saranno del tipo

ψT (xT ) = AT exp

(−(xT − aT )

2∆2T

), ψL(xL) = AL exp

(−(xL − aL)

2∆2L

)(3.52)

dove assumeremo che aT sia un punto sulla terra e aL un punto sulla luna. Queste

funzioni d’onda implicano che l’elettrone descritto da xT sara in vicinanza di aT , mentre

l’elettrone descritto da xL sara in vicinanza di aL, dato che la probabilita di trovarli in

posti che distano dai punti aTL piu di qualche unita di ∆TL e molto piccola. Dunque se

le due particelle fossero distinguibili, e l’hamiltoniana che descrive il sistema non contiene

interazioni tra queste particelle, la loro funzione d’onda sarebbe

ψ(xL, xT ) = ψT (xT )ψL(xL) (3.53)

Se scambiamo tra loro gli argomenti delle funzioni d’onda, si ottiene

ψ(xL, xT ) = ψT (xL)ψL(xT ) (3.54)

65

Entrambi i fattori sono molto piccoli, dato che l’elettrone descritto da xT sta in vicinanza

della terra, mentre quello descritto da xL sta in vicinanza della luna.

Osserviamo che tutto questo ha senso se la particella sulla luna e quella sulla terra

rimangono ben separate per tutti i valori di interesse del tempo, altrimenti l’argomento

cade non appena le funzioni d’onda hanno un overlapping apprezzabile. Per esempio se

considerassimo due bosoni descritti da due gaussiane centrate in punti a e b ben separati

all’istante iniziale, dopo qualche tempo cio’ non sarebbe piu’ possibile dato che si puo’

dimostrare che col passare del tempo la larghezza di una gaussiana aumenta e quindi non

potremmo piu’ trascurare la sovrapposizione dei pacchetti. Un’altra osservazione e che

quando si parla di sovrapposizione di funzioni d’onda ci stiamo sempre riferendo a uno

spazio particolare. Nell’esempio precedente le due funzioni non hanno sovrapposizione

nello spazio delle configurazioni, ma l’hanno nello spazio degli impulsi, e quindi in questo

spazio non possiamo ignorare la simmetrizzazione. Se invece consideriamo due particelle

con pacchetti centrati uno a un impulso piccolo e l’altro a impulso grande si puo ignorare

la simmetrizzazione nello spazio degli impulsi ma non in quello delle coordinate.

66

Capitolo 4

L’equazione di Schrodinger

4.1 Soluzione dell’equazione di Schrodinger

Dopo questa lunga discussione sui primi tre postulati prendiamo adesso in esame il 4) po-

stulato, cioe l’esistenza di una equazione che determina l’evoluzione temporale del vettore

di stato, l’equazione di Schrodinger

ih/∂

∂t|ψ〉 = H|ψ〉 (4.1)

Divideremo la discussione in tre fasi:

1) - Scrittura dell’equazione di Schrodinger per il problema in esame.

2) - Studio generale della soluzione.

3) - La scelta della base.

4.1.1 Scrittura dell’equazione di Schrodinger

Il postulato 4) ci dice che l’operatore H e il corrispondente dell’hamiltoniana classica,

quindi ottenibile da essa tramite l’usuale sostituzione x → X, p → P . Per esempio, per

un oscillatore armonico unidimensionale

Hclas =1

2mp2 +

1

2mω2x2 (4.2)

e quindi

H =1

2mP 2 +

1

2mω2X2 (4.3)

4.1.2 Studio generale della soluzione

Iniziamo considerando il caso in cui l’operatore H non abbia una esplicita dipendenza dal

tempo. In questo caso l’equazione di Schrodinger

ih/ |ψ〉 = H|ψ〉 (4.4)

67

si puo’ risolvere usando il cosi detto metodo del propagatore. Il metodo consiste nello

sfruttare la linearita’ dell’equazione Schrodinger che ci permette di trovare la soluzione

applicando un opportuno operatore lineare al vettore di stato iniziale. Questo operatore

e’ detto il propagatore o l’operatore di evoluzione temporale. Il fatto che la soluzione

dipenda solo dalla funzione d’onda iniziale segue perche’ l’equazione e’ del primo ordine

nella derivata temporale. Dunque avremo

|ψ(t)〉 = U(t)|ψ(0)〉 (4.5)

Possiamo determinare U(t) usando gli autovettori dell’hamiltoniana. L’equazione agli

autovalori per H sara

H|E〉 = E|E〉 (4.6)

Questa equazione viene anche chiamata l’equazione di Schrodinger indipendente dal

tempo. Supponiamo di averla risolta, allora potremo scrivere

|ψ(t)〉 =∑E

|E〉〈E|ψ(t)〉 =∑E

aE(t)|E〉 (4.7)

con

aE(t) = 〈E|ψ(t)〉 (4.8)

Inserendo la (4.7) nell’equazione di Schrodinger si trova

ih/∂aE(t)

∂t= ih/〈E|ψ(t)〉 = 〈E|H|ψ(t)〉 = EaE(t) (4.9)

che possiamo integrare immediatamente ottenendo

aE(t) = aE(0)e−iEt

h/ , aE(0) = 〈E|ψ(0)〉 (4.10)

Pertanto

〈E|ψ(t)〉 = e−iEt

h/ 〈E|ψ(0)〉 (4.11)

e

|ψ(t)〉 =∑E

|E〉〈E|ψ(0)〉e−iEt

h/ (4.12)

o anche

U(t) =∑E

|E〉〈E|e−iEt

h/ (4.13)

Nel caso in cuiH abbia autovalori degeneri, la somma andra su ulteriori indici che dovranno

tener conto della degenerazione, cosı come se lo spettro di H (cioe l’insieme dei suoi

autovalori) e continuo, al posto della somma avremo un integrale. Si puo anche avere il

caso di operatori con spettro sia discreto che continuo, in tal caso la somma dovra essere

68

sostituita da una somma sugli autovalori discreti piu un integrale sugli autovalori continui,

ecc. In particolari gli stati

|E(t)〉 = |E〉e−iEt

h/ (4.14)

sono detti modi normali o stati stazionari del sistema. Questo ultimo nome segue

dal fatto che se il sistema si trova in un tale stato, la distribuzione di probabilita di una

qualunque osservabile e costante nel tempo:

P (ω, t) = |〈ω|E(t)〉|2 =

∣∣∣∣∣∣∣〈ω|E(0)〉e−iEt

h/

∣∣∣∣∣∣∣2

= |〈ω|E(0)〉|2 = P (ω, 0) (4.15)

L’operatore di evoluzione dato in (4.13) puo anche essere scritto nella forma

U(t) = e−iHt

h/ (4.16)

Infatti si ha

U(t) =∑E

|E〉〈E|e−iEt

h/ =∑E

|E〉〈E|e−iHt

h/ = e−iHt

h/ (4.17)

dove abbiamo usato prima il fatto che gli stati |E〉 sono autostati di H (operatore hermi-

tiano) e poi la loro completezza. Si verifica anche immediatamente che

|ψ(t)〉 = e−iHt

h/ |ψ(0)〉 (4.18)

soddisfa l’equazione di Schrodinger

ih/∂

∂t|ψ(t)〉 = ih/

∂te−iHt

h/ |ψ(0)〉 = He−iHt

h/ |ψ(0)〉 = H|ψ(t)〉 (4.19)

Inoltre, dato che H e un operatore hermitiano, U(t) e un operatore unitario

U †(t) = U−1(t) (4.20)

Una conseguenza importante di questa relazione e che la norma di un vettore non cambia

con il tempo

〈ψ(t)|ψ(t)〉 = 〈ψ(0)|U †(t)U(t)|ψ(0)〉 = 〈ψ(0)|ψ(0)〉 (4.21)

Dunque l’evoluzione temporale di uno stato puo essere pensata come una rotazione del

vettore nello spazio di Hilbert. Questo modo di pensare offre la possibilita di descrizioni

diverse della dinamica. Per esempio invece di usare una base fissa potremo usarne una che

ruoti come i vettori di stato (cioe ottenuta applicando ai vettori di base l’operatore U(t)).

In questo caso il vettore di stato appare fisso, mentre gli operatori si evolvono nel tempo.

D’altro canto, avendo a che fare con una trasformazione unitaria, gli elementi di matrice

degli operatori sono invarianti. Una tale rappresentazione e detta rappresentazione di

Heisenberg, mentre quella fin qui usata e detta di Schrodinger.

69

4.1.3 L’equazione di Schrodinger per una particella libera

Consideriamo il caso di una particella libera in una dimensione. L’hamiltoniana e’ data

da

H =P 2

2m(4.22)

E’ evidente che gli autostati dell’impulso diagonalizzano anche l’hamiltoniana. Inoltre

l’equazione di Schrodinger stazionaria nello spazio delle coordinate

〈x|H|E〉 = E〈x|E〉 (4.23)

da luogo alla seguente equazione differenziale

− h/2

2m

d2

dx2ψE(x) = EψE(x), ψE(x) = 〈x|E〉 (4.24)

e dato che gli autostati dell’impulso sono dati da

1√2π

exp(ipx/h/) (4.25)

avremo

ψE(x) =1√2π

exp(ipx/h/), E =p2

2m(4.26)

Evidentemente l’autofunzione dell’impulso con p e quella con −p danno luogo allo stesso

autovalore dell’energia. Dunque gli autostati di H sono doppiamente degeneri. L’evolu-

zione di questi stati sara’ data da

ψE(x, t) = 〈x|E, t〉 = 〈x| exp(−iHt/h/)|E〉 = exp(−iEt/h/)ψE(x) =1√2π

exp(i(px−Et)/h/)

(4.27)

Dato che l’esponenziale si puo’ decomporre nella forma

exp(i(px− Et)/h/) = cos((px− Et)/h/) + i sin((px− Et)/h/) (4.28)

vediamo che la soluzione e’ un’onda piana con vettore d’onda

k =2π

λ=p

h/(4.29)

e frequenza data dalla relazione

ω = 2πν =E

h/(4.30)

da queste due formule segue

λ =h

p, ν =

E

h(4.31)

cioe’ le due relazioni di De Broglie che connettono le caratteristiche di una particella, E

e p con quelle dell’onda associata ν e λ. Quindi l’onda di De Broglie altro non e’ che

l’autovettore dell’hamiltoniana di particella libera proiettato nella base delle x.

70

Consideriamo una particella libera con una funzione d’onda gaussiana di larghezza ∆

al tempo t = 0

ψ(x, t = 0) =1

(π∆2)1/4e−

(x− a)2

2∆2 (4.32)

E’ possibile calcolare come questa funzione si evolve con il tempo. Senza entrare in det-

tagli e’ possibile dimostrare che il pacchetto rimane gaussiano ma con una larghezza che

aumenta con il tempo. Per calcolare l’aumento di larghezza, possiamo notare che a causa

della indeterminazione sull’impulso e quindi sulla velocita’, questo da’ luogo ad una inde-

terminazione sulla posizione data da (notiamo che la particella libera si muove di moto

uniforme)

∆X(t) = ∆v(0)t =∆P

mt =

h/t√2m∆

≈ h/t

m∆(4.33)

Questa ultima relazione puo’ essere dimostrata rigorosamente per tempi sufficientemente

grandi

Notiamo che per una particella macroscopica, con m = 1 gr e ∆ = 10−13 cm, si ha

∆v(0) ≈ 1.05× 10−34

10−3 × 10−15≈ 10−16m/sec (4.34)

Se assumiamo t ≈ 300, 000 anni (1 anno ≈ 3× 107 sec) si ha

∆X(t) ≈ 9× 1012 × 10−16 ≈ 10−3 m (4.35)

Dunque la dispersione per una particella macroscopica impiega tempi enormemente lunghi

prima di diventare essa stessa macroscopica. Corrispondentemente le particelle macrosco-

piche possono essere trattate con la meccanica classica.

4.2 Equazione di Schrodinger per due particelle

L’equazione di Schrodinger per un sistema a due particelle e

ih/ |ψ〉 =

(1

2m1P 2

1 +1

2m2P 2

2 + V (X1, X2)

)|ψ〉 = H|ψ〉 (4.36)

Il problema si puo dividere in due classi:

Classe A: H separabile:

V (X1, X2) = V1(X1) + V2(X2) (4.37)

In questo caso

H = H1 +H2 (4.38)

con

Hi =1

2miP 2i + Vi(Xi), i = 1, 2 (4.39)

71

Classicamente le due particelle descritte dalle due hamiltoniane si evolvono in modo del

tutto indipendente e le loro energie sono separatamente conservate, mentre l’energia totale

del sistema e data da E = E1 + E2. Consideriamo dunque uno stato stazionario

|ψ(t)〉 = |E〉e−iEt

h/ (4.40)

con

H|E〉 = (H1(X1, P1) +H2(X2, P2))|E〉 = E|E〉 (4.41)

Dato che le due hamiltoniane commutano tra loro

[H1(X1, P1), H2(X2, P2)] = 0 (4.42)

segue che si possono trovare autostati simultanei del tipo prodotto diretto

|E1, E2〉 = |E1〉 ⊗ |E2〉 (4.43)

con

H(1)1 |E1〉 = E1|E1〉

H(2)2 |E2〉 = E2|E2〉 (4.44)

Quindi selezionando uno stato |E〉 = |E1〉 ⊗ |E2〉 si ha

H|E〉 = (H1 +H2)|E1〉 ⊗ |E2〉 = (E1 + E2)|E〉 = E|E〉 (4.45)

con

E = E1 + E2 (4.46)

Ovviamente |E1〉 ⊗ |E2〉 ci fornisce una base in V1 ⊗ V2 e si ha

|ψ(t)〉 = |E1〉e−iE1t

h/ ⊗ |E2〉e−iE2t

h/ (4.47)

Osserviamo che una volta trovate le soluzioni fattorizzate gli autostati piu generali

sono

|E〉 =∑E1,E2

cE1,E2δE,E1+E2 |E1〉 ⊗ |E2〉 (4.48)

o, nella base delle coordinate

ψE(x1, x2) =∑E1,E2

cE1,E2δE,E1+E2ψE1(x1)ψE2(x2) (4.49)

Classe B: H non separabile:

V (x1, x2) 6= V1(x1) + V2(x2) (4.50)

In generale non si puo fare molto, ma ci sono circostanze in cui la teoria puo risultare

separabile se espressa in altre coordinate. Un esempio e’ il problema a due corpi con

una forza di interazione che dipende solo dalla distanza. In questo caso kl’hamiltoniana e

separabile nelle variabili del centro di massa e nelle variabili relative.

72

4.3 Piu particelle in piu dimensioni

Il problema di N particelle in D dimensioni, corrispondendo a N · D gradi di liberta e

matematicamente equivalente a quello di tante particelle unidimensionali. D’altra parte

risulta conveniente usare un simbolismo un po diverso e che dipende esplicitamente dal

numero di dimensioni che stiamo considerando. Per esempio, gli autostati delle coordinate

in 3 dimensioni verranno denotati da |~x〉 e cosi via.

Esempio: La particella libera in 3 dimensioni.

H =1

2m~p 2 =

3∑i=1

1

2mp2i (4.51)

I possibili autovalori dell’energia si ottengono immediatamente e sono dati da

E = E1 + E2 + E3 =3∑i=1

p2i

2m=

~p 2

2m(4.52)

Le autofunzioni dell’energia sono date da

ψE(~x) =3∏i=1

ψEi(xi) =1√

(2π)3exp(i~p · ~x− Et)/h/) (4.53)

dove ψEi(xi) sono le autofunzioni della particella libera unidimensionale. Notiamo che

qualunque autofunzione dell’impulso con |~p| fissato e’ autofunzione dell’energia con E =

|~p|2/(2m). Quindi si ha una degenerazione infinita.

73

Capitolo 5

Principio di indeterminazione elimite classico

5.1 Principio di indeterminazione

Abbiamo fin qui mostrato varie situazioni in cui il principio di indeterminazione esplica i

suoi effetti. Passiamo adesso a una dimostrazione formale. Infatti questo principio, seb-

bene sia uno dei capisaldi fisici su cui si regge la meccanica quantistica, dal punto di vista

della formulazione in termini dei postulati risulta una semplice conseguenza del formali-

smo. Abbiamo gia mostrato che due osservabili che non commutano sono incompatibili,

cioe non e possibile definire un processo di misura tale da misurare simultaneamente que-

ste osservabili. Questo fatto, che e appunto la base del principio di indeterminazione, puo

essere espresso in modo piu quantitativo in termini delle indeterminazioni sulle osservabili

in esame. Consideriamo allora due osservabili hermitiane, A e B, tali che

[A,B] = iC (5.1)

con C una terza variabile hermitiana. Supponiamo che il sistema si trovi in un dato stato

|ψ〉 e definiamo nuove osservabili sottraendo il valore di aspettazione delle precedenti

A = A− 〈A〉, B = B − 〈B〉 (5.2)

Avremo

(∆A)2(∆B)2 = 〈ψ|A2|ψ〉〈ψ|B2|ψ〉 = 〈Aψ|Aψ〉〈Bψ|Bψ〉 (5.3)

Facendo uso della disuguaglianza di Schwarz (vedi Sezione 1.2.2)

|v1|2|v2|2 ≥ |〈v1|v2〉|2 (5.4)

dove il segno di uguaglianza vale solo per vettori paralleli, segue

(∆A)2(∆B)2 ≥ |〈Aψ|Bψ〉|2 = |〈ψ|AB|ψ〉|2 =

∣∣∣∣〈ψ|(1

2[A, B]+ +

1

2[A, B]

)|ψ〉∣∣∣∣2 (5.5)

74

dove

[A,B]+ = AB +BA (5.6)

e l’anticommutatore di due operatori A e B. Ma il commutatore di due operatori hermi-

tiani e antihermitiano, mentre l’anticommutatore e hermitiano. Quindi stiamo calcolando

il modulo quadro di un numero complesso la cui parte reale e il valore di aspettazione

dell’ anticommutatore e la parte immaginaria il valore di aspettazione del commutatore.

Pertanto ∣∣∣∣〈ψ|(1

2[A, B]+ +

1

2[A, B]

)|ψ〉∣∣∣∣2 =

1

4

∣∣∣〈ψ|[A, B]+|ψ〉∣∣∣2 +

1

4|〈ψ|C|ψ〉|2 (5.7)

Da cui

(∆A)2(∆B)2 ≥ 1

4|〈ψ|C|ψ〉|2 (5.8)

La disuguaglianza si riduce a una uguaglianza se e solo se

A|ψ〉 = cB|ψ〉 (5.9)

e

〈ψ|[A, B]+|ψ〉 = 0 (5.10)

La disuguaglianza (5.8) altro non e che l’espressione del principio di indeterminazione.

Infatti se applicata a variabili canonicamente coniugate come X e P , si ha C = h/I e

quindi

∆X∆P ≥ h/

2(5.11)

Sebbene il tempo non sia una variabile dinamica, ma un semplice parametro, tuttavia

esiste una relazione di indeterminazione tempo-energia

∆E∆t ≥ h/

2(5.12)

pur con interpretazione diversa dalla analoga relazione tra coordinate e impulsi coniugati.

Infatti la precedente relazione va intesa nel senso che l’energia di un sistema che sia in

un determinato stato per un tempo ∆t non puo essere perfettamente definita ma ha uno

sparpagliamento pari a ∆E.

5.2 Teorema di Ehrenfest e limite classico

In questo capitolo studieremo come si possa riottenere la descrizione classica per i si-

stemi macroscopici a partire dalla meccanica quantistica. Ovviamente questo si riferisce

agli aspetti puramente quantitativi poiche l’interpretazione probabilistica della meccanica

quantistica rimane tale in qualunque limite. D’altra parte ci sono situazioni in cui ai fini

75

pratici certe probabilita diventano certezze. Iniziamo allora studiando l’evoluzione tempo-

rale del valor medio di un operatore. In generale supporremo anche che l’operatore possa

avere una dipendenza esplicita dal tempo. Si ha

d

dt〈ψ(t)|Ω(t)|ψ(t)〉 = 〈ψ(t)|Ω(t)|ψ(t)〉+ 〈ψ(t)|Ω(t)|ψ(t)〉+ 〈ψ(t)|Ω(t)|ψ(t)〉 =

=i

h/〈ψ(t)|HΩ(t)|ψ(t)〉 − i

h/〈ψ(t)|Ω(t)H|ψ(t)〉+ 〈ψ(t)|Ω(t)|ψ(t)〉 (5.13)

Pertanto

d

dt〈ψ(t)|Ω(t)|ψ(t)〉 = − i

h/〈ψ(t)|[Ω(t), H]|ψ(t)〉+ 〈ψ(t)|Ω(t)|ψ(t)〉 (5.14)

o, in notazione piu abbreviata

d

dt〈Ω(t)〉 = − i

h/〈[Ω(t), H]〉+ 〈∂Ω(t)

∂t〉 (5.15)

Questa equazione e chiamata il teorema di Ehrenfest. E interessante osservare la

corrispondenza formale con la formula della meccanica analitica che esprime la variazione

nel tempo di una funzione delle variabili dinamiche q e p (ed eventualmente del tempo),

in termini della parentesi di Poisson della variabile dinamica con l’hamiltoniana

dω(q, p, t)

dt= ω,H+

∂ω

∂t(5.16)

Assumiamo (sempre nel caso unidimensionale) una hamiltoniana della forma

H =1

2mP 2 + V (X) (5.17)

Usando il teorema di Ehrenfest possiamo calcolare la variazione nel tempo del valor medio

della coordinata

d

dt〈X〉 = − i

h/〈[X, 1

2mP 2 + V (X)]〉 = − i

h/〈 1

2m(2ih/)P 〉 =

1

m〈P 〉 (5.18)

Notiamo che in modo formale possiamo scrivere

P

m=∂H

∂P⇒ d

dt〈X〉 = 〈∂H

∂P〉 (5.19)

La regola per calcolare le derivate di H e come nel calcolo usuale quando l’operatore am-

mette uno sviluppo in serie di potenze della variabile (operatoriale) che si sta considerando.

In modo analogo si ha

d

dt〈P 〉 = − i

h/〈[P,H]〉 = − i

h/〈[P, V (X)]〉 (5.20)

Se V (X) ammette una espansione in serie di X il commutatore si puo calcolare, ottenendo

per iterazione

[P,Xn] = −nih/Xn−1 (5.21)

76

Infatti si ha

[P,X] = −ih/ , [P,X2] = −2ih/ , · · · (5.22)

Assumendo

[P,Xn−1] = −(n− 1)ih/Xn−2 (5.23)

segue

[P,Xn] = X[P,Xn−1]+[P,X]Xn−1 = X(−(n−1)ih/)Xn−2−ih/Xn−1 = −nih/Xn−1 (5.24)

Pertanto

[P, V (X)] = −ih/ ∂V (X)

∂X(5.25)

se

V (X) =∑n

cnXn (5.26)

Dunqued

dt〈P 〉 = −〈∂V (X)

∂X〉 = −〈∂H

∂X〉 (5.27)

Abbiamo dunque ottenuto le equazioni (5.19) e (5.27) che sono le equazioni di Hamilton

per i valori medi. Cerchiamo adesso di capire come queste equazioni si riducono alle

equazioni di Hamilton vere e proprie nel caso di corpi macroscopici. Consideriamo uno

stato simile a uno stato classico con la migliore definizione possibile per X e P , diciamo

|ψ〉 = |x0, p0,∆〉 (5.28)

con

〈X〉 = x0, 〈P 〉 = p0, ∆X = ∆, ∆P ≈ h/

∆(5.29)

Un esempio di un tale stato e il pacchetto gaussiano

|x0, p0,∆〉 ⇔ ψp0,x0,∆(x) =1

(π∆2)1/4eip0x

h/ e−(x− x0)2

2∆2 (5.30)

Ovviamente per avere una buona descrizione macroscopica dovremo scegliere ∆ sufficien-

temente piccola. Per esempio potremmo prendere

∆ ≈ 10−15 m (5.31)

cioe dell’ordine di grandezza della dimensione del protone. Questo significa avere una

indeterminazione sull’impulso pari a

∆P ≈ h/ × 1015 ≈ 10−34 × 1015Kg ·m/s = 10−14 g · cm/s (5.32)

nel caso di una particella macroscopica di massa dell’ordine del grammo, segue che l’inde-

terminazione sulla velocita e

∆v ≈ 10−14 cm/s (5.33)

77

Ogni errore sperimentale concepibile su una misura di velocita e ben al di sopra di un tale

valore.

L’analogo quantistico delle equazioni di Hamilton e dunque

d

dt〈X〉 = 〈∂H

∂P〉, d

dt〈P 〉 = −〈∂H

∂X〉 (5.34)

Da queste equazioni sarebbe possibile ricavare le equazioni di Hamilton per i valori medi

se potessimo sostituire il valor medio di una funzione degli operatori X e P con la funzione

delle medie

〈f(X,P )〉 ⇒ f(〈X〉, 〈P 〉) (5.35)

D’altra parte questo e vero solo se e possibile trascurare le fluttuazione, cioe se vale

〈Xn〉 = 〈X〉n (5.36)

Ma a causa del principio di indeterminazione questo non sara mai rigorosamente vero,

dato che ∆X 6= 0. Nel caso in esame avremo comunque

d

dt〈X〉 =

d

dtx0 =

1

m〈P 〉 =

p0

m(5.37)

d

dt〈P 〉 =

d

dtp0 = −〈∂V (X)

∂X〉 (5.38)

Da queste due equazioni si ricava l’analogo dell’equazione di Newton

mx0 = −〈∂V (X)

∂X〉 (5.39)

Si puo’ calcolare il secondo membro di questa espressione nella base delle coordinate.

Il risultato che si trova e’:

mx0 = −∂V (x)

∂x

∣∣∣x0− 1

2

∂3V (x)

∂x3

∣∣∣x0

∆2 + · · · (5.40)

Il primo termine a secondo membro di questa equazione fornisce la legge di Newton, mentre

il termine successivo e tutti gli altri trascurati nascono a causa del fatto che la particella

non e localizzata nel punto x0 e quindi risponde al potenziale anche nei punti vicini a

x0. Notiamo che tutti i termini correttivi si annullano nel caso particolare di potenziali

quadratici

V = ax2 + bx+ c (5.41)

quindi nel caso dell’oscillatore armonico. In generale le correzioni quantistiche sono piccole

per potenziali che variano poco su regioni dell’ordine di grandezza del pacchetto. La

condizione precisa e che (vedi equazione (5.40))

∂2F

∂x2∆2 F (5.42)

dove F = −∂V/∂x e la forza. Nel caso numerico che abbiamo considerato (∆ ≈ 10−13 cm)

le fluttuazioni sono trascurabili per qualunque potenziale macroscopico (cioe che coinvolga

78

solo scale macroscopiche). D’altra parte si dimostra che al passare del tempo il pacchetto

si allarga. Precisamente si ha che la ’incertezza sulla posizione al tempo t e’ data, per

tempi molto lunghi da

∆X(t) ≈ 1√2

h/t

m∆(5.43)

Risulta che con una indeterminazione sulla velocita dell’ordine di 10−14 cm occorrono

300,000 anni affinche l’indeterminazione sulla posizione diventi dell’ordine del millimetro.

Pertanto in un caso come quello esaminato la descrizione classica e senz’altro buona. Se

pero partissimo con pacchetti tale che ∆ ≈ 10−27 cm allora le cose sarebbero diverse.

D’altra parte stati di questo tipo non occorrono in pratica. Infatti se misuriamo la posi-

zione tramite la luce nel visibile si ha a disposizione una lunghezza d’onda λ ≈ 10−5 cm

con analoga indeterminazione ∆. Per misurare X con un ∆ ≈ 10−27 cm occorre una pari

λ. Ma per questo sarebbe necessaria radiazione elettromagnetica con impulso

p =h

λ≈ 6× 10−34

10−29Kg ·m/s ≈ 6 gr · cm/s (5.44)

Ma un fotone di questo tipo potrebbe far rinculare un oggetto macroscopico.

Notiamo infine che anche se x0 e p0 soddisfano le equazioni di Hamilton in buona

approssimazione, non e detto che lo stesso accada per un’altra variabile dinamica Ω dato

che

〈Ω(X,P )〉 6= Ω(x0, p0) = ω(x0, p0) (5.45)

Per esempio, se consideriamo Ω = X2 si ha

〈x0, p0,∆|X2|x0, p0,∆〉 = 〈x0, p0,∆|(X2 − x20)|x0, p0,∆〉+ x2

0 = ∆2 + x20 6=

6= (〈X〉)2 = x20 (5.46)

5.3 La rappresentazione di Heisenberg

Le precedenti equazioni derivate per i valori medi degli operatori possono essere rappresen-

tate in modo piu suggestivo facendo uso della rappresentazione di Heisenberg. In questa

rappresentazione i vettori di stato vengono riportati al tempo t = 0, mentre le osservabili

diventano dipendenti esplicitamente dal tempo:

Schrodinger : |ψ(t)〉S = U(t)|ψ(0)〉, ΩS (5.47)

Heisenberg : |ψ(t)〉S → U−1(t)|ψ(t)〉S = |ψ(0)〉 ≡ |ψ〉HΩS → U(t)−1ΩSU(t) ≡ ΩH(t) (5.48)

Ricordiamo che per hamiltoniane non dipendenti esplicitamente dal tempo U(t) = exp(−iHt/h/).

Notiamo che

S〈ψ(t)|ΩS |ψ(t)〉S = 〈ψ(0)|U−1(t)ΩSU(t)|ψ(0)〉 = H〈ψ(0)|ΩH(t)|ψ(0)〉H (5.49)

79

Calcoliamo adesso la variazione temporale di una variable dinamica in rappresentazione

di Heisenberg1

d

dtΩH(t) =

(d

dtU−1(t)

)ΩSU(t) + U−1(t)

∂ΩS

∂tU(t) + U−1(t)ΩS

dU(t)

dt=

= −U−1(t)

(1

ih/HU(t)

)U−1(t)ΩSU(t) + U−1(t)ΩS

1

ih/HU(t) + U−1(t)

∂ΩS

∂tU(t) =

= = − 1

ih/U−1(t)[H,ΩS ]U(t) + U−1(t)

∂ΩS

∂tU(t) (5.50)

e infinedΩH(t)

dt= − i

h/[ΩH(t), HH ] +

(∂Ω

∂t

)H

(5.51)

con

HH = U−1(t)HU(t) (5.52)

Ricordiamo che classicamente un’osservabile ha una evoluzione temporale data da

dt= ω,H+

∂ω

∂t(5.53)

Questa relazione formale indusse Dirac a formulare delle parentesi di Poisson quantistiche

per due osservabili generiche v1 e v2 dalla regola:

v1, v2op = − ih/

[v1, v2] (5.54)

e un principio di corrispondenza che asserisce che le parentesi di Poisson quantistiche (e

quindi i commutatori) si deducono tramite la regola

v1, v2op = v1, v2clas(x→ X, p→ P ) (5.55)

Nella pratica, a causa dei problemi gia visti sull’ordine delle espressioni, tale principio si

applica solo alle variabili cartesiane x e y. Pertanto da

x, pclas = 1, x, xclas = p, pclas = 0 (5.56)

segue la regola di quantizzazione

[X,P ] = ih/ , [X,X] = [P, P ] = 0 (5.57)

Passando al caso di piu gradi di liberta vediamo che in questo modo e possibile sostituire

il postulato 2) con

[Xi, Pj ] = ih/δij , [Xi, Xj ] = [Pi, Pj ] = 0 (5.58)

1Per questo calcolo usiamo la proprieta dA−1/dλ = −A−1dA/dλA−1 facilmente ricavabiledifferenziando AA−1 = I. Inoltre facciamo uso di dU(t)/dt = HU(t)/ih/ .

80

Capitolo 6

Oscillatore armonico

6.1 Oscillatore classico

L’ importanza dell’oscillatore armonico nello studio della fisica e dovuta al fatto che ogni

sistema che fluttua attorno a una configurazione di equilibrio puo essere descritto, in

prima approssimazione, come una collezione di oscillatori armonici disaccoppiati. Da qui

l’importanza dello studio del comportamento di un singolo oscillatore armonico, sia nella

fisica classica, che nella fisica quantistica. Un singolo oscillatore armonico costituito da una

massa m attaccata a una molla di costante elastica k e caratterizzato dall’hamiltoniana

classica

H =1

2mp2 +

1

2mω2x2, ω =

√k

m(6.1)

dove ω e la frequenza classica di oscillazione. Piu in generale si ha a che fare con un

potenziale V (x) con un minimo a x = x0, come rappresentato in Figura 6.1

V

x

V(x)

x0

x0( )

Figura 6.1: Un potenziale unidimensionale con un minimo in x0.

81

Una particella nell’intorno di x0 effettuera delle oscillazioni attorno a questo punto che

e un punto di equilibrio stabile. Si dimostra facilmente che se il sistema fa delle piccole

oscillazioni rispetto al minimo del potenziale, allora si puo’ approssimare V (x) con

V (x) = V (x0) +1

2(x− x0)2V ′′(x0) + · · · (6.2)

Si puo inoltre scegliere il sistema di riferimento in modo che V (x0) = 0 e prendere x0 = 01.

In questo riferimento

V (x) =1

2x2V ′′(0) + · · · (6.3)

Dunque si arriva ancora all’hamiltoniana

H =1

2mp2 +

1

2mω2x2, mω2 = V ′′(0) (6.4)

Un altro esempio e costituito dal potenziale elettromagnetico che soddisfa l’equazione di

D’Alembert

φ− ~∇2φ = 0 (6.5)

Espandendo il potenziale in onde piane

φ =∑k

ak(t)ei~k · ~x (6.6)

si trova

ak + |~k|2ak = 0 (6.7)

Prima di passare allo studio dell’oscillatore quantistico ricordiamo alcune proprieta dell’o-

scillatore classico. Le equazioni di Hamilton sono

x =∂H

∂p=

p

m(6.8)

p = −∂H∂x

= −mω2x (6.9)

da cui

x+ ω2x = 0 (6.10)

La soluzione generale e

x(t) = A cosωt+B sinωt = x0 cos(ωt+ φ0) (6.11)

dove x0 e l’ampiezza dell’oscillazione e φ0 la fase. Si ha anche

E = T + V =1

2mx2 +

1

2mω2x2 =

1

2mω2x2

0 (6.12)

1Sara sufficiente traslare il riferimento in modo da portare il minimo nell’origine delle coordinate.

82

da cui

x =

(2E

m− ω2x2

)1/2

= ω(x20 − x2)1/2 (6.13)

Pertanto la velocita dell’oscillatore si annulla nei punti ±x0. Il significato fisico di questi

punti, turning points, dovrebbe essere evidente dalla Figura 6.2

V(x)

x

E

xx0 0_

Figura 6.2: Il potenziale dell’oscillatore armonico e i turning points ±x0.

6.2 Oscillatore quantistico

Passiamo adesso allo studio dell’oscillatore quantistico

ih/d

dt|ψ(t)〉 = H|ψ(t)〉 (6.14)

con

H =P 2

2m+

1

2mω2X2 (6.15)

Inizieremo lo studio a partire dall’equazione di Schrodinger stazionaria

H|E〉 = E|E〉 (6.16)

Ricordiamo che l’hamiltoniana e’ data da

H =p2

2m+

1

2mω2x2 =

1

2h/ω(P 2 +X2

)(6.17)

dove abbiamo introdotto operatori adimensionali2

X =

√mω

h/x, P =

√1

h/mωp (6.18)

2Stiamo qui cambiando le nostre convenzioni usando x e p per gli operatori quantistici e X eP per i corrispondenti operatori adimensionali

83

Notiamo che X e P sono adimensionali poiche’[mω

h/

]=

1

`2,

[mωh/

]= (mv)2 (6.19)

Si vede facilmente che

[X,P ] = i (6.20)

Si introducono poi gli operatori non hermitiani

a =1√2

(X + iP ) , a† =1√2

(X − iP ) (6.21)

Chiaramente a e a† sono l’uno l’hermitiano coniugato dell’altro e prendono il nome di

operatore di distruzione (annihilation) e di creazione (creation) rispettivamente. Inoltre

soddisfano la regola di commutazione

[a, a†] = 1 (6.22)

Invertendo le equazioni (6.21),

X =1√2

(a+ a†

), P = − i√

2

(a− a†

)(6.23)

l’hamiltoniana risulta

H =h/ω

2

(−(a− a†)2 + (a+ a†)2

)= h/ω

(a†a+

1

2

)(6.24)

E’ conveniente introdurre l’operatore numero di occupazione

N = a†a (6.25)

in termini del quale si ha

H = h/ω

(N +

1

2

)(6.26)

Quindi diagonalizzare N e’ equivalente a diagonalizzare H. Dalle regole di commutazione

[N, a] = −a, [N, a†] = +a† (6.27)

segue che a diminuisce di 1 gli autovalori di H, mentre a† li aumenta di 1. Infatti, se

N |ν〉 = ν|ν〉, segue

N(a|ν〉) = (aN − a)|ν〉 = (ν − 1)(a|E〉) (6.28)

e

N(a†|ν〉) = (a†N + a†)|ν〉 = (ν + 1)(a†|ν〉) (6.29)

Poiche a diminuisce gli autovalori di N di 1, segue che deve esistere uno stato |0〉 tale che

a|0〉 = 0. Infatti consideriamo un autostato |ν〉 di N

〈ν|a†a|ν〉 = 〈ν|(a†a)|ν〉 = ||aν〉|| ≥ 0 (6.30)

84

Dunque l’equazione precedente ci dice che gli autovalori di N sono definiti positivi con la

sola eccezione l’autostato |ν〉 tale che a|ν〉 = 0, che corrisponde all’autovettore di N con

autovalore nullo.

A partire dallo stato |0〉 (vettore ciclico) si possono poi trovare tutti gli altri autostati

applicando ripetutamente a†. Per la normalizzazione, scegliendo 〈0|0〉 = 1, si ha

〈0|aa†|0〉 = 〈0|(a†a+ 1)|0〉 = 〈0|0〉 = 1 (6.31)

inoltre

〈0|a2a†2|0〉 = 〈0|a(a†a+ 1)a†|0〉 = 〈0|aa†(a†a+ 1)|0〉+ 1 = 2 (6.32)

Assumendo allora che

|n〉 =1√n!a†n|0〉 (6.33)

sia correttamente normalizzato ad 1, mostriamo che questo e vero per n+1. Premettiamo

la proprieta

[a, a†n] = na†

n−1(6.34)

Infatti

[a, a†2] = [a, a†]a† + a†[a, a†] = 2a† (6.35)

Per induzione segue allora

[a, a†n+1

] = [a, a†n]a† + a†

n[a, a†] = na†

n−1a† + a†

n= (n+ 1)a†

n(6.36)

Segue allora (sempre per induzione)

〈n+ 1|n+ 1〉 =1

(n+ 1)!〈0|an+1a†

n+1|0〉 =

=1

(n+ 1)!〈0|an(a†

n+1a+ (n+ 1)a†

n)|0〉 =

1

n!〈0|ana†n|0〉 (6.37)

Inoltre si ha

a†a|n〉 = a†aa†n

√n!|0〉 =

a†√n!

(a†na+ na†

n−1)|0〉 = n

a†n

√n!|0〉 = n|n〉 (6.38)

(Questo seguiva anche dall’osservazione che a† aumenta di un’unita l’autovalore di a†a).

Segue che i possibili autovalori dell’energia sono

En = h/ω

(n+

1

2

)(6.39)

Usando le equazioni (6.33) e (6.34) si ha

a|n〉 =1√n!aa†

n|0〉 =1√n!

[a, a†n]|0〉 =

1√n!na†

n−1|0〉 =√n|n− 1〉 (6.40)

dove nel secondo passaggio abbiamo usato a|0〉 = 0.

85

Capitolo 7

Momento angolare e spin

7.1 Il momento angolare

Classicamente il momento angolare e’ definito dalla relazione

~L = ~x ∧ ~p (7.1)

Tramite la corrispondenza usuale avremo che l’operatore quantistico (che continueremo

ad indicare con ~L) sara’ dato da~L = ~X ∧ ~P (7.2)

Non e’ difficile calcolare i commutatori di queste quantita’. Per esempio

[Lx, Ly] = [Y Pz − ZPy, ZPx −XPz] = −ih/Y Px + ih/XPy = ih/Lz (7.3)

Si hanno analoghe relazioni per le altre componenti. In definitiva

[Li, Lj ] = iεijkLk (7.4)

Le proprieta algebriche dell’operatore di momento angolare permettono di trattare il

problema della ricerca degli autovalori e autovettori di ~L 2 e Lz in modo molto simile a

quanto fatto per l’oscillatore armonico. Infatti la positivita dell’hamiltoniana dell’oscilla-

tore che ne permetteva la fattorizzazione ci permettera in questo caso la fattorizzazione

di ~L 2 in operatori analoghi agli operatori di creazione e distruzione. Iniziamo definendo

un operatore adimensionale

~J =1

h/~L (7.5)

con regole di commutazione

[Ji, Jj ] = iεijkJk, i, j, k = 1, 2, 3 (7.6)

Scegliamo poi una base in cui ~J 2 e Jz siano diagonali

~J 2|λ,m〉 = λ|λ,m〉, Jz|λ,m〉 = m|λ,m〉 (7.7)

86

Si puo dimostrare che gli autovalori di ~J2 sono dati da

λ = j(j + 1), j intero o semintero (7.8)

ed inoltre gli autovalori di Jz possono prendere 2j + 1 valori:

m = −j,−j + 1, · · · , j − 1, j (7.9)

Nel caso in cui si realizzi il momento angolare in termini delle variabili dello spazio

delle configurazioni (cioe’ in termini degli operatori ~X e ~P = −ih/ ~∇) si parla di momento

rbitale e si trova che i soli possibili valori del momento angolare sono interi. Questo segue

perche’ in questo caso si richiede che la funzione d’onda ritorni allo stesso valore dopo

una rotazione di 2π. Per casi piu generali in cui la funzione d’onda non e semplicemente

una funzione a valori complessi, ma una funzione a valori vettoriali (basta pensare al

campo elettromagnetico), la situazione e piu complicata, perche nella rotazione non basta

calcolare la funzione nel punto ruotato, ma essa stessa puo subire una rotazione. In

tal caso l’operatore di momento angolare si divide in due parti (vedi nel seguito), una

parte di momento orbitale, che agisce sulle coordinate, e una parte che agisce invece sulle

componenti della funzione d’onda (parte di spin. E solo sulla parte orbitale che e richiesta

la condizione che la funzione ritorni in se dopo 2π e quindi il momento orbitale potra avere

solo valori interi, mentre la parte di spin (o intrinseca) potra avere anche valori seminteri.

Come abbiamo visto la teoria generale del momento angolare prevede che il momento

angolare possa assumere anche valori semiinteri, ma a parte questo risultato e ovvio che

la teoria del momento angolare non si puo ridurre al solo studio del momento orbitale.

Infatti, in generale, la funzione d’onda non si ridurra a una funzione a valori complessi, ma

potra avere delle ulteriori proprieta. Basta pensare al campo elettromagnetico. Il campo

elettrico e magnetico, se calcolati in un sistema di riferimento ruotato non cambiano solo

perche ruotano le coordinate del punto considerato, ma anche perche ruotano le loro

componenti. Questo e un fatto del tutto generale e che ci conduce a separare il momento

angolare in due parti, la parte orbitale, che tiene conto della rotazione delle coordinate

del punto che si sta considerando e la parte di momento angolare intrinseco, o brevemente

di spin, che tiene conto delle variazioni che possono subire le componenti delle funzione

d’onda. Nel caso fin qui esaminato di una funzione d’onda a valori complessi, questa

variazione e nulla e si dice che lo spin e zero.

7.2 Lo spin

Dal ragionamento fatto precedentemente segue che lo spin corrisponde a una vera e propria

variabile dinamica addizionale, per cui il vettore di stato corrispondente ad uno spin j sara

caratterizzato da una funzione d’onda in una base in cui sono diagonali le coordinate, il

quadrato del momento di spin e la sua terza componente

ψj(~r,m) = 〈~r; j,m|ψ〉, m = −j,−j + 1, · · · , j − 1, j (7.10)

87

Dunque la funzione d’onda dipende non solo dalla posizione ma anche da una ulteriore

variabile discreta m che prende 2j+ 1 valori. In questa base (la base 〈j,m|) il momento di

spin agisce come una matrice (2j + 1)× (2j + 1) e quindi si puo pensare a ψj(~r,m) come

a un vettore con 2j + 1 componenti:

ψj(~r,m) =

ψj(~r, j)

ψj(~r, j − 1)· · ·

ψj(~r,−j + 1)ψj(~r,−j)

(7.11)

Per momento angolare di spin fissato, la norma di un vettore di stato e data

〈ψ|ψ〉 =

+j∑m=−j

∫d3~r〈ψ|~r; j,m〉〈~r; j,m|ψ〉 =

+j∑m=−j

∫d3~r |ψj(~r,m)|2 (7.12)

Quindi per un vettore normalizzato le probabilita di osservare la particella con proiezione

m del momento di spin e data da

P (m) =

∫d3~r |ψj(~r,m)|2 (7.13)

Prima di procedere consideriamo i casi particolari dello spin 1/2 e dello spin 1.

Spin 1/2: Sappiamo che i possibili autovalori di Jz sono ±1/2, dunque nella base degli

autovalori di Jz avremo

Jz =1

2

(1 00 −1

)(7.14)

Inoltre si dimostra che

Jx =1

2(J+ + J−) =

1

2

(0 11 0

)(7.15)

e

Jy = − i2

(J+ − J−) =1

2

(0 −ii 0

)(7.16)

In genere si preferisce usare le matrici di Pauli, definite come

~σ = 2 ~J (7.17)

e quindi date da

σx =

(0 11 0

), σy =

(0 −ii 0

), σz =

(1 00 −1

)(7.18)

Chiaramente si ha

~σ 2 = 4 ~J 2 = 4 · 1

2· 3

2= 3 (7.19)

e

σ2z = 1 (7.20)

88

Dalle espressioni per le matrici di Pauli segue

σ2x = σ2

y = σ2z = 1 (7.21)

Dalle regole di commutazione del momento angolare si trova

[σi, σj ] = 2i∑k

εijkσk (7.22)

Si ha anche che le matrici σi anticommutano tra loro, cioe

[σi, σj ]+ = 0, i 6= j (7.23)

per esempio,

[σx, σy]+ = σxσy + σyσx =1

2i(σx[σz, σx] + [σz, σx]σx) =

=1

2i(σxσzσx − σz + σz − σxσzσx) = 0 (7.24)

Pertanto

[σi, σj ]+ = 2δij (7.25)

Usando il risultato per il commutatore e quello per l’anticommutatore si vede subito che

σiσj = δij + i∑k

εijkσk (7.26)

Dunque la funzione d’onda per lo spin 1/2 e una funzione con due componenti

ψ1/2(~r) =

(ψ(~r, 1/2)ψ(~r,−1/2)

)≡(ψ+(~r)ψ−(~r)

)(7.27)

la ψ1/2(~r) viene chiamata spinore. Le due componenti con + e − vengono dette con spin

up e spin down rispettivamente. Per un vettore di stato normalizzato le probabilita per

spin up e spin down sono rispettivamente

P (+) =

∫d3~r |ψ+(~r)|2, P (−) =

∫d3~r |ψ−(~r)|2 (7.28)

spin 1: Si ha (ancora nella base in cui Jz e diagonale)

Jz =

1 0 00 0 00 0 −1

(7.29)

Inoltre si dimostra che

Jx =1√2

0 1 01 0 10 1 0

, Jy =1√2

0 −i 0i 0 −i0 i 0

(7.30)

89

Si ha~J 2 = 1 · 2 = 2 (7.31)

e si verifica immediatamente che

J3i = Ji, i = x, y, z (7.32)

In questo caso la funzione d’onda e data da

ψ1(~r) =

ψ(~r,+1)

ψ(~r, 0)

ψ(~r,−1)

(7.33)

Dunque, nel caso generale, si ha oltre al momento angolare orbitale un momento

angolare intrinseco o di spin. Pertanto quando si effettui una rotazione del sistema di

coordinate occorrera considerare la trasformazione di entrambi. Usando ancora variabili

adimensionali, il momento angolare totale ~JT sara dato da

~JT = ~L+ ~S (7.34)

Dato che

[ ~X, ~S] = 0 (7.35)

la base |~r; j,m〉 si puo identificare con il prodotto tensoriale della base delle coordinate e

della base di spin

|~r; j,m〉 = |~r〉 ⊗ |j,m〉 (7.36)

Per finire diciamo come si modifica l’equazione di Schrodinger per funzioni d’onda con

spin. Partendo sempre dall’equazione astratta

ih/∂

∂t|ψ〉 = H|ψ〉 (7.37)

e proiettando sulla base |~x; j,m〉 segue

ih/∂

∂t〈~x; j,m|ψ〉 = 〈~x; j,m|H|ψ〉 (7.38)

da cui (se H commuta con ~J 2)

ih/∂

∂tψj(~x,m) =

∑m′

Hmm′

(~x,

∂~x

)ψj(~x,m) (7.39)

dove Hmm′ (~x, ∂/∂~x) e un insieme di (2j+ 1)× (2j+ 1) operatori differenziali nello spazio

delle coordinate e

〈~x; j,m|H|~x′; j,m′〉 = Hmm′

(~x,

∂~x

)δ(~x− ~x′) (7.40)

90

Dunque nello spazio degli spinori l’equazione di Schrodinger diventa un insieme di (2j+1)

equazioni accoppiate

ih/∂

∂tψj(~x) = Hψj(~x) (7.41)

con H una matrice (2j + 1)× (2j + 1).

Nel caso particolare dello spin 1/2 usando il fatto che nello spazio delle matrici 2× 2

le σ di Pauli e la matrice identita formano un set completo1 si puo scrivere

H = H0 · I + ~H · σ (7.42)

dove H0 e ~H sono in genere operatori differenziali. Dunque la forma piu generale dell’e-

quazione di Schrodinger per una particella di spin 1/2 e (equazione di Pauli):

ih/∂

∂tψ1/2(~x) = (H0 + ~H · ~σ)ψ1/2(~x) (7.43)

Discuteremo successivamente l’interpretazione fisica dei due termini che appaiono a secon-

do membro in questa equazione.

7.3 Addizione di momenti angolari

Consideriamo due momenti angolari commutanti tra loro ~J1 e ~J22. Consideriamo la somma

dei due momenti angolari~J = ~J1 + ~J2 (7.44)

e notiamo che

[Ji, Jj ] = iεijkJk (7.45)

e quindi la somma di due momenti angolari soddisfa le stesse regole di commutazione

dei due momenti angolari. Dunque potremmo diagonalizzare sia ~J2 che Jz che avranno

autovalori J(J + 1) e M rispettivamente, con J intero o semintero e

−J ≤M ≤ J (7.46)

Quello che vogliamo fare e determinare i possibili valori di J e M quando i due momenti

angolari che sommiamo sono caratterizzati dai due numeri quantici (j1,m1) e (j2,m2).

Diamo qui i risultati senza dimostrazione. Si trova che

M = m1 +m2 (7.47)

e

|1 − j2| ≤ J ≤ j1 + j2 (7.48)

con J che varia a pasi di uno tra il valore inferiore e quello superiore.

1Si dimostra facilmente usando le proprieta di prodotto delle matrici di Pauli e le proprieta ditraccia Tr[I] = 2 e Tr[~σ] = 0

2Usiamo qui momenti angolari adimensionali, cioe divisi per h/

91

Per esempio per due spin 1/2 il momento angolare totale puo essere 0 o 1. Dato che

si puo dimostrare che con ~J2 e Jz si possono diagonalizzare anche ~j21 e ~j2

2 gli stati saranno

caratterizzati da j1, j2, J,M e si scriveranno nella forma

|j1, j2, J,M〉 (7.49)

Gli autostati del momento angolare totale, in termini degli autoscatti dei due momenti

angolari, nel caso di due stati di spin 1/2, sono dati da

|j1 = 1/2, j2 = 1/2, J = 1,M = +1〉 = |m1 = 1/2,m2 = 1/2〉,

|j1 = 1/2, j2 = 1/2, J = 1,M = 0〉 =1√2

(|m1 = 1/2,m2 = −1/2〉+ |m1 = 1/2,m2 = −1/2〉)

|j1 = 1/2, j2 = 1/2, J = 0,M +−1〉 = |m1 = −1/2,m2 = −1/2〉

|j1 = 1/2, j2 = 1/2, J = 0,M = 0〉 =1√2

(|m1 = 1/2,m2 = −1/2〉 − |m1 = 1/2,m2 = −1/2〉)

(7.50)

i primi tre stati, corrispondenti a J = 1 sono detti di tripletto, mentre il quarto stato

con spin 0 e’ detto di singoletto.

92

Capitolo 8

Stati entangled

Come vedremo, in meccanica quantistica esistono degli stati con caratteristiche molto

peculiari e con un comportamento assolutamente non classico. Tipicamente si puo’ avere

uno stato composto i cui componenti hanno interagito nel passato e che poi si separano

e che se osservati a distanze non connesse da un punto di vista causale preservano una

correlazione tra loro. Queste correlazioni appaiono non locali sebbene tutte le interazioni

conosciute risultino locali con un grado di accuratezza elevatissimo. Per essere piu’ chiari

facciamo un esempio esplicito. Consideriamo un sistema composto da due sottosistemi A

e B, descritto da una funzione d’onda

Ψ(x, y) =∑n

cnφn(x)ψn(y) (8.1)

con x, y le variabili di posizione che descrivono i due sistemi unidimensionali. Supponiamo

inoltre che le due funzioni d’onda φn(x) e ψn(y) siano autofunzioni di due operatori OA e

OB ognuno dei quali operante nel proprio sottospazio

OA|φ〉 = λnA|φ〉, OB|ψ〉 = µnB|ψ〉 (8.2)

Se misuriamo OA con risultato λnA, il sistema si proietta nel seguente stato

Ψ(x, y)→ φn(x)ψn(y) (8.3)

Se adesso viene misurata l’osservabile OB (senza che nel frattempo vengano effettuata

altre operazioni sul sistema) il risultato della misura sara’ con certezza µnB. Questo vale

a qualunque distanza dal punto in cui e’ misurata OA, viene misurato OB, cioe’ anche se

la distanza tra i due punti, dAB e’ tale da essere maggiore dell’intervallo temporale tra le

due misure, tAB moltiplicato per la velocita’ della luce c:

dAB > tABc (8.4)

In questo caso la distanza spazio temporale e’ detta di tipo spazio (space-like) e i due eventi

non sono casualmente connessi. Infatti, in accordo alla teoria della relativita’ ristretta non

93

e’ possibile trasportare informazioni a distanze di tipo space-like e quindi non e’ possibile

influenzare con l’azione in un punto quello che avviene in un altro ad una distanza di

questo tipo. Questo e’ il significato di punti non connessi da un punto di vista causale.

E’ su questo punto che e’ nata la discussione relativa al paradosso EPR (Einstein,

Podolski e Rosen) che riprenderemo in un secondo momento. D’altra parte si puo’ notare

che di fatto non c’e’ contraddizione con la relativita’. Infatti l’osservatore che misura OBnon ha modo di sapere, istantaneamente, cosa abbia misurato OA. Le due misure possono

solo essere confrontate a posteriori. Dunque e’ solo possibile stabilire, a posteriori, una

correlazione tra le misure. Gli istanti a cui vengono effettuate le due misure sono irrilevanti,

occorre solo essere sicuri di accoppiare bene gli eventi.

8.1 Stati a due particelle di spin 1/2

In questa sezione considereremo gli stati entangled di due particelle di spin 1/2. Lo spazio

ad una particella sara’ descritto dai due stati |u〉 e |d〉 tali che

σ3|u〉 = +|u〉, σ3|d〉 = −|d〉 (8.5)

Gli stati a due particelle sono ottenuti tramite prodotto tensoriale e si hanno quattro stati

indipendenti

|uu〉 ≡ |u〉 ⊗ |u〉, |dd〉 ≡ |d〉 ⊗ |d〉, |ud〉 ≡ |u〉 ⊗ |d〉, |du〉 ≡ |d〉 ⊗ |u〉 (8.6)

Gli operatori di spin (rappresentati da matrici di Pauli) operanti sui due sottospazi saranno

indicati rispettivamente con σi e τi. Conviene ricordare come operano le matrici di Pauli

nei loro sottospazi ad una particella

σ1|u〉 = +|d〉, σ1|d〉 = +|u〉σ2|u〉 = +i|d〉, σ2|d〉 = −i|u〉σ3|u〉 = +|u〉, σ3|d〉 = −|d〉 (8.7)

Osserviamo che lo spazio vettoriale che descrive lo spin 1/2 e’ uno spazio a due dimensioni

complesse e che quindi il vettore piu’ generale dipende da 2 parametri complessi o 4 para-

metri reali. Se pero’ ci limitiamo a considerare stati fisici, possiamo imporre la condizione

di normalizzazione ed abbiamo una fase arbitraria a disposizione. Quindi lo spazio degli

stati fisici dipende da due parametri reali. Infatti, dalla normalizzazione di α|u〉 + β|d〉(supponendo i due ket di base normalizzati) segue

|α|2 + |β|2 = 1 (8.8)

la cui soluzione generale e’

α = cos θeiφ1 , β = sin θeiφ2 (8.9)

94

Scegliendo una fase overall tale che α sia reale, segue che lo stato piu’ generale e’ descritto

da

|ψ〉 = cos θ|u〉+ sin θeiφ|d〉 (8.10)

In modo analogo lo spazio di due spin 1/2 ha quattro dimensioni complesse, ma avendo a

disposizione la normalizzazione e la fase complessiva, lo stato fisico piu’ generale dipende

da 8− 2 = 6 parametri reali. Il prodotto tensoriale di due stati fisici ad una particella

|ψ〉 = (cos θ1|u〉+ sin θ1eiφ1 |d〉)⊗ (cos θ2|u〉+ sin θ2e

iφ2 |d〉) (8.11)

dipende invece da soli 4 parametri reali. Esistono pertanto 2 combinazioni reali indipen-

denti degli stati di base che non sono fattorizzabili. Per esempio, due tali combinazioni

sono

|ψ±〉 =1√2

(|ud〉 ± |du〉) (8.12)

che sono rispettivamente uno stato del tripletto e lo stato di singoletto. E’ evidente che

gli stati fattorizzati sono autostati simultanei di ~σ · ~n e ~τ · ~m per una opportuna scelta di

~n e ~m (vedi eq. (1.182)). Come vedremo. la stessa proprieta’ non vale per gli stati non

fattorizzati.

In uno spazio di tipo VA ⊗ VB, il vettore piu’ generale e’ dato da

|ψ〉 =∑ij

cij |i〉 ⊗ |j〉 (8.13)

Se

cij = cAi cBj (8.14)

lo stato si dice fattorizzabile o separabile. In caso contrario lo stato e’ non fattoriz-

zabile o entangled.

Consideriamo lo stato |ψ+〉 in (8.12). Se misuriamo su questo stato σ3 con risultato

+1, lo stato viene proiettato in |ud〉 e misurando τ3 otterremo -1. Se invece σ3 = −1,

allora τ3 = +1. dunque in questo stato nessuno dei due spin e’ definito. Anzi, si vede

facilmente che

〈ψ±|σi|ψ±〉 = 〈ψ±|τi|ψ±〉 = 0 (8.15)

Dunque sugli stati entangled non esistono vettori ~n e ~m lungo i quali gli spin siano diago-

nali. Infatti, come e’ ovvio dalla loro struttura lo spin delle due particelle non e’ definito.

Come sappiamo e’ invece definito lo spin totale. Dato che |ψ−〉 e’ lo stato di singoletto

con J = 0, segue subito

(~σ + ~τ)|ψ−〉 = 0 (8.16)

Sullo stato ψ+ il risultato di ~σ + ~τ e’ non nullo, dato che e’ uno stato con J = 1. In

particolare sullo stato di singoletto vale l’identita’

~σ · ~n|ψ−〉 = −~τ · ~n|ψ−〉 (8.17)

per qualunque ~n, come segue dalla (8.16).

95

8.2 Matrice densita’

Abbiamo visto in Sezione 2.2 che i processi di verifica della meccanica quantistica richiedo-

no in genere la ripetizione di una misura preparando un numero sufficientemente grande

di volte, N , lo stato originale. In pratica in questa preparazione si possono introdurre

degli errori che non ci permettono di riprodurre esattamente lo stesso stato. Per esempio,

se la temperatura e’ non nulla, i sistemi hanno sempre delle fluttuazioni termiche che sono

regolate da una distribuzione di probabilita’ termica. Infatti, se consideriamo autostati

dell’energia, e’ noto dalla termodinamica che le probabilita’ (statistiche adesso) di ottene-

re un certo valore dell’energia dipendono dalla temperatura seguendo la distribuzione di

Boltzmann

w(E) ∝ e−E/kT (8.18)

dove T e’ la temperatura in 0K, e k e’ la costante di Boltzmann, 1.38×10−23 Joule/Kelvin.

Il significato e’ che ad una data temperatura, le energie piu’ probabili sono quelle per cui

E ≈ kT . Dunque la probabilita’ di produrre uno stato di energia E e’ data da w(E).

Quindi, quando si considera la media di un certo operatore, oltre a considerarne il valore

di aspettazione sullo stato considerando, dovremo fare un’ulteriore media statististica. Se

indichiamo con wi la probabilita’ statistica di avere il sistema nello stato |ψi〉, allora il

valor medio di un operatore A sara’ dato da

〈A〉 =∑i

wi〈ψi|A|ψi〉 (8.19)

Notiamo che si puo’ scrivere

〈ψi|A|ψi〉 = Tr(PiA) (8.20)

dove Pi e’ il proiettore sullo stato |ψi〉. Infatti

Tr(PiA) =∑j,k

〈ψj |Pi|ψk〉〈ψk|A|ψj〉 =∑j,k

δjiδik〈ψk|A|ψj〉 = 〈ψi|A|ψi〉 (8.21)

Dunque

〈A〉 =∑i

wiTr(PiA) (8.22)

Possiamo introdurre un nuovo operatore (matrice densita’) dato da

ρ =∑i

wiPi (8.23)

in termini del quale il valor medio di un operatore risulta dato da

〈A〉 = Tr(ρA) (8.24)

Ricordiamo che se il sistema si trova nello stato |ψi〉 la probabilita’ di trovarlo dopo una

misura in uno stato |φ〉 e’ data da

p(φ) = |〈φ|ψi〉|2 = 〈ψi|Pφ|ψi〉 (8.25)

96

dove Pφ = |φ〉〈φ| e’ il proiettore sullo stato |φ〉. Se lo stato iniziale e’ una miscela di stati

|ψi〉 allora la probabilita’ di trovare lo stato |φ〉 dopo la misura sara’

p(φ) =∑i

wi〈ψi|Pφ|ψi〉 (8.26)

D’altra parte si ha

Tr (PiPφ) =∑j

〈ψj |PiPφ|ψj〉 = 〈ψi|Pφ|ψi〉 (8.27)

Dunque

p(φ) =∑i

wiTr(PiPφ) = Tr (ρPφ) (8.28)

Pertanto in generale, si possono riesprimere le probabilita’ ed i valori medi usando la

matrice densita’. Talvolta si identifica lo stato del sistema con la matrice densita’ stessa.

La matrice densita’ dipende dal processo di preparazione (tramite le probabilita’ wi)

e possiede le seguenti proprieta’

1. La matrice densita’ ha traccia uguale ad 1:

Tr ρ =∑j

〈j|ρ|j〉 =∑ij

wi〈j|Pi|j〉 =∑ij

wiδijδij =∑i

wi = 1 (8.29)

dove l’ultima relazione segue dal significato probabilistico delle wi

2. La matrice densita’ e’ hermitiana. Questo segue dalla hermiticita’ dei proiettori

3. La matrice densita’ e’ un operatore definito positivo. Un operatore A e’ definito

positivo se per ogni stato |ψ〉 si ha 〈ψ|A|ψ〉 ≥ 0. L’enunciato segue osservando che

i wi sono numeri positivi e i proiettori sono operatori definiti positivi1

4. Vale la seguente diseguaglianza

Trρ 2 ≤ 1 (8.30)

Infatti

Trρ 2 =∑ij

wiwjTr(PiPj) =∑ij

wiwjδij =∑i

w2i ≤ 1 (8.31)

dove abbiamo sfruttato le proprieta’ dei proiettori ed il fatto che essendo ogni wi ≤ 1

si ha w2i ≤ wi, da cui prendendo la somma∑

i

w2i ≤

∑i

w1 = 1 (8.32)

1Infatti, se si considera un proiettore Pi ed un generico stato con la seguente decomposizionesulla base dei proiettori, |ψ〉 =

∑i ci|ψi〉, segue 〈ψ|Pi|ψ〉 = |ci|2 > 0 per qualunque |ψ〉.

97

Quest’ultima proprieta’ permette di distinguere tra quello che si chiama uno stato puro,

cioe’ il sistema preparato in un unico stato quantico |ψ〉, e una miscela statistica. Per uno

stato puro wψ = 1 con tutti gli altri wi uguali a zero. Allora si ha

ρ = |ψ〉〈ψ| = Pψ (8.33)

e quindi

ρ2 = P 2ψ = Pψ = ρ (8.34)

e quindi per il caso puro in equazione (8.31) vale l’uguaglianza. Si mostra facilmente che

e’ vero anche il viceversa, cioe’ se vale ρ2 = ρ allora lo stato e’ puro. Infatti se vale questa

relazione si ha

0 = ρ2 − ρ =∑i

(w2i − wi)Pi (8.35)

dove i Pi sono i proiettori sugli stati |i〉. Segue

w2i = wi (8.36)

che ha due soluzioni, wi = 0 o wi = 1. dato che la somma di tutti i wi deve fare

uno,∑

iwi = 1, segue che tutti i wi devono essere nulli eccetto uno, diciamo wi = 1 e,

corrispondentemente

ρ = |i〉〈i| (8.37)

che implica che lo stato e’ puro.

Quando lo stato non e’ puro si parla di una miscela di stati. In tal caso nella (8.31)

si ha una stretta disuguaglianza. Dunque il caso puro ed il caso di una miscela di stati

possono essere distinti in un modo indipendente dalla base di vettori che si sta usando2,

semplicemente guardando alla traccia del quadrato della matrice densita’.

Facciamo un esempio semplice. Consideriamo un sistema descritto da due stati |±〉.Uno stato puro e’, per esempio,

|ψ〉 =1√2

(|+〉 − |−〉) (8.38)

La matrice densita’ e’data da

ρψ = |ψ〉〈ψ| = 1

2(|+〉〈+|+ |−〉〈−| − |+〉〈−| − |−〉〈+|) (8.39)

Rappresentando gli stati come vettori colonna avremo

|+〉 ⇔(

10

), |−〉 ⇔

(01

)(8.40)

e

|ψ〉 ⇔ 1√2

(1−1

)(8.41)

2Ricordiamo che la traccia di un operatore non dipende dalla base di cui si fa uso

98

Si trova allora

ρψ =1

2

(1 −1−1 1

)(8.42)

che soddisfa

ρ2ψ = ρψ (8.43)

Se invece consideriamo una miscela in cui lo stato |+〉 sia presente con probabilita’ 1/2 e

quello |−〉 con uguale probabilita’, la matrice densita’ sara’ data da

ρ =1

2|+〉〈+|+ 1

2|−〉〈−| (8.44)

ed in notazioni 2× 2

ρ =1

2

(1 00 1

)(8.45)

che soddisfa

ρ2 =1

2ρ⇒ Trρ2 =

1

2< 1 (8.46)

La differenza tra queste due diverse configurazioni del sistema puo’ essere vista conside-

rando i valori medi delle osservabili. Per un sistema a due componenti, quale quello in

esame, un operatore e’ semplicemente una matrice 2 × 2. Possiamo allora considerare le

matrici di Pauli3

σx =

(0 11 0

), σy =

(0 −ii 0

), σz =

(1 00 −1

)(8.47)

per le quali si ha

Tr (ρψσx) = −1, Tr (ρψσy) = 0, Tr (ρψσz) = 0 (8.48)

e

Tr (ρσx) = 0, Tr (ρσy) = 0, Tr (ρσz) = 0 (8.49)

Consideriamo ancora l’espressione generale della matrice densita’, nella base in cui e’

diagonale

ρ =∑i

wi|i〉〈i| (8.50)

dove wi e’ la probabilita’ che il sistema si trovi nello stato |i〉. La dipendenza temporale

di ρ segue immediatamente dalla equazione di Schrodinger per gli stati

ρ =∑i

wi

(− ih/

)H|i〉〈i|+

∑i

wi

(+i

h/

)|i〉〈i|H = − i

h/[H, ρ] (8.51)

3Queste tre matrici intervengono nella descrizione delle particelle con spin 1/2. Nel presentecontesto la loro rilevanza e’ che assieme alla matrice identita’ costituiscono un set completo dimatrici 2 × 2. Cioe’ ogni matrice di questo tipo si puo’ scrivere come combinazione lineare acoefficienti complessi delle matrici di Pauli e della matrice identita’

99

Notiamo che questa equazione differisce nel segno da quella a cui soddisfano le equazioni

del moto per gli operatori in rappresentazione di Heisenberg. Questa equazione (detta

di von Neumann) e’ l’equivalente dell’equazione di Liouville della meccanica statistica

classica, cioe’ l’equazione per la densita’ nello spazio delle fasi classico. Dall’evoluzione

temporale degli stati

|ψ(t)〉 = U(t)|ψ(0)〉 (8.52)

segue subito

ρ(t) = U(t)ρ(0)U †(t) (8.53)

Da questa equazione si ha il risultato

Tr[ρn(t)] = Tr[ρn(0)] (8.54)

per qualunque potenza intera. Infatti

Tr[ρn(t)] = Tr[U(t)ρ(0)U †(t) · · ·U(t)ρ(0)U †(t)] = Tr[ρn(0)] (8.55)

come segue dalla unitarieta’ di U(t) e dalla prorieta’ ciclica della traccia. Questo mostra,

in particolare. che la proprieta’ fondamentale di ρ

Tr[ρ] = 1 (8.56)

e’ conservata nel tempo (conservazione della probabilita’) ed inoltre che anche la proprieta’

per uno stato di essere puro o misto, dettata dalla traccia di ρ2, e’ conservata nel tempo.

8.3 Entropia e entanglement

In fisica il concetto di entropia e’ legato al disordine di un sistema fisico e rappresenta

il numero dei modi in cui un sistema macroscopico puo’ essere realizzato in termini dei

microsistemi componenti. Il concetto di entropia che introdurremo in questo contesto,

l’entropia di von Neumann, e’ invece piu’ prossimo a quello introdotto da Shannon nella

sua teoria dell’informazione. Consideriamo una collezione classica di stati, cioe’ un insieme

di punti che, come abbiamo visto rappresenta lo spazio delle fasi del sistema (vedi Fig.

8.1). L’idea dell’entropia di informazione e’ quella di definire una quantita’ che decresce

con l’aumentare dell’informazione. Consideriamo un sottoinsieme Sn dello spazio delle

fasi (vedi Fig. 8.2) e supponiamo di sapere che il sistema si trova in uno qualunque degli

stati in Sn. Piu’ grande e’ il numero di stati in Sn e minore e’ l’informazione. Se il

sottoinsieme contiene un solo stato sappiamo con certezza che il sistema si trova in quello

stato. Il minimo di informazione si ha quando il sottoinsieme Sn coincide con tutto lo

spazio delle fasi, dato che in questo caso il sistema si puo’ trovare in uno qualunque degli

stati. Definiamo allora l’entropia come il logaritmo del numero degli stati in Sn

S = log n (8.57)

100

1

2

3

N

Figura 8.1: Spazio delle fasi classico. Ogni stato e’ rappresentato da un punto.

1

2

3

N

Sn

Figura 8.2: Un sottoinsieme Sn dello spazio delle fasi classico.

Dunque S = 0 quando si ha il massimo di informazione ed e’ al valore massimo, S = logN ,

quando si ha il minimo di iformazione.

Consideriamo come caso particolare un sistema (classico) di m spin. In questo caso il

sistema ha N = 2m stati e l’entropia massimale (minimo di informazione) risulta

S = m log 2 (8.58)

In queste considerazioni abbiamo implicitamente assunto che il sistema possa stare in

uno qualunque degli stati in Sn con egual probabilita’. Piu’ in generale possiamo definire

una funzione probabilita’, P (i), sullo spazio delle fasi, con la condizione

N∑i=1

P (i) = 1, P (i) ≥ 0 (8.59)

Si definisce allora entropia la quantita’

S = −N∑i=1

P (i) logP (i) (8.60)

La motivazione del segno meno e’ che le P (i) sono quantita’ minori od uguali ad uno e

quindi il loro logaritmo e’ negativo, mentre noi vogliamo S positiva. Nel caso esaminato

101

in precedenza le probabilita’ sono scelte come segue

P (i) =1

nif i ∈ Sn, P (i) = 0 if i /∈ Sn (8.61)

Infatti gli stati in Sn sono equiprobabili, la probabilita’ che il sistema non sia in Sn e’ zero

e la somma dei P (i) deve fare 1. Dunque si ha

S = −∑i∈Sn

1

nlog

1

n=∑i∈Sn

1

nlog n = log n (8.62)

Nel caso in cui non si sappia niente dello stato in cui si trova il sistema che equivale a dire

che si puo’ trovare in uno qualunque degli N stati con probabilita’ 1/N segue

S = logN (8.63)

e l’entropia e’ massimale. Dunque quando S e’ massima non si conosce niente sullo stato

del sistema. Al contrario, quando S assume il valore minimo, S = 0, allora sappiamo con

esattezza in quale stato si trovi il nostro sistema.

Come abbiamo visto la quantita’ che in meccanica quantistica generalizza l’idea di

probabilita’ e’ la matrice densita’ e quindi von Neumann ha definito l’entropia di uno

stato quantistico in termini della matrice densita’ associata

S = −Tr[ρ log ρ] (8.64)

La matrice densita’ e’ hermitiana e quindi diagonalizzabile con una trasformazione unita-

ria. Dunque possiamo definire la traccia nella base in cui ρ e’ diagonale. Indicando con ρigli autovalori di ρ si ha

S = −∑i

ρi log ρi (8.65)

Se la matrice densita’ si riferisce allo stato di un sistema in cui siano definiti N operatori

di proiezione ortogonali Pi, la matrice densita’ e’ data da

ρ =N∑i=1

wiPi (8.66)

dove wi sono le probabilita’ di avere lo stato |i〉. Nella base in cui i Pi sono diagonali, la

matrice densita’ e’ diagonale con autovalori wi e dunque

S = −∑i

wi logwi (8.67)

e vediamo che l’entropia di von Neumann coincide con quella definita da Shannon.

102

8.4 Matrice densita’ ridotta e misura dell’entan-

glement

L’ idea di entropia introdotta nella Sezione precedente e’ particolarmente rilevante per i

sistemi composti in quanto fornisce, come vedremo, una misura dell’entanglement degli

stati. Consideriamo allora un sistema composto da due sottosistemi 1 e 2. Una base

ortonormale e’ data da

|i, j〉 ≡ |i〉 ⊗ |j〉, i = 1, 2, · · · , N, j = 1, 2, · · · ,M (8.68)

dove |i〉 e |j〉 sono due basi ortonormali per i due sistemi 1 e 2. Lo stato normalizzato piu’

generale sara’ dunque

|ψ〉 =∑i,j

cij |i, j〉,∑i,j

|cij |2 = 1 (8.69)

Consideriamo un operatore O1 che agisca sul solo sistema 1, avremo

〈i, j|O1|i′, j′〉 = (O1)ii′δjj′ , (O1)ii′ = 〈i|O1|i′〉 (8.70)

Supponiamo di voler calcolare il valor medio di O1 sullo stato |ψ〉. Avremo

〈O1〉 = 〈ψ|O1|ψ〉 =∑ii′jj′

c∗ijci′j′(O1)ii′δjj′ =∑ii′

(O1)ii′∑j

ci′jc∗ij (8.71)

Introduciamo l’operatore densita’ ridotto per il sistema 1 come quell’operatore i cui ele-

menti di matrici sono dati da

(ρrid)i′i =∑j

ci′jc∗ij (8.72)

Notiamo che se pensiamo ai coefficienti cij come elementi di una matrice c (in generale

non quadrata), questa relazione si puo’ anche scrivere nella forma

ρrid = cc† (8.73)

Vediamo dunque che

〈O1〉 = Tr[O1ρrid] (8.74)

Formalmente possiamo ottenere la matrice densita’ ridotta anche tracciando la matrice

densita’ dell’intero sistema ρ = |ψ〉〈ψ| sugli stati del sistema 2. In dettaglio

ρ = |ψ〉〈ψ| =∑

i1j2k1l2

c∗k1l2ci1j2 |i1〉 ⊗ |j2〉〈k1| ⊗ 〈l2| (8.75)

La traccia parziale sul sistema 2 e’ definita nel seguente modo

ρrid = Tr2[ρ] =∑m2

〈m2|ψ〉〈ψ|m2〉 =∑m2

∑i1j2k1l2

c∗k1l2ci1j2 |i1〉〈k1|δj2m2δl2m2 (8.76)

103

da cui

ρrid =∑i1k1

∑j2

ci1j2c∗k1j2

|i1〉〈k1| =∑i1k1

(ρrid)i1k1 |i1〉〈k1| (8.77)

Che ρ1 sia una matrice densita’ lo si deduce notando che ne ha tutte le proprieta’

formali. Infatti ha traccia 1:

Tr[ρrid] =∑i

∑j

cijc∗ij =

∑ij

|cij |2 = 1 (8.78)

come segue dalla normalizzazione di |ψ〉. ρrid e’ hermitiana

(ρrid)∗ii′ =

∑j

(cijc∗i′j)∗ =

∑j

ci′jc∗ij = (ρrid)i′i (8.79)

ed inoltre e’ definita positiva. Per questo basta mostrare che per un generico stato |φ〉 di

1 si ha 〈φ|ρ1|φ〉 ≥ 0:

〈φ|ρrid|φ〉 =∑ii′

b∗i (ρ1)ii′bi′ =∑ii′

b∗i∑j

cijc∗i′jbi′ =

∑l

(∑i

b∗i cij

)∑i′

bi′ci′j (8.80)

e introducendo

dj =∑i

b∗i cij (8.81)

la precedente relazione diventa

〈φ|ρrid|φ〉 =∑j

|dj |2 ≥ 0 (8.82)

Cosi come abbiamo introdotto una matrice densita’ ridotta per il sistema 1, potremmo

anche introdurre una matrice densita’ ridotta per il sistema 2.

Supponiamo adesso che il vettore di stato |ψ〉 sia fattorizzabile, cioe’

cij = c1i c

2j (8.83)

La condizione di normalizzazione diventa∑i

|c1i |2 =

∑j

|c2j |2 = 1 (8.84)

e la matrice densita’ sara’

(ρrid)i′i =∑j

c1i′c

2jc

1∗i c

2∗j = c1

i′c1∗i (8.85)

ed il valore di aspettazione di O1

〈O1〉 = Tr[O1ρrid] =∑ii′

c1i c

1∗i′ (O1)i′i = 〈φ|O1|φ〉 (8.86)

104

con

|φ〉 =∑i

c1i |i〉 (8.87)

e lo stato del sottosistema 1 e’ uno stato puro (cosi come quello del sottosistema 2). Dunque

per uno stato complessivo fattorizzato, la matrice ridotta si fattorizza nel prodotto dei

coefficienti dello stato puro 1. Notiamo che noi abbiamo supposto che lo stato complessivo

sia uno stato puro. In tal caso la matrice densita’ dello stato e’ il proiettore sullo stato

stesso e soddisfa ρ2 = ρ, mentre la matrice densita’ ridotta non e’ in generale un proiettore

e non soddisfa ρ21 = ρ1.

Facciamo il seguente esempio. Consideriamo lo stato entangled

|ψ−〉 =1√2

(|ud〉 − |du〉) (8.88)

Questo e’ uno stato puro del sistema 1 + 2. I coefficient cij sono dati da

cuu = cdd = 0, cud = −cdu =1√2

(8.89)

da cui si trova facilmente

(ρrid)uu = (ρrid)dd =1

2, (ρrid)ud = (ρrid)du = 0 (8.90)

Dunque

ρrid =1

2

(1 00 1

)=

1

21 (8.91)

Pertanto

ρ2rid =

1

2ρrid (8.92)

che non e’ un proiettore. Pertanto lo stato che corrisponde a questa matrice densita’ e’

uno stato misto. Infatti corrisponde ad una miscela di spin su e spin giu’, ognuna con

probabilita’ 1/2. Possiamo ora calcolare l’entropia associata a ρrid. Si ha

S = −1

2log

1

2− 1

2log

1

2= log 2 (8.93)

Dunque l’entropia e’ massima (il sistema ha due stati) e non sappiamo in quale dei due

stati si trova il sistema 1. Supponiamo invece di sapere che i coefficienti cij , in un sistema

di due spin 1/2, sono dati da

cij =1

2(8.94)

Segue

(ρrid)uu = (ρrid)ud = (ρrid)du = (ρrid)dd =1

2(8.95)

Cioe’

ρrid =

(1/2 1/21/2 1/2

)(8.96)

105

Si verifica immediatamente che questo e’ un proiettore

ρ2rid = ρrid (8.97)

e dunque il sistema 1 si trova in uno stato puro. Infatti se calcoliamo l’entropia, notan-

do che i due autovalori della matrice densita’ sono necessariamente 0 ed 1, essendo un

proiettore ed avendo traccia 1, si trova4

S = −1 log 1− 0 log 0 = 0 (8.98)

il sistema ha entropia minimale e dunque conosciamo con certezza il suo stato. Infatti si

verifica immediatamente che lo stato del sistema 1 + 2 e’ uno stato fattorizzato

|ψ〉 =1√2

(|u〉+ |d〉)⊗ 1√2

(|u〉+ |d〉) (8.99)

Che questo stato e quello considerato precedentemente siano due stati distinti, lo si puo’

verificare direttamente tramite una misura dello spin del sistema 1. Infatti, nel caso dello

stato entangled, come abbiamo visto in precedenza

〈σi〉 = 0 (8.100)

mentre per lo stato fattorizzato si ha

〈σx〉 = Tr

[(1/2 1/21/2 1/2

)(0 11 0

)]= 1 (8.101)

mentre si trova zero per i valori medi di σy e σz.

Nel caso in esame e’ possibile esprimere in forma del tutto generale la matrice densita’

ridotta, osservando che la matrice hermitiana 2 × 2 piu’ generale la si puo’ scrivere in

termini della matrice identita’ e delle matrici di Pauli nella forma

ρrid = A+ ~B · ~σ (8.102)

con A e ~B reali. Se imponiamo la condizione di traccia uguale ad 1, segue

Tr[ρrid] = 2A = 1→ A =1

2(8.103)

Scriviamo allora (posto ~v = 2 ~B )

ρrid =1 + ~v · ~σ

2=

1 + v3

212v−

12v+

1− v3

2

(8.104)

con

v± = v1 ± iv2 (8.105)

4qui definiamo la quantita’ 0 log 0 come il limite di ε log ε per ε che tende a zero che e’ zero.

106

Questa matrice ha traccia 1 e determinante

det[ρrid] =1− |~v|2

4(8.106)

Dunque gli autovalori della matrice densita’ ridotta sono

1± |~v|2

(8.107)

Dato che la matrice densita’ deve essere definita positiva segue

|~v| ≤ 1 (8.108)

L’entropia e’ data da

S = −1 + |~v|2

log1 + |~v|

2− 1− |~v|

2log

1− |~v|2

(8.109)

Questa funzione e’ rappresentata graficamente in Fig. 8.3

S

v

Figura 8.3: Il grafico rappresenta l’entropia di eq. (8.109) in funzione di |~v|.

Come si vede si tratta di una funzione decrescente con massimo in |~v| = 0 e minimo

in |~v| = 1. In particolare, per ~v = 0 si ha il minimo di informazione e

ρrid =1

21 (8.110)

in accordo con l’esempio precedente. In maniera analoga per |~v| = 1 si ha il massimo di

informazione e quindi entropia nulla. In questo punto l’informazione e’ massima dato che

la matrice densita’ diventa un proiettore

ρ2rid =

1 + 2~v · ~σ + |~v|2

4=

2 + 2~v · ~σ + |~v|2 − 1

4= ρrid +

|~v|2 − 1

4(8.111)

Dunque quando ~v e’ un versore la matrice densita’ ridotta diventa un proiettore sugli

autostati ~v · ~σ che avranno autovalori ±1.

107

Il significato del vettore ~v che appare nella matrice densita’ e’ molto semplice, infatti

rappresenta il valor medio delle matrici σi nello stato corrispondente. Infatti

〈σi〉 = Tr[ρridσi] = Tr[1 + ~v · ~σ

2σi] =

1

2

∑j

vjTr[σjσi] =∑j

vjδij = vi (8.112)

dove abbiamo usato le seguenti proprieta’ delle matrici di Pauli

Tr[σi] = 0, Tr[σiσj ] = 2δij (8.113)

che seguono dalla proprieta’ (7.26) delle matrici di Pauli

σiσj = δij + i∑k

εijkσk (8.114)

8.5 L’esperimento della doppia fenditura e stati

entangled

S

1

-1

0

1

2

.

.

.

n

-1

-2.

.

.-n

Figura 8.4: La schematizzazione dell’esperiomento di Young usata nel testo.

Studieremo adesso una versione semplificata dell’esperimento della doppia fenditura.

Questa versione ci permettera’ di mostrare in maniera semplice come il processo di misura

si possa interpretare in termini di un processo di entanglement tra sistema da misurare

e apparato di misura. La schematizzazione che seguiremo e’ illustrata in Fig. 8.4. Gli

elettroni sono prodotti dalla sorgente S e possono passare solo dai punti indicati con 1

e −1. Gli elettroni5 possono solo arrivare nei punti indicati con n, · · · ,−1, 0, 1 · · ·n dove

vengono rivelati (per esempio impressionando una lastra sensibile).

5In questa sezione considereremo l’esperienza realizzata con elettroni ma analoghe considerazionisi potrebbero fare usando dei fotoni.

108

Come sappiamo l’evoluzione di uno stato e’ una trasformazione lineare sui vettori e

quindi se

|ψ〉 → |ψ′〉, |φ〉 → |φ′〉 (8.115)

una combinazione lineare dei vettori di stato si evolve secondo la legge

α|ψ〉+ β|φ〉 → α|ψ′〉+ β|φ′〉 (8.116)

Iniziamo pensando ad entrambe le fenditure, rappresentate da 1 e −1, aperte. Allora lo

stato iniziale si evolvera’ nel seguete modo

|S〉 → |1〉+ | − 1〉 (8.117)

dove abbiamo indicato con |S〉 lo stato che descrive l’elettrone alla sorgente e con |±1〉 gli

stati dell’elettrone al passaggio delle due fenditure. Se l’elettrone viene rivelato nel punto

denotato con n, indicheremo lo stato con |n〉 e l’evoluzione dell’elettrone dalla fenditura

allo schermo di rivelazione sara’ data da

|1〉 →∑n

ψn|n〉 (8.118)

con probabilita’ di arrivare in n data da |ψn|2 se la fenditura −1 viene chiusa. Analoga-

mente se chiudiamo la fenditura 1 avremo

| − 1〉 →∑n

φn|n〉 (8.119)

con probabilita’ |φn|2. Se le fenditure sono entrambe aperte avremo

|1〉+ | − 1〉 →∑n

(ψn + φn)|n〉 (8.120)

Dunque la probabilita’ che l’elettrone arrivi in n sara’ data da

Pn = |ψn + φn|2 6= |ψn|2 + |φn|2 (8.121)

La differenza e’ particolarmente evidente se consideriamo il punto 0. Infatti per simmetria

avremo ψ0 = φ0 e

P0 = 4|φ0|2 (8.122)

mentre considerando le due fenditure chiuse a turno, la somma delle due probabilita’ e’

2|φ0|2.

Ricordiamo anche che le ampiezze ψn e φn descrivono la funzione d’onda dell’elettrone

che, nel caso in esame, sara’ un’onda sinusoidale. Se consideriamo le ampiezze per arrivare

nel punto n puo’ succedere che le due ampiezze siano sfasate di π. In questo caso sono

uguali a parte il segno (ricordiamo che cos(α + π) = − cosα. Corrispondentemente la

probabilita’ di rivelare un elettrone nel punto n e’ uguale a zero. Dunque si ottiene una

figura di interferenza con dei massimi (per esempio in 0) e dei minimi (per esempio in n).

109

Notiamo che la somma delle due probabilita’ che si hanno tenendo chiusa una volta la

fenditura 1 ed una volta quella −1, sarebbe |ψn|2 + |φn|2.

Supponiamo adesso di avere entrambe le fenditure aperte, ma di voler determinare

da quale fenditura passa l’elettrone. Questo puo’ essere fatto in maniera molto semplice

usando una particella di spin 1/2, nello stato |d〉, posta nella fenditura 1. Se l’elettrone

passa dalla fenditura 1 lo spin si ribalta e lo stato fa una transizione a |u〉. Se invece

passa da −1, lo spin rimane nello stato iniziale |d〉 (vedi Fig. 8.5). Adesso il problema

S

1

-1

Figura 8.5: La determinazione del passaggio dell’elettrone da una fenditura o l’altraviene fatta tramite uno spin 1/2, diretto verso il basso, posto nella fenditura 1 e chel’elettrone ribalta quando passa da 1.

va pensato nello spazio di Hilbert che e’ il prodotto diretto dello spazio di Hilbert che

descrive l’elettrone e lo spazio di Hilbert (a due dimensioni complesse) che descrive lo spin

1/2. Lo stato iniziale sara’ dunque

|S, d〉 = |S〉 ⊗ |d〉 (8.123)

Nel caso in cui l’elettrone passi da 1 avremo

|S, d〉 → |1, u〉 (8.124)

mentre se passa da −1

|S, d〉 → | − 1, d〉 (8.125)

Dato che in questo caso entrambi i fori sono aperti avremo

|S, d〉 → |1, u〉+ | − 1, d〉 (8.126)

Dunque, l’effetto della misura, e’ di realizzare uno stato entangled tra l’elettrone e lo spin

1/2, cioe’ tra il sistema e l’apparato di misura. L’evoluzione temporale successiva sara’

|1, u〉+ | − 1, d〉 →∑n

ψn|n, u〉+∑n

φn|n, d〉 ≡ |ψ〉 (8.127)

Per calcolare la probabilita’ di trovare l’elettrone nel punto 0 e’ conveniente usare il for-

malismo dei proiettori. Indichiamo con Q0 il proiettore sul sottospazio corrispondente a 0

e teniamo conto del fatto che nello spazio prodotto diretto tale stato e’ degenere, si avra’

Q0 = |0, u〉〈0, u|+ |0, d〉〈0, u| (8.128)

110

e la probabilita’ cercata e’

P0 = 〈ψ|Q0|ψ〉 = |〈0, u|ψ〉|2 + |〈0, d|ψ〉|2 = 2|ψ0|2 (8.129)

dove si e’ tenuto conto del fatto che gli stati di spin sono ortonormali. Dunque il misurare

la fenditura da cui passa l’elettrone e’ equivalente a chiudere alternativamente le due

fenditure o, se vogliamo, al risultato classico quando si studia questo esperimento facendo

uso di particelle classiche invece che di onde.

Lo stesso risultato lo si puo’ ottenere usando il formalismo della matrice densita’

ridotta. Dall’espressione della |ψ〉 data in eq. (8.127) ed usando le stesse notazioni usate

nella eq. (8.69) si ha

cnu = ψn, cnd = φn (8.130)

e la matrice densita’ ridotta sara’ data da

(ρrid)nm =∑j=u,d

cnjc∗mj = ψnψ

∗m + φnφ

∗n (8.131)

Per calcolare la probabilita’ di trovare l’elettrone in 0, dovremo considerare il proiettore

sullo stato 0 che, questa volta, il va preso nello spazio ridotto

Q0 = |0〉〈0| (8.132)

La probabilita’ cercata si trova prendendo la traccia della densita’ ridotta con il proiettore

P0 = Tr[ρridQ0] =∑nm

(ρrid)nm(Q0)mn] (8.133)

D’altra parte

(Q0)nm = 〈n|0〉〈0|m〉 = δn0δm0 (8.134)

e dunque

P0 = 2|ψ0|2 (8.135)

Analogamente la probabilita di trovare l’elettrone in un punto generico n si cacola usando

il proiettore

Qn = |n〉〈n| (8.136)

e

(Qn)nm = δnnδmn (8.137)

da cui

Pn = |ψn|2 + |φn|2 (8.138)

E’ interessante considerare una variante in cui lo spin che serve da apparato di mi-

sura non sempre si ribalti ma rimanga invece inalterato al passaggio dell’elettrone con

probabilita’ |β|2 e che invece si ribalti, segnalando il passaggio, con probabilita’ |α|2 con

|α|2 + |β|2 = 1. In questo caso l’evoluzione dalla sorgente al primo schermo sara’

|S, d〉 → α|1, u〉+ β|1, d〉+ | − 1, d〉 (8.139)

111

con l’evoluzione temporale successiva data da

α|1, u〉+ β|1, d〉+ | − 1, d〉 →∑n

(αψn|n, u〉+ (βψn + φn)|n, u〉) (8.140)

Questa e’ del tutto analoga alla eq. (8.127) con le sostituzioni

ψn → αψn, φn → (βψn + φn) (8.141)

e quindi la probabilita’ di osservare l’elettrone nel punto 0 e’ data da

P0 = |α|2|ψ0|2 + |β|2|ψ0|2 + |φ|2 +β(ψ∗0φ0 +ψ0φ∗0) = |ψ0|2 +φ0|2 +β(ψ∗0φ0 +ψ0φ

∗0) (8.142)

dove abbiamo assunto β reale ed usato |α|2 + |β|2 = 1, Dato che per simmetria ψ0 e φ0

sono uguali, si trova

P0 = 2(1 + β)|ψ0|2 (8.143)

Notiamo che β = 1 significa che lo spin dell’apparato di misura rimane sempre in-

sensibile al passaggio dell’elettrone e questo caso risulta equivalente al caso in cui non si

determina da quale foro passa l’elettrone e infatti P0 = 4|ψ0|2. Se invece β = 0, siamo nel

caso in cui si determina sempre il foro di passaggio e pertanto si ha

P0 = 2|ψ0|2 (8.144)

come trovato precedentemente.

112

Capitolo 9

La critica EPR

Fino a non molto tempo fa la maggior parte dei libri di meccanica quantistica non ripoor-

tava nessuna discussione sulla interpretazione della meccanica quantistica. Questo fatto

e’ del tutto peculiare ed e’ il contrario di quanto accade in fisica classica in cui, di norma,

si inizia discutendo il concetto di misura di una quantita’ fisica e l’interpretazione che si

deve dare a queste misure. Questo risulta possibile perche’ l’assunzione fondamentale della

fisica classica e’ che, in linea di principio, sia sempre possibile rendere la misura di una

quantita’ fisica indipendente dall’apparato di misura. Ovviamente non e’ che non ci siano

interferenze tra l’apparato di misura e la quantita’ che si vuole misurare ma, secondo la

fisica classica, non ci sono ostacoli di principio a rendere questa interferenza piccola a pia-

cere ed in particolare piu’ piccola delle incertezze tipiche di ogni misura (limitazioni delle

scale di lettura, ecc.). Questo non e’ vero nell’ambito quantistico, dove non e’ possibile

separare in maniera netta l’apparato di misura dalla quantita’ che si intende misurare.

Questo fatto crea ovviamente delle ambiguita’ nella interpretazione delle misure stesse.

D’altro canto, ad oggi, la meccanica quantistica e’ stata applicata in un numero enorme

di situazioni fisiche diverse e sempre con pieno successo, al di la di ogni interpretazione

che si voglia dare del concetto di misura. E’ solo di recente che anche i libri di testo

dedicano qualche paragrafo al problema interpretativo. Uno dei motivi e’ che di recente

gli esperimenti in situazioni tipicamente quantistiche sono diventati possibili. Pertanto

risulta possibile discutere il problema della interpretazione su base quantitativa.

Nel passato e’ stata essenzialmente la discussione di due situazioni paradossali, il gatto

di Schrodinger1 e la critica di Einstein, Podolsky e Rosen (EPR)2, che ha polarizzato la

discussione. Discuteremo il primo paradosso in seguito. Iniziamo adesso a discutere la

critica EPR.

Facciamo alcune premesse. Per giudicare il successo di una teoria fisica occorre porsi

due domande:

1. La teoria e’ corretta? Il grado di correttezza di una teoria dipende evidente-

mente dal confronto con i dati sperimentali e quindi solo il confronto tra teoria ed

1Vedi: E. Schrodinger, Die Naturwissenschaften 23 (1935) 807-812, 823-828, 844-849.2Vedi: A. Einstein, B. Podolsky e N. Rosen, Physical Review 47 (1935) 777.

113

esperimento puo rispondere a questa questione. Inoltre e’ opportuno sottolineare

che l’accordo significa che le previsioni teoriche si accordano con i dati sperimentali

a disposizione ed entro le incertezze dovute agli strumenti di misura. Puo benissimo

accadere che la correttezza sia smentita da future misure di precisione superiore,

oppure che nuovi esperimenti non siano interpretabili in termini della teoria che

abbiamo a disposizione.

2. La descrizione fornita dalla teoria e’ completa? Questa affermazione e’ da

intendersi nel seguente senso: ogni elemento della realta’ fisica deve avere una con-

troparte nella descrizione teorica. Ovviamente per rispondere a questa questione

dobbiamo essere in grado di decidere quali siano gli elementi di realta. Noi faremo

uso della seguente definizione: Se, senza recare disturbo al sistema in esame, e’ pos-

sibile prevedere con certezza (cioe’ con probabilita’ uno) il valore di una quantita’

fisica, esiste un elemento di realta’ fisica corrispondente a questa quantita’ fisica. In

meccanica classica tutte le coordinate e tutti gli impulsi sono elementi di realta’.

Per illustrare queste considerazioni studiamo un caso unidimensionale. Sappiamo che

ad ogni grandezza fisica possiamo associare un operatore, A. Se abbiamo un autovettore

di A

A|ω〉 = ω|ω〉 (9.1)

la quantita’ A ha con certezza il valore ω quando il sistema si trova in |ω〉. Per esempio

se lo stato (nello spazio delle configurazioni) e’

ψp(x) = Neip0x/h/ (9.2)

questo e’ un autostato dell’impulso con autovalore p0. Pertanto l’impulso della particella

nello stato ψ(x) e’ un elemento di realta’. Questo stato non e’ ovviamente un autostato

della posizione, che dovrebbe essere

ψx0(x) = Cδ(x− x0) (9.3)

Quello che possiamo calcolare e’ la probabilita’ di trovare la particella, in un autostato

d’impulso assegnato, in un intervallo [a, b] dell’asse reale. Questa sara’ data da

P (a, b) =

∫ b

a|ψp|2dx = |N |2(b− a) (9.4)

Poiche’ la probabilita’ dipende solo dalla differenza b−a, tutti i valori della posizione sono

equiprobabili. Dunque non possiamo dire quale sia la coordinata della particella in un tale

stato. La potremmo misurare, ma in questo caso, come sappiamo, si altererebbe lo stato

del sistema immediatamente dopo la misura. Il risultato della meccanica quantistica e’

dunque: se conosciamo con certezza l’impulso di una particella, le sue coordinate non sono

elementi della realta’. Questa conclusione si applica a qualunque coppia di variabili A e

B che non commutano tra loro, [A,B] 6= 0. Cioe’ quando gli operatori corrispondenti a

114

due quantita’ fisiche diverse non commutano tra loro, le due quantita’ non possono essere

elementi di realta’ simultaneamente.

La conseguenza e’ che:

1. La descrizione quantistica in termini di funzione d’onda non e’ completa, oppure,

2. quando due operatori non commutano le quantita’ fisiche corrispondenti non possono

avere realta simultanee. Infatti se avessero realta simultanee entrerebbero nella

descrizione completa (per l’ipotesi di completezza). Quindi se la funzione d’onda

fornisse una descrizione completa allora i valori delle due osservabili potrebbero

essere predetti.

L’assunzione della meccanica quantistica e’ che la funzione d’onda fornisce una descri-

zione completa della realta’, completa nel senso che e’ possibile misurare un set completo

di osservabili commutanti. Vedremo che anche questa posizione porta a dei problemi che

sono precisamente quelli sollevati da EPR.

Ripetiamo qui l’argomento che abbiamo discusso all’inizio del capitolo sugli stati en-

tangled. Supponiamo di avere due sistemi I e II che interagiscono nell’intervallo temporale

(0, T ) con l’interazione che si annulla dopo il tempo T . Supponiamo di conoscere gli stati

prima del tempo t = 0. Usando l’equazione di Schrodinger possiamo calcolare come si

evolvono questi stati per ogni istante successivo ed anche, quindi, per t > T . In que-

sta situazione non saremo pero’ in grado di conoscere lo stato di ciascuno dei sistemi.

Per questo dobbiamo procedere alla misura di una qualche osservabile di particella singo-

la. Supponiamo di misurare l’osservabile della particella 1 corrispondente all’operatore A

con autovalori ai ed autostati (lavorando ancora nello spazio delle configurazioni) ui(x1).

Possiamo decomporre lo stato delle due particelle (lavorando ancora nello spazio delle

configurazioni)

Ψ(x1, x2) =∑i

ψi(x2)ui(x1) (9.5)

Le ψi(x2) sono niente altro che i coefficienti dell’espansione sul set completo ui(x1). Se

misurando A si trova il valore ai allora lo stato collassa in

Ψ(x1, x2)⇒ ψi(x2)ui(x1) (9.6)

Chiaramente la scelta delle funzioni ui(x) dipende dalla scelta dell’osservabile A. Se aves-

simo scelto una diversa osservabile B con autovalori bi ed autostati vi(x1) si sarebbe

ottenuto

Ψ(x1, x2) =∑i

φi(x2)vi(x1) (9.7)

Se adesso misuriamo B e troviamo bi avremo il collasso

Ψ(x1, x2)⇒ φi(x2)vi(x1) (9.8)

Pertanto come conseguenza della misura di osservabili diverse fatte sul sistema I, il sistema

II puo’ avere funzioni d’onda differenti. Ma dato che i due sistemi non interagiscono

115

il secondo sistema non puo’ cambiare, qualunque cosa si sia fatto sul primo. Pertanto

vediamo che e’ possibile assegnare due funzioni d’onda diverse al secondo sistema. E

quindi, non potendo assegnare un vettore di stato definito al secondo sistema si dedurrebbe

che la descrizione in termini di funzioni d’onda non e’ completa. Ovviamente se A e B

commutano non c’e’ alcun problema dato che le funzioni ψ e φ coincideranno. Ma se A e

B non commutano abbiamo un problema.

9.1 EPR riformulato da Bohm e Aharanov

Discuteremo adesso il paradosso EPR in un ambito piu semplice, quello di due sistemi

di spin, come formulato da Bohm e Aharonov. Iniziamo discutendo le ipotesi di realta,

di localita (le misure sul sistema I non influiscono sul sistema II) e di completezza come

assunte da EPR. Iniziamo riformulando i principi di base:

• Completezza: Ogni elemento della realta’ fisica deve avere una controparte nella

descrizione teorica.

• Principio di realta’: Se, senza intervenire sul sistema, si puo’ prevedere con certez-

za il valore di una grandezza fisica, a questa corrisponde una proprieta’ oggettiva

(o elemento di realta’) del sistema, cioe’ una proprieta’ che non dipende da possibili

osservatori esterni al sistema.

• Principio di localita’: Consideriamo due sistemi fisici che per un certo periodo

di tempo siano isolati tra di loro, allora l’evoluzione delle proprieta’ fisiche di un

sistema (in tale intervallo temporale) non puo essere influenzata da operazioni fatte

sull’altro. Questa formulazione della localita e anche detta localita alla Einstein.

L’esempio piu semplice, dovuto a Bohm e Aharonov (Phys. Rev. 108 (1957) 1070), e’

diventato la base di molte delle discussioni sul paradosso EPR. Bohm ha considerato il

decadimento di una particella di spin totale zero come il π0, un mesone, in una coppia

elettrone positrone, che sono particelle di spin 1/2. La conservazione del momento angolare

richiede che nello stato finale la coppia e+e− abbia momento angolare nullo3.

Chiamando elettrone e positrone particella 1 e 2 rispettivamente, considereremo le due

seguenti possibilita’

1. Esperimento I - Misura dello spin della particella 1 tramite un apparato di Stern e

Gerlach orientato lungo l’asse z.

2. Esperimento II - Misura dello spin della particella 1 tramite un apparato di Stern e

Gerlach orientato lungo l’asse x.

3Seguiremo qui la discussione di C.D. Cantrell e M.O. Scully in Physics Reports, C 43, 500(1978)

116

Notiamo che le due misure si riferiscono a osservabili incompatibili, la misura dello spin

lungo l’asse z e lungo l’asse x rispettivamente. Dunque le osservabili misurate sono S1z e

S1x che non commutano tra loro. Vediamo in dettaglio i due casi:

Esperimento I

Se supponiamo di misurare lo spin della particella 1 al tempo t0 (vedere Fig. 9.1),

x

y

zπ0

1 2

spin 1 spin 2

SGz

Figura 9.1: L’esperimento I. La particella 1 passa attraverso lo Stern e Gerlachorientato lungo l’asse z (indicato con la grossa freccia) e subisce una deflessioneverso il basso mostrando che lo spin e’ up.

conviene descrivere lo stato del sistema in termini degli autostati di S1z e S2z. Dato che

lo stato iniziale delle due particelle (dopo il decadimento del π0) ha spin 0, avremo

|ψ<12(I)〉 =1√2

(|u1, d2〉 − |d1, u2〉) (9.9)

dove, per esempio, la notazione |u〉 e’ un abbreviazione per |u〉z. Se la misura da come

risultato che lo spin della particella 1 e’ up, allora lo spin della particella 2 al tempo t > t0,

cioe’ dopo la misura, sara’ down e lo stato corrispondente

|ψ>2 (I)〉 = |d2〉 (9.10)

A questo punto il ragionamento secondo EPR va come segue. Dato che le due particelle,

dopo la disintegrazione del π0, non interagiscono piu’, lo stato della particella 2 deve essere

lo stesso prima e dopo la misura. Dunque prima della misura dovremmo avere

|ψ<2 (I)〉 = |ψ>2 (I)〉 = |d2〉 (9.11)

La matrice densita’ corrispondente sara’

ρ<2 (I) = |ψ<2 (I)〉〈ψ<2 (I)| = |d2〉〈d2| =(

01

)(0 1

)=

(0 00 1

)(9.12)

117

Esperimento II

Dato che in questo caso si misura lo spin della particella 1 lungo l’asse x conviene espri-

x

y

zπ0

1 2

spin 1 spin 2

SGx

Figura 9.2: L’esperimento I. La particella 1 passa attraverso lo Stern e Gerlachorientato lungo l’asse x (indicato con la grossa freccia) e subisce una deflessioneverso la direzione x mostrando che lo spin e’ orientato lungo −x.

mere lo stato di spin 0 delle due particelle nella base in cui sono diagonali S1x e S2x.

Indicheremo gli autostati nella direzione x con la notazione |u〉x = |+〉 e |d〉x = |−〉. Lo

stato iniziale (dopo il decadimento) verra’ scritto nella forma

|ψ<12(II)〉 =1√2

(|+1,−2〉 − |−1,+2〉) (9.13)

Se ora si misura lo spin della particella 1 tramite lo Stern e Gerlach orientato lungo −x(vedi Fig. 9.2) sappiamo che a t > t0 lo spin 2 sara’ orientato lungo +x e lo stato

corrispondente sara’

|ψ>2 (II)〉 = |+2〉 (9.14)

ed usando l’argomento EPR abbiamo, come nel caso precedente, che questo sara’ anche lo

stato a t < t0. Dunque

|ψ<2 (II)〉 = |ψ>2 (II)〉 = |+2〉 (9.15)

Per la matrice densita’ avremo

ρ<2 (II) = |ψ<2 (II)〉〈ψ<2 (II)| (9.16)

Ricordiamo la relazione tra gli auto stati di Sx e Sz. Si ha

|±〉 =1√2

(|u〉 ± |d〉) (9.17)

Pertanto

ρ<2 (II) =1

2(|u2〉+ |d2〉)(〈u2|+ 〈d2|) =

1

2

(11

)(1 1

)=

1

2

(1 11 1

)(9.18)

118

Come vediamo la matrice densita’ della particella 2 risulta essere diversa nei due diversi

esperimenti. Ma dato che abbiamo effettuato misure solo sulla particella 1 con nessuna

possibilita’ di interferenza con la particella 2, questo ci porta ad una contraddizione.

In questa discussione abbiamo usato il principio di realta’, perche’ la misura di S2z o

S2x fatta a t > t0 dara’ con certezza che lo spin 2 e’ down oppure orientato lungo +x,

quindi queste sono entrambe due proprieta’ oggettive del sistema. Abbiamo poi usato la

localita’ per asserire che queste proprieta’ oggettive a t > t0 lo sono anche per t < t0 dato

che le due particelle non interagiscono. Ma dato che le matrici densita’ della particella

2 sono diverse nei due casi, la deduzione alla EPR e’ che la teoria non e’ completa dato

che non e’ possibile associare alle proprieta’ oggettive che abbiamo determinato una unica

matrice densita’ od una unica funzione d’onda. Quindi queste proprieta’ non hanno una

controparte nella descrizione teorica. Vediamo che almeno una di queste proprieta’ e’ in

contrasto con la meccanica quantistica.

Mostriamo che, al contrario, i risultati dei due esperimenti qui esaminati sono in per-

fetto accordo con la Meccanica Quantistica ortodossa. A questo scopo occorre osservare

che se, in qualunque momento, noi chiediamo informazioni su una sola parte del sistema

(in questo caso lo spin della particella 2), questa va caratterizzata in termini della matrice

densita’ ridotta. Quindi, in entrambi i casi dovremo calcolare la matrice densita’ tracciata

sulla particella 1

ρ<2 = Tr1[ρ<12] (9.19)

Consideriamo ancora i due casi:

Esperimento I

In questo caso si ha

|ψ<12(I)〉 =1√2

(|u1, d2〉 − |d1, u2〉) (9.20)

e

ρ<2 (I) = Tr1[|ψ<12(I)〉〈ψ<12(I)|] =

=1

2

[〈u1| (|u1, d2〉 − |d1, u2〉) (〈u1, d2| − 〈d1, u2|) |u1〉+

+ 〈d1| (|u1, d2〉 − |d1, u2〉) (〈u1, d2| − 〈d1, u2|) |d1〉]

=

=1

2(|u2〉〈u2|+ |d2〉〈d2|) =

1

2I2 =

1

2

(1 00 1

)(9.21)

Esperimento II

Notiamo che lo stato iniziale

|ψ<12(II)〉 =1√2

(|+1,−2〉 − |−1,+2〉) (9.22)

119

e’ identico nel caso dell’esperimento I, salvo che e’ espresso nella base degli autostati di

Sx e si ottiene formalmente con le sostituzioni u→ + e d→ −. Dato che il calcolo di una

traccia non dipende dalla base scelta, possiamo calcolare la traccia parziale sugli autostati

di Sx e quindi otterremo un risultato analogo a quello di I:

ρ<2 (II) =1

2(|+2〉〈+2|+ |−2〉〈−2|) =

1

2I2 =

1

2

(1 00 1

)(9.23)

Il risultato in termini di matrici 2× 2 e’ identico al precedente, ma si potrebbe obiettare

che le due matrici sono espresse in basi diverse, ma occorre osservare che le due espressioni

astratte per la matrice ridotta mostrano che e’ proporzionale alla risoluzione dell’identita’

nelle due basi e quindi coincidono tra loro. Dunque abbiamo dimostrato che il risultato dei

due esperimenti, dal punto di vista della particella 2, e’ identico e che inoltre la matrice

densita’ descrive una miscela statistica. Questo si poteva intuire dal fatto che dopo la

misura la particella 2 viene proiettata in uno stato di spin definito e che quindi il risultato

di una serie di misure da’ il 50% delle volte −1/2 ed il restante 50% +1/2 quando la

particella 1 viene misurata avere rispettivamente spin 1/2 e −1/2.

Dunque la teoria ortodossa non da’ luogo a problemi. Rimane il fatto che dal punto di

vista EPR le tre proprieta’ di completezza, realismo e localita’ producono una inconsisten-

za. Una possibile via di uscita potrebbe essere una interpretazione statistica dei risultati.

Infatti il problema della correlazione tra osservabili esiste anche in meccanica classica. Per

esempio, nel decadimento di una particella si deve conservare l’impulso e quindi misu-

rando l’impulso di una particella si conosce anche quello dell’altra. Ma questo significa

semplicemente che l’impulso della seconda particella e’ una proprieta’ oggettiva e non ci

porta in nessuna contraddizione perche’ comunque questa proprieta’ e’ effettivamente ben

definita a livello classico. Il problema in meccanica quantistica e’ che il ragionamento per

cui si puo’ estrapolare all’indietro il valore conosciuto cozza con il fatto che quella variabile

non ha un valore ben definito nello stato originario dato che si tratta di uno stato entan-

gled. Ma questo suggerisce che forse e’ possibile concepire un modello di tipo statistico

in cui sia possibile assegnare un valore definito alle osservabili, ma le proprieta’ quanti-

stiche derivano dal fatto che non conosciamo esattamente questi valori perche’ dipendono

da una variabile non osservata. Questi modelli prendono il nome di modelli di variabili

nascoste.

Nella Sezione successiva mostreremo un argomento di Bell che permette di distinguere

sperimentalmente tra teorie di variabile nascosta e meccanica quantistica e che i risultati

sperimentali prediligono la meccanica quantistica. Una successiva definizione di localita’

in Meccanica Quantistica ci mostrera’ che esiste effettivamente una non localita’ associata

alle misure di correlazione come quelle presenti nella discussione EPR.

Pertanto in Meccanica Quantistica delle tre proprieta’ richieste da EPR solo realismo

e completezza sono valide. Faremo anche vedere che la non localita’ non porta pero’ ad

una violazione del principio di causalita’ (la causa precede l’effetto).

120

9.2 Le teorie di variabili nascoste e la disugua-

glianza di Bell

Le teorie di variabili nascoste sono di tipo classico, anche se con trattazione di tipo proba-

bilistico nello stesso senso della meccanica statistica4. Dunque valgono sia la completezza

che la realta’. Inoltre si assume la localita’ per non cadere in contraddizione con la teoria

della relativita’ ristretta. Ma nel 1964 John Bell sferro’ un duro colpo a queste teorie

perche’ mostro’ che qualunque teoria di variabile nascosta locale e’ incompatibile con la

meccanica quantistica.

Cominciamo con l’osservare che nell’esperimento descritto nella sezione precedente

esiste una chiara correlazione tra i risultati delle misure che vengono effettuate. Infatti

se l’osservatore 1 fa molte misure e trova i seguenti risultati risultati per lo spin del-

l’elettrone (+,+,−,+,−,−, · · · ), l’osservatore 2 misurera’ i seguenti spin del positrone

(−,−,+,−,+,+, · · · ). La correlazione e’ tale che i prodotti delle quantita’ misurate dai

due osservatori da’ come unico risultato −1. In effetti la correlazione dei risultati otte-

nuti in diverse misure e’ una quantita’ che si calcola facilmente in meccanica quantistica.

Bell suggeri’ dunque una generalizzazione dell’esperimento sugli spin che abbiamo discus-

so precedentemente: invece di orientare i rivelatori dell’elettrone e del positrone lungo la

stessa direzione, assunse una angolazione arbitraria tra i due rivelatori. Il primo rivelatore

misura la componente dello spin dell’elettrone lungo la direzione specificata dal versore ~a

mentre il secondo misura lo spin del positrone lungo quella specificata da ~b. La meccanica

quantistica permette di calcolare questa correlazione prendendo semplicemento il valor

medio dei prodotti (~σ1 · ~a)(~σ2 ·~b). Se per esempio, se facessimo una serie di 5 misure con

i risultatie− e+ Prodotto

+1 −1 −1+1 +1 +1−1 +1 −1+1 −1 −1−1 −1 +1

(9.24)

il valor medio del prodotto delle proiezioni dei due spin lungo le direzioni ~a e ~b risulterebbe

1

5(−1 + 1− 1− 1 + 1) = −1

5= −0.2 (9.25)

D’altra parte noi sappiamo che il valor medio di un operatore e’ dato dal suo valore di

aspettazione sullo stato del sistema e dunque avremo per la correlazione spin-spin, P (~a,~b)

P (~a,~b) = 〈ψ|(~σ1 ·~a)(~σ2 ·~b)|ψ〉 = −〈ψ|(~σ1 ·~a)(~σ1 ·~b)|ψ〉 = −〈ψ|(~a ·~b)|ψ〉 = − cos θab (9.26)

4La meccanica statistica tratta sistemi con un gran numero di gradi di liberta’. Questo com-porta, di fatto, l’ignoranza sulle condizioni iniziali del sistema. A questo si ovvia sostituendo allaconoscenza dei dati iniziali dello stato del sistema una funzione di probabilita’ che caratterizzi ipossibili stati iniziali

121

Nel primo passaggio abbiamo usato il fatto che |ψ〉 e’ uno stato di spin 0 e quindi

1

2

(~S1 + ~S2

)|ψ〉 = (~σ1 + ~σ2) |ψ〉 = 0 (9.27)

dunque

~σ1|ψ〉 = −~σ2|ψ〉 (9.28)

Nel secondo passaggio abbiamo usato l’algebra delle matrici di Pauli

σiσj = δij + iεijkσk (9.29)

da cui

(~σ · ~a)(~σ ·~b) = ~a ·~b+ i(~a ∧~b) · ~σ (9.30)

ed il fatto che nello stato di singoletto il valore di aspettazione di qualunque componente

di ~σ e’ nullo

〈ψ|~σ1|ψ〉 = 0 (9.31)

Infine essendo ~a e ~b due vettori unitari il loro prodotto scalare e’ semplicemente il coseno

dell’angolo compreso θab. Dunque la correlazione spin-spin quantistica e’

P (~a,~b) = − cos θab (9.32)

Consideriamo ora una teoria di variabili nascoste. Prenderemo in esame solo il caso di

una singola variabile nascosta e che supporremo continua. Tutto l’argomento seguente si

puo’ pero’ estendere facilmente al caso di piu’ variabili che possono essere sia continue che

discrete. Supponiamo dunque che lo stato completo del sistema elettrone-positrone sia

caratterizzato da una variabile nascosta λ in maniera per noi incontrollabile. Supponiamo

inoltre che il risultato della misura fatta sull’elettrone sia indipendente dall’orientazione ~b

del rivelatore del positrone. Infatti essa potrebbe essere scelta dall’osservatore situato dalla

parte del positrone appena prima che venga effettuata la misura sull’elettrone, troppo tardi

quindi perche’ un qualsiasi segnale a velocita’ inferiore a quella della luce possa tornare

indietro al rivelatore dell’elettrone. L’ipotesi e’ che le predizioni delle misure delle due

orientazioni di spin siano date da funzioni A(~a, λ) e B(~b, λ). Il fatto che queste funzioni

dipendano solo da uno dei vettori ~a o ~b e’ appunto l’ipotesi di localita’. Inoltre queste

funzioni possono assumere solo i valori ±1:

A(~a, λ) = ±1; B(~b, λ) = ±1 (9.33)

Inoltre sappiamo che quando i rivelatori sono allineati i risultati sono perfettamente

anticorrelati, e dunque dovremo avere

A(~a, λ) = −B(~a, λ) (9.34)

per ogni valore di λ. In questa teoria il valor medio del prodotto dei risultati delle due

misure e’ dato da

P (~a,~b) =

∫dλP(λ)A(~a, λ)B(~b, λ) = −

∫dλP(λ)A(~a, λ)A(~b, λ) (9.35)

122

dove la funzione P(λ) e’ la probabilita’ statistica che compete ad ogni valore di λ5 e dunque

P(λ) ≥ 0, ∀λ,∫dλP(λ) = 1 (9.36)

Consideriamo ora un terzo versore ~c e la differenza

P (~a,~b)− P (~a,~c) = −∫dλP(λ)

[A(~a, λ)A(~b, λ)−A(~a, λ)A(~c, λ)

](9.37)

Usando

A(~b, λ)2 = 1 (9.38)

possiamo riscrivere

P (~a,~b)− P (~a,~c) = −∫dλP(λ)A(~a, λ)A(~b, λ)

[1−A(~b, λ)A(~c, λ)

](9.39)

Notiamo che

−1 ≤ A(~a, λ)A(~b, λ) ≤ +1 (9.40)

P(λ)[1−A(~b, λ)A(~c, λ)

]≥ 0 (9.41)

Prendendo allora il modulo della (9.39) si ha

|P (~a,~b)− P (~a,~c)| =∣∣∣ ∫ dλP(λ)A(~a, λ)A(~b, λ)

[1−A(~b, λ)A(~c, λ)

] ∣∣∣ ≤≤∫dλP(λ)

[1−A(~b, λ)A(~c, λ)

](9.42)

Dunque

|P (~a,~b)− P (~a,~c)| ≤ 1 + P (~b,~c) (9.43)

Questa e’ la famosa disuaglianza di Bell: vale per qualunque teoria di variabile nascosta

locale soggetta solo alle condizioni delle equazioni (9.33) e (9.34). Ricordiamo ancora che

non sono state fatte assunzioni ne’ sulla densita’ di probabilita’ P(λ) ne’ sulla natura

della variabile nascosta λ. Si puo’ anche mostrare che lo stesso risultato e’ valido per un

numero arbitrario di variabili nascoste. E’ facile mostrare che la predizione della meccanica

quantistica e’ incompatibile con la disuguaglianza di Bell. Supponiamo per esempio che

tutti e tre i vettori ~a,~b,~c giacciano in un piano e che ~c formi un angolo di 450 sia con ~a sia

con ~b (e quindi θab = 900); in questo caso, il risultato della meccanica quantistica e’:

P (~a,~b) = 0, P (~a,~c) = P (~b,~c) = − 1√2≈ − 0.707 (9.44)

da cui

|P (~a,~b)− P (~a,~c)| = 1√2≈ 0.707, 1 + P (~b,~c) = 1− 1√

2≈ 0.293 (9.45)

5Se λ e’ discreta questa formula equivale a fare la media pesata delle varie misure, con ilpeso wi che corrisponde della probabilita’ che si realizzi il valore λi per λ. Cioe’ P (~a,~b) =∑

i wiA(~a, λi)B(~b, λi)

123

palesemente in contrasto con la disuguaglianza di Bell.

Dunque se il mondo microscopico si potesse spiegare con una opportuna teoria di

variabile nascosta, la disuguaglianza di Bell sarebbe valida e la meccanica quantistica

sarebbe sbagliata. Se invece la MQ e’ corretta allora non c’e’ alcuna teoria di variabile

nascosta che ci potra’ venire in soccorso per salvarci dai problemi sollevati da EPR.

D’altra parte Bell ci offre, con la sua disuguaglianza, la possibilita’ di verificare quale

delle due teorie sia corretta.

Sono stati effettuati molti esperimenti negli anni 60 e 70 per mettere alla prova la

disuguaglianza di Bell, culminati nel lavoro di Aspect, Grangier e Roger. A dire il vero

loro usarono transizioni atomiche a due fotoni e non decadimento di pioni ma la trattazione

teorica non differisce dal caso di spin 1/2 qui analizzato. Per escludere la possibilita’ che

i due rivelatori fossero sensibili alle loro posizioni reciproche, le due orientazioni furono

fissate a caso dopo che i fotoni erano gia’ in volo. I risultati furono in ottimo accordo con

le predizioni della MQ e incompatibili con la disuguaglianza di Bell.

La conferma sperimentale della MQ arrivo’ come una sorta di mazzata sulla comu-

nita’ scientifica. Infatti dimostrava che la natura in se’ e’ fondamentalmente non locale.

Infatti se vogliamo credere alla meccanica quantistica non possiamo non pensarla come

una teoria completa. Altrimenti la dovremmo considerare solo una teoria fenomenologica.

Analogamente e’ difficile abbandonare il principio di realta’. Questo abbandono significa

ammettere che la funzione d’onda non e’ una proprieta’ del sistema ma e’ solo un oggetto

matematico che ci permette di prevedere alcune caratteristiche del sistema, ma non lo

descrive in modo completo. L’unica alternativa appare essere l’abbandono dell’idea di lo-

calita’. Evidentemente nella interpretazione di Copenhagen questa idea e’ implicitamente

abbandonata, dato che la localita’ fa a cozzi con la riduzione del pacchetto d’onda. In-

fatti, la non localita’ nella forma del collasso istantaneo della funzione d’onda era stata

da sempre una caratteristica dell’interpretazione ortodossa, ma prima degli esperimenti di

Aspect era ancora possibile sperare che la non localita’ quantistica fosse in qualche modo

un artefatto privo di significato. Tale speranza risulta ormai priva di fondamento e siamo

obbligati a riesaminare la nostra avversione alla non localita’. Perche’ l’idea stessa di

influenze superluminali provoca cosi’ tanto allarme fra i fisici? Dopo tutto ci sono molte

cose che viaggiano piu’ velocemente della luce. Se una pulce attraversa un fascio di luce

di un proiettore la velocita’ della sua ombra e’ proporzionale alla distanza dallo schermo:

in linea di principio tale distanza puo’ essere grande quanto si vuole e quindi l’ombra

puo’ muoversi con velocita’ arbitrariamente grande. L’ombra pero’ non trasporta alcuna

energia e non puo’ trasmettere alcun messaggio da un punto all’altro dello schermo.

D’altra parte, un influsso causale che si propagasse piu’ velocemente della luce im-

plicherebbe conseguenze inaccettabili. Infatti, secondo la teoria della relativita’ speciale

esistono sistemi di riferimento inerziali in cui un tale segnale si potrebbe propagare all’in-

dietro nel tempo con l’effetto che precederebbe la causa e cio’ darebbe luogo ad anomalie

logiche senza via di scampo. La domanda e’: gli influssi superluminali previsti dalla MQ

e messi in evidenza in modo concreto dagli esperimenti di Aspect sono in accordo o meno

124

con il principio di causalita’6?

Consideriamo ancora l’esperimento del decadimento del π0. La misura sull’elettrone

influenza il risultato che si ottiene nella misura sul positrone? Certo che si’ altrimenti non

potremmo spiegare la correlazione fra i dati. Ma possiamo dire che la misura sull’elettrone

causi un particolare effetto sulla misura del positrone? No, in nessun senso comune della

parola.

Infatti l’osservatore dalla parte del positrone non e’ in grado di sapere il risultato della

misura dello spin sino al momento in cui la compie. Lo puo’ sapere solo se l’osservatore

dell’elettrone gli comunica (con velocita’ inferiore o pari a quella della luce) il valore della

sua misura. Chi guarda il positrone ha accesso solo ai dati dalla sua parte dell’esperimento,

non puo’ dire se la misura sull’elettrone sia stata effettuata o no, dato che le due liste di

dati compilate dalle due parti dell’esperimento, se prese separatamente, sono del tutto

casuali. E’ solo quando le si confrontano che si scoprono le notevoli correlazioni.

Dunque l’unica manifestazione della non localita’ quantistica sta nella correlazione tra

due liste di dati del tutto casuali se presi singolarmente e non produce alcuna violazione

della causalita’. Daremo, successivamente, una dimostrazione di questo fatto.

E interessante sapere che il teorema di Bell puo essere dimostrato assumendo sempli-

cemente che lo spazio delle fasi classico e’ costituito da un insieme di punti . Pertanto le

operazioni logiche ammissibili su questi insiemi sono quelle classiche di unione ed interse-

zione. Dato che le operazioni logiche ammiseibili in uno spazio vettoriale vanno definite in

altro modo, si deduce che la distinzione tra fisica classica e meccanica quantistica e dovuta

alla diversa struttura dello spazio delle fasi.

9.3 Localita

Come abbiamo visto nella discussione EPR della Sezione 9.2, le ipotesi di localita’, rea-

lismo e completezza sono contraddittorie tra di loro. Cercheremo adesso di definire la

localita’ in un modo che non coinvolga elementi al di fuori della Meccanica Quantistica.

Consideriamo allora (come nel caso EPR) due sistemi S1 e S2 entangled tra di loro e che

siano separati spazialmente in modo da non avere piu’ interazioni. I due sistemi, ad un

istante t0, successivo al loro disaccoppiamento, interagiscono con due apparati di misura

X e Y completamente disaccoppiati (vedi Fig. 9.3). Diremo che il principio di localita’

e’ soddisfatto se la misura di una osservabile Q1 del sistema S1 fatta da X non

influisce sulle misure di osservabili di S2 fatte da Y. L’hamiltoniana che descrive

il sistema dal tempo t0 in poi sara’

H = H1 +H2, H1 = K1 +KX + V1X , H2 = K2 +KY + V2Y (9.46)

dove K1,2 sono le hamiltoniane relative a S1 e S2 rispettivamente ed analogamente per

KX,Y . I termini V1X e V2Y descrivono l’interazione tra gli apparati di misura X e Y

6Il principio di causalita’ dice in sostanza che l’effetto non puo’ precedere la causa

125

S S1 2

entangled states

X Y

Figura 9.3: I sistemi entangled S1, S2 e gli apparati di misura X, Y , come descrittinel testo discusse nel testo.

rispettivamente con S1 e S2. E’ importante osservare che dopo il tempo t0 non ci sono

interazioni tra i sistemi (S1, X) e (S2, Y ) e quindi l’hamiltoniana H e’ separabile:

[H1, H2] = 0 (9.47)

Corrispondentemente l’operatore di evoluzione fattorizza

U = U1U2, Ui = e−i(t− t0)Hi/h/ (9.48)

Lo stato a t0 e’ descritto da una matrice densita’

ρ0 = ρ0S ⊗ ρ0

X ⊗ ρ0Y (9.49)

dove ρ0S e’ la matrice densita’ per gli stati entangled S1 e S2. Supponiamo adesso di

misurare una osservabile Q1 del sistema S1, tramite l’apparato di misura X al tempo

t > t0. Avremo

〈Q1〉 = Tr [Q1ρ] = Tr[Q1U1U2ρ

0U †2U†1

]= Tr

[U †2Q1U1U2ρ

0U †1

]= Tr

[U †1Q1U1ρ

0]

(9.50)

dove abbiamo usato ripetutamente la proprieta’ ciclica della traccia e la commutativita’

di U2 con U1 e Q1. Come si vede, dal calcolo e’ sparita la dipendenza da U2 e quindi

dall’apparato di misura Y che appare solamente nella ρ0Y . Questo significa che lo stato

dell’apparato di misura Y non viene toccato da misure fatte su osservabili di S1.

Il discorso e’ diverso per le misure di correlazione che dipendono da osservabili che

stanno nel prodotto diretto dei due spazi di Hilbert e saranno di tipo Q1⊗Q2 e che hanno

un carattere non-locale. Il teorema di Bell ci dice che questa non-localita’ non puo’ essere

riprodotta da teorie di variabili nascoste locali.

126

In definitiva la riduzione del pacchetto non provoca problemi su questo fronte. Vedremo

pero’ che questa non e’ la fine della storia, perche’ questa ipotesi appare come una ipotesi

ad hoc che si applica solo al momento della misura effettuata con apparati macroscopici.

D’altra parte anche l’apparato di misura e’ fatto di elementi microscopici ed in linea

di principio lo si potrebbe descrivere in termini di meccanica quantistica. Dunque se la

meccanica quantistica e’ corretta e’ naturale porsi la domanda se la riduzione del pacchetto

puo’ essere dedotta dalla meccanica quantistica stessa. Se cosi’ non fosse, come vedremo,

saremmo portati a dover considerare seriamente un altro paradosso che e’ quello del gatto

di Schrodinger. Ed e’ appunto questa analisi che faremo nel capitolo successivo.

127

Capitolo 10

La misura in MeccanicaQuantistica

Il concetto di misura in Meccanica Quantistica e’ qualcosa di profondamente diverso da

quello della Meccanica Classica. In quest’ultimo caso noi sappiamo, a priori, che una

quantita’ che si vuole misurare in un determinato sistema ha un valore ben definito e che,

tramite una misura ideale1 e’ possibile determinare quel valore. Al contrario, nel caso

della Meccanica Quantistica, il valore della osservabile che vogliamo misurare, prima della

misura, non e’ definito. Come sappiamo, questo valore puo’ essere uno qualunque degli

autovalori dell’osservabile. Quello che fa l’operazione di misura e’ di proiettare lo stato del

sistema nell’autostato dell’osservabile che corrisponde al valore misurato. Solo dopo questa

procedura di preparazione dello stato conosciamo a priori il valore dell’osservabile, cioe’

prima di una ulteriore misura della stessa osservabile, infatti in questo caso la probabilita’

di ottenere proprio quel valore e’ pari ad 1. Vediamo che in Meccanica Quantistica e’

importante distinguere tra due processi (sebbene entrambi costituiscano una procedura

di misura), la preparazione e la misura vera e propria. Nella preparazione si ottiene

uno stato con proprieta’ definite rispetto all’osservabile che si misura, ma in generale lo

stato cosi’ ottenuto non ha proprieta’ definite rispetto ad altre osservabili (in particolare

quelle che non commutano con la nostra osservabile). Possiamo dire che il processo di

preparazione e’ contestuale rispetto alla particolare osservabile di riferimento. Notiamo

che in Meccanica Classica si assume invece che in un dato sistema tutte le osservabili

abbiano un valore ben definito.

Possiamo esemplificare con una particella di spin 1/2 che si voglia preparare in uno

stato di sz definito, per esempio +h//2. Questo puo’ essere fatto usando un apparato di

Stern-Gerlach con un campo magnetico orientato lungo l’asse z. Noi sappiamo che i due

fasci con sz = ±h//2 vengono separati. Bloccando il fascio con sz = −h//2 otteniamo un

fascio di particelle aventi tutte la polarizzazione desiderata. Ovviamente le particelle cosi’

1In MC per misura ideale si intende una misura eseguita con una indeterminazione che puo’essere resa piccola a piacere. Cioe’ e’ una misura che non perturba il sistema, o comunque loperturba molto poco e al di sotto della precisione che si vuole realizzare nell’esperimento.

128

preparate non hanno piu’ un valore definito di sx. Infatti sappiamo che se si misura sx si

puo’ ottenere come risultato sia sx = +h//2 che sx = −h//2, ognuno con probabilita’ 1/2.

Dunque la preparazione corrisponde a selezionare uno stato particolare del sistema

sottoponendolo ad una determinata procedura di misurazione. Nel processo di misura

quantistico noi chiediamo al sistema il valore dell’osservabile. Dunque il risultato della

misura non e’ controllabile in alcun modo da parte dello sperimentatore. Nel caso classico

la misura ci dice qual’e’ il valore dell’osservabile misurata in un dato stato. Supponiamo

adesso che, prima della misura, il sistema si trovi in una sovrapposizione di autostati

dell’osservabile Ω che vogliamo misurare

|ψ〉 =∑k

ck|ωk〉 (10.1)

Se il risultato della misura e’ ωk, dopo la misura lo stato verra’ proiettato nel corrispon-

dente autostato

|ψ〉 → |ωk〉 (10.2)

Si puo’ dimostrare che, eccetto il caso in cui |ψ〉 sia un autostato di Ω, non esiste nessun

operatore unitario che connetta i due stati, cioe’

Uk|ψ〉 6= |ωk〉, U †kUk = I (10.3)

Infatti i due stati sono connessi dal proiettore

Pk = |ωk〉〈ωk|, |ψ〉 → Pk|ψ〉 (10.4)

che e’ un operatore con autovalori 0, 1 e quindi non invertibile, eccetto sul sottospazio

corrispondente all’autovalore 1, vale a dire sul sottospazio appartenente all’autovalore

ωk. Dunque l’evoluzione che subisce lo stato |ψ〉 durante il processo di misura non puo’

coincidere con l’evoluzione temporale prevista dall’equazione di Schrodinger che e’ una

evoluzione prodotta da un operatore unitario.

Possiamo riformulare quanto abbiamo detto in termini della matrice densita’. Consi-

deriamo questa matrice prima della misura

ρprima = |ψ〉〈ψ| =∑i

|ci|2|ωi〉〈ωi|+∑i 6=j

cic∗j |ωi〉〈ωj | (10.5)

Se vogliamo ottenere un risultato ben definito dalla misura occorre che i termini misti si

annullino e che soppraviva solo il termine

ρdopo =∑i

|ci|2|ωi〉〈ωi| (10.6)

La matrice densita’ si deve ridurre ad una miscela statistica il cui significato e’ che avremo

una probabilita’ pari a |ci|2 per ottenere come risultato ωi. Ovviamente non esiste un

129

operatore unitario che possa svolgere questa funzione. A tale scopo dobbiamo operare con

operatori di proiezione e le due matrici sono connesse dalla seguente operazione

ρprima → ρdopo =∑i

PiρprimaPi, Pi = |ωi〉〈ωi| (10.7)

Questa operazione prende il nome di postulato di proiezione e la miscela statistica che

si ottiene si chiama miscela di Luders. Ad esempio consideriamo uno spin 1/2 e partiamo

dallo stato

|ψ〉 = c+|+〉+ c−|−〉 (10.8)

Per calcolare la proiezione ∑i

PiρprimaPi =∑i

Pi|ψ〉〈ψ|Pi (10.9)

notiamo che

P+|ψ〉 = c+|+〉, P−|ψ〉 = c−|−〉 (10.10)

ed usando l’hermiticita’ degli operatori di proiezione si trova

ρdopo = |c+|2|+〉〈+|+ |c−|2|−〉〈−| (10.11)

Nella interpretazione di Copenhagen, la riduzione del vettore di stato si verifica allor-

che’ si misuri un’osservabile. Dato che alla fine il risultato della misura deve arrivare all’os-

servatore si assume che gli apparati usati, od almento gli indici che danno la misura stessa,

siano apparati macroscopici. Pertanto il postulato del collasso significa letteralmente che il

collasso si verifica allorche’ si effettui una misura con un apparato macroscopico. E’ questa

affermazione che fino ad ora non ha mai avuto smentite sperimentali. E’ chiaro pero’ il

problema interpretativo dato che qualunque apparato macroscopico puo’ essere analizzato

nei suoi componenti microscopici, atomi etc. Pertanto il processo di misura stessa puo’

essere, in linea di principio, analizzato in termini quantistici. Ma se cosi fosse il collasso

dovrebbe seguire automaticamente da questa analisi. Altrimenti la meccanica quantistica

cosi come e’ formulata mancherebbe di qualche elemento. Il problema principale e’ che,

se ignoriamo il collasso, la meccanica quantistica e’ perfettamente deterministica, dato

che l’equazione di Schrodinger permette di conoscere completamente il vettore di stato a

qualunque istante, una volta che sia assegnato ad un istante iniziale. Invece il collasso e’

un fenomeno assolutamente non deterministico, poiche’ la funzione d’onda puo’ collassare

con diverse probabilita’ in diversi vettori di stato senza nessuna possibilita’ di previsione

a priori. In altri termini, la formulazione della Meccanica Quantistica, nella sua inter-

pretazione alla Copenhagen, prevede due distinte evoluzioni temporali. Una che avviene

attraverso l’equazione di Schrodinger tramite un operatore di evoluzione unitario ed una,

al momento della misura, che si postula avvenire attraverso un processo non unitario, cioe’

la riduzione o il collasso del vettore di stato. Il primo a formalizzare in questo senso il

problema della misura fu Von Neumann nel 1932. D’altra parte egli si rese conto che

non era possibile giustificare quantisticamente il fenomeno del collasso e questo lo porto’

130

ad introdurre la coscienza dell’osservatore come elemento atto a produrre tale fenomeno.

Con le parole di Von Neumann la coscienza individuale dovrebbe costituire un fenomeno

extra-osservazionale, quindi non riducibile a termini fisici.

Ci sono proposte diverse per uscire da questa situazione, in particolare aggiungendo

ulteriori elementi alla meccanica quantistica. In questo corso prenderemo una strada piu’

tradizionale che e’ quella di cercare di risolvere il problema del collasso nell’ambito stesso

della meccanica quantistica. Ora e’ evidente che e’ impossibile descrivere un fenomeno

non deterministico nell’ambito di una teoria completamente deterministica. Dunque se

una soluzione esiste, questa puo’ essere solo una soluzione di tipo efficace, cioe’ dovra’

essere una soluzione deterministica ma che a tutti gli effetti pratici si comporta come

non deterministica. Una tale situazione e’ chiamata in inglese FAPP (For All Practical

Purposes). Vedremo che la teoria della decoerenza e’ proprio di questo tipo, cioe’ se

si misura una certa osservabile, in un tempo assolutamente trascurabile (detto tempo

di decoerenza) il sistema viene a trovarsi nell’autostato dell’osservabile corrispondente

all’autovalore misurato.

Quello che fa la teoria della decoerenza e’ di introdurre uno spazio di Hilbert piu’

grande che comprende, oltre ai gradi di liberta’ del sistema in esame, anche i gradi di

liberta’ dell’ambiente esterno che, inevitabilmente interagisce con il sistema. In questo

spazio allargato l’evoluzione avviene in modo deterministico tramite un operatore unitario,

ma quando restringiamo la nostra osservazione al sistema dobbiamo rivolgere la nostra

attenzione allo spazio di Hilbert originario. Ma un operatore unitario in uno dato spazio

non e’ necessariamente unitario in un sottospazio. In questo modo viene evitato l’impasse

della doppia evoluzione temporale.

Le interazioni dei gradi di liberta’ macroscopici dell’apparato di misura (per esempio

la posizione di un indice su una scala di misura) con i gradi di liberta’ microscopici dell’ap-

parato stesso ed eventualmente con i gradi di liberta’ che descrivono l’ambiente circostante

generano un fenomeno dissipativo per cui i gradi di liberta’ macroscopici cedono energia

agli altri gradi di liberta’. Per esempio, un indice viene regolato da una molla che col pas-

sare del tempo tende a ritornare nella posizione originaria a causa degli attriti. Quello che

succede in modo abbastanza generale e’ che il tempo di decoerenza risulta proporzionale al

tempo di dissipazione (il tempo caratteristico dei processi di attrito) con un coefficiente di

proporzionalita’ estremamente piccolo. Dunque anche per fenomeni dissipativi molto lenti

(e quindi con tempi di dissipazione lunghi) il tempo di decoerenza e’ piccolissimo e prati-

camente non misurabile. Recentemente sono stati fatti degli esperimenti in cui l’apparato

di misura e’ simulato da sistemi mesoscopici2. Per esempio, un sistema con un numero

piccolo di fotoni, dell’ordine di 5-10, puo’ essere considerato mesoscopico. In questi sistemi

il tempo di decoerenza e’ sufficientemente grande per poterlo misurare. Ebbene i risultati

sperimentali sono molto confortanti, dato che confermano in pieno l’aspettativa teorica.

L’argomento e’ ancora sotto discussione, ma certamente quella della decoerenza e’ una

2Un sistema mesoscopico e’ in qualche modo al limite tra un sistema quantistico ed un sistemaclassico

131

soluzione brillante del problema ed inoltre, almeno in certe situazioni limite, puo’ ricevere

una adeguata conferma sperimentale.

10.1 Sistema e apparato di misura

Introdurremo qui il concetto di misura pensata come ad una interazione tra due sistemi,

che soddisfano entrambi la meccanica quantistica. Inizieremo con una semplice schema-

tizzazione. Precisamente, considereremo un sistema fisico S in un dato stato quantico. S

e’ il sistema sul quale vogliamo misurare una data osservabile OS . La misura viene ese-

guita tramite un altro sistema fisico A (apparato di misura) che coinvolge degli elementi

macroscopici. In particolare si suppone che A sia un sistema macroscopico e quindi il

suo comportamento sara’ ben descritto in termini di fisica classica. Pero’ A e’ esso stesso

costituito da elementi microscopici che descriveremo in termini quantistici. Ovviamente il

comportamento classico riflettera’ quello quantistico sulla base del teorema di Ehrenfest.

La misura risulta dunque in un processo di interazione tra sistema fisico S ed apparato

di misura A entrambi descritti quantisticamente. La dinamica del sistema complessivo

puo’ essere formulata in termini del prodotto tensoriale dei due spazi di Hilbert HS e HA,

HS⊗HA. Finche’ non interviene l’interazione, che supporremo essere presente solo per un

certo intervallo di tempo, il sistema S e’ descritto da una hamiltoniana HS e da uno stato

|ψ〉 ∈ HS . Analogamente l’apparato di misura e’ descritto da una hamiltoniana HA e da

uno stato |φ〉 ∈ HA. L’osservabile OS che vogliamo misurare agisce sullo spazio HS e, per

semplicita’, assumeremo che non sia degenere. Il sistema totale, prima dell’interazione, e’

soggetto alla somma delle due hamiltoniane (commutanti tra loro), HS e HA

H0 = HS +HA (10.12)

Quando interviene l’interazione l’hamiltoniana sara’ data da

H = H0 +HI (10.13)

con HI il termine che rappresenta l’interazione tra S e A. Quando l’interazione termina,

il sistema sara’ ancora descritto da H0.

Al fine di mostrare che questa descrizione e’ possibile considereremo un tipo di intera-

zione estremamente semplice introdotta da Von Neumann. Supponiamo che l’apparato di

misura contenga un quadrante graduato ed un puntatore, come illustrato in Figura 10.1.

La posizione del puntatore sara’ individuata dagli autovalori di un operatore di posizione

X. Assumeremo che prima dell’interazione il puntatore sia nella sua posizione di equili-

brio b0. A causa dell’interazione il puntatore si spostera’ sulla posizione b1 e li rimarra’.

Quindi prima e dopo l’interazione X e’ una costante del moto e pertanto commuta con

l’hamiltoniana H0. Prima della misura potremo rappresentare lo stato del sistema A con

una funzione d’onda del tipo

φ(x, y) = η(x)χ(y) (10.14)

132

Figura 10.1: Un apparato di misura costituito da un quadrante ed un puntatore.

con la funzione η(x) che descrive una gaussiana molto stretta centrata sulla posizione

del puntatore a riposo, b0, che assumeremo corrispondere all’ autovalore x = 0 di X.

Le variabili y sono tutte le altre variabili necessarie per descrivere l’apparato di misura

M che pero’ giocano un ruolo del tutto accessorio in questa discussione e che quindi

ignoreremo. Dunque la funzione d’onda di M puo’ essere semplificata ed assunta essere

φ(x). Assumeremo di misurare una osservabile OS del sistema.

In genere la misura avviene facendo interagire per un certo tempo l’apparato di misura

ed il sistema e separandoli prima e dopo la misura. Assumeremo quindi che la misura

abbia luogo nell’intervallo temporale (−ε,+ε) e che per effetto della misura il puntatore si

sposti dalla posizione di riposo alla posizione b1 corrispondente all’autovalore x = x1 di X.

Un modo molto semplice per caratterizzare questa interazione e’ di scrivere la seguente

hamiltoniana

HI(t) = −g(t)POS (10.15)

con

g(t) = g per − ε ≤ t ≤ +ε, g(t) = 0, altrimenti (10.16)

P l’operatore in HA coniugato canonicamente a X, cioe’

[X,P ] = ih/ (10.17)

Se prendiamo l’intervallo temporale sufficientemente piccolo e supponiamo che l’intera-

zione sia sufficientemente grande da essere dominante rispetto ad H0 possiamo risolvere

l’equazione del moto per l’operatore di evoluzione nell’intervallo temporale della misura

ih/dU(t)

dt= H(t)U(t) (10.18)

Per t ≤ −ε si ha H = H0 si ha U(t) = exp(−iH0t/h/). Per −ε ≤ t ≤ ε

ih/dU(t)

dt= −gPOSU(t) (10.19)

che puo’ essere integrata con il risultato

U(ε) = eiλPOS/h/

(10.20)

133

dove abbiamo definito

λ = 2εg (10.21)

e, dato che stiamo considerando la sola evoluzione connessa con l’interazione abbiamo

assunto U = 1 prima di −ε. Supponendo che prima della misura il sistema si trovi in un

autostato |ψ〉 = |ok〉 di OS , quando agiamo con l’ operatore di evoluzione sulla funzione

d’onda di S e A, |ψ〉 ⊗ |φ〉, l’operatore OS assume il valore ok e quindi sullo stato |φ〉avremo

eiλP/h/φ(x) = eλokd/dxφ(x) (10.22)

Ma

eλokd/dxφ(x) =

∞∑n=0

(λok)n

n!

dn

dxnφ(x) = φ(x+ λok) (10.23)

Dunque

eiλPOS/h/φ(x) = φ(x+ λok) (10.24)

Vediamo che dopo la misura il puntatore sara’ nella posizione corrispondente al valore

x1 = λak. Il fatto che la misura correli la posizione dell’indice con l’autovalore misurato

e’ la condizione essenziale della misura.

Per descrivere in maniera piu’ accurata l’operazione di misura che abbiamo esempli-

ficato seguendo Von Neumann, introduciamo alcuni concetti correlati all’ apparato di

misura. Distingueremo tra le seguenti parti di A

• Metro. La parte dell’apparato che interagisce direttamente con il sistema che si

misura.

• Amplificatore. Trasforma l’input microscopico nel segnale macroscopico.

• Puntatore. E’ l’indice o il contatore sul quale si legge il risultato della misura.

Supponiamo allora di voler misurare un’osservabileOS del sistema S, con autovalori ok, con

l’apparato di misura A. Mantenendo le stesse notazioni del caso precedente, indicheremo

con HA lo spazio di Hilbert che descrive le posizioni del puntatore in termini di autostati

|ak〉 i cui autovalori ak danno appunto le posizioni del puntatore che dovranno essere in

corrispondenza biunivoca con i valori ok che assume l’osservabile OS . Introdurremo poi

lo spazio di Hilbert HS che descrive il sistema che intendiamo misurare. Lo stato iniziale

del sistema sara’ assunto essere

|ψ(0)〉 =∑j

cj |oj〉 (10.25)

Chiaramente dovremo accoppiare l’apparato A e il sistema S in modo che ci sia, come

abbiamo visto nel caso di Von Neumann, una corrispondenza biunivoca tra i valori okdell’osservabile OS che stiamo misurando, e le posizioni dell’indice. Inoltre lo stato che

otterremo allo spegnimento dell’accoppiamento dovra’ anche essere tale che la probabilita’

134

di ottenere come risultato della misura un certo valore oj sia ancora |cj |2. Questo accop-

piamento sara’ dovuto ad una hamiltoniana di interazione tra il sistema e l’apparato di

misura, HSA, con un corrispondente operatore di evoluzione USA(t). Assumeremo anche

che HSA sia della forma

HSA = gOA ⊗OS (10.26)

dove g e’ la costante di accoppiamento che supporremo sufficientemente grande per poter

trascurare le hamiltoniane di S e di A durante l’interazione. Supponiamo che lo stato

iniziale sia dato da

|ψSA(0)〉 = |ψ(0)〉 ⊗ |A(0)〉 (10.27)

con |A(0)〉 corrispondente allo stato di riposo dell’indice dello strumento di misura |a0〉 =

|A(0)〉. Applicando l’interazione per un certo tempo τ , vorremmo ottenere il seguente

risultato

|ψSA(τ)〉 = USA(τ)|ψ(0)⊗ |a〉0〉 =∑j

cjeiφj |oj〉 ⊗ |aj〉 (10.28)

Infatti, se vogliamo che la misura abbia senso, i coefficienti cj dovranno essere gli stessi

dello stato iniziale del sistema, salvo un fattore di fase che pero’ non altera le probabilita’.

Notiamo anche che per preparare in questo modo lo stato al tempo τ occorrera’, in gene-

rale, scegliere opportunamente l’istante τ stesso. In questo modo si realizza una perfetta

correlazione tra sistema ed apparato di misura. Notiamo che uno stato del tipo |ψSA(τ)〉e’ uno stato entangled. Questo significa che per realizzare il risultato desiderato e’ neces-

sario considerare una sovrapposizione quantistica degli stati (macroscopici) dell’apparato

di misura che, come vedremo successivamente, porta a risultati classicamente paradossali.

Faremo adesso un esempio molto semplice su come sia possibile realizzare una situazio-

ne di questo tipo, considerando un sistema S e, invece dell’intero apparato A, il metro M

entrambi a due livelli. Indicando con HM lo spazio di Hilbert relativo al metro, il generico

stato composto sara’ dato da una sovrapposizione di stati del tipo,

|±,±〉 = |±〉S ⊗ |±〉M (10.29)

Scegliamo come osservabile da misurare sul sistema

OS = σSz (10.30)

Il metro avra’ due posizioni corrispondenti agli stati up e down del sistema. Lo caratte-

rizzeremo in termini di autostati dell’operatore σMz . Supporremo allora che il metro sia

nella posizione iniziale corrispondente all’autovalore down

|M(0)〉 = |−〉M (10.31)

Dunque, se lo spin di S sara’ down al termine dell’interazione, il metro dovra’ rimanere

nella posizione down, mentre se diventera’ up, anche il metro dovra’ essere nello stato up.

Assumiamo poi come hamiltoniana di interazione

HSM = g(1 + σSz )σMx (10.32)

135

dove notiamo che, come nel caso di Von Neumann, l’operatore in A, σMx , che entra in HSM

non commuta con σMz che fornisce la posizione del puntatore mentre (1 + σSz ) commuta

con σSz . Il significato fisico di HSM e’ che essa e’ zero sullo stato down di S, mentre sullo

stato up di S fa flippare lo stato down di M allo stato up. Assumiamo poi come stato

iniziale per S, la combinazione

|ψ(0)〉 = c+|+〉S + c−|−〉S (10.33)

con

|c+|2 + |c−|2 = 1 (10.34)

L’hamiltoniana di interazione e’ diagonale nella base in cui σSz e σMx sono diagonali. Dun-

que occorre riesprimere lo stato |−〉M nella base degli autostati di σMx . Gli autostati di

questo operatore nella base σMz sono dati da

|+〉Mx =1√2

(11

), |−〉Mx =

1√2

(1−1

)(10.35)

da cui

|+〉Mx =1√2

(|+〉M + |−〉M ), |−〉Mx =1√2

(|+〉M − |−〉M ) (10.36)

Pertanto, lo stato iniziale di M sara’

|M(0)〉 = |−〉M =1√2

(|+〉Mx − |−〉Mx ) (10.37)

Supponendo che le hamiltoniane che descrivono S e M siano trascurabili rispetto al

termine di interazione avremo

|ψ(τ)〉 = e−iτHSM/h/ |ψ(0)〉 ⊗ |M(0)〉 =

e−iτg(1 + σSz )σMx /h/ (c+|+〉S + c−|−〉S)⊗ 1√2

(|+〉Mx − |−〉Mx

)(10.38)

tenendo presente che (1 + σSz )σMx vale 2σMx sullo stato up di S e zero sullo stato down, si

trova facilmente

|ψ(τ)〉 =1√2

[e−2igτ/h/ c+|+〉S ⊗ |+〉Mx − e+2igτ/h/ c+|+〉S ⊗ |−〉Mx +

+ c−|−〉S ⊗ |+〉Mx − c−|−〉S ⊗ |−〉Mx]

(10.39)

Infine, riesprimendo gli autostati di σMx in termini degli autostati di σMz , facendo uso della

(10.36), si trova

|ψ(τ)〉 = c+ cos(2gτ/h/)|+,−〉 − ic+ sin(2gτ/h/)|+,+〉+ c−|−,−〉 (10.40)

Scegliendo il tempo τ in modo da eliminare il termine proporzionale a |+,−〉, cioe’

2gτ

h/=π

2→ τ =

πh/

4g(10.41)

136

si ottiene infine

|ψ(τ)〉 = c−|−,−〉 − ic+|+,+〉 (10.42)

Il risultato e’ uno stato entangled del sistema con il metro con le proprieta’ desiderate.

Cioe’ se il sistema al tempo τ si trova nello stato up con probabilita’ |c+|2, il metro e’

nello stato up. Mentre se si trova in down con probabilita’ |c−|2, allora il metro e’ down.

La conclusione generale e’ che se lo stato iniziale e’ preparato in una combinazione

lineare di autostati di OS , possiamo arrangiare la misura in modo tale che lo stato finale

complessivo S+M risulti entangled nella maniera desiderata. E’ chiaro che la preparazione

dello stato entangled tramite l’interazione di S con M e’ assolutamente necessaria affinche’

la nostra procedura di misura abbia senso. Dunque l’interazione tra il sistema S ed il metro

puo’ essere considerata preliminare alla misura vera e propria ed e’ quella necessaria a

realizzare l’entanglement tra S ed A. L’interazione tra S e M viene anche descritta come

premisura.

Notiamo che la matrice densita’ che si riferisce allo stato puro che emerge alla fine

della premisura e’ data da

ρSM = |ψ(τ)〉〈ψ(τ)| = |c+|2|+,+〉〈+,+|+ |c−|2|−,−〉〈−,−|++ ic∗−c+|+,+〉〈−.− | − ic∗+c−| − .−〉〈+,+| (10.43)

Questa matrice densita’ ha dei termini misti (termini di interferenza) che derivano dal

fatto che lo stato entangled e’ puro e originano dalla possibilita’ di combinare linearmente

gli stati quantistici. Questa sovrapposizione non e’ pero’ ammissibile nella fase successiva

in cui si passa alla parte macroscopica dell’apparato perche’ porterebbe a sovrapposizione

quantistica per un oggetto macroscopico. Abbiamo anche visto che la struttura entangled

e’ necessaria al fine di poter definire il processo di misura. Dunque in qualche modo e’

necessario che nella parte dell’operazione di misura che segue dopo il metro, i termini di

interferenza si cancellino in modo da ottenere una matrice densita’ che descriva la miscela

statistica

ρSA = |ψ(τ)〉〈ψ(τ)| = |c+|2|+,+〉〈+,+|+ |c−|2|−,−〉〈−,−| (10.44)

Nell’interpretazione di Copenhagen questo e’ ovviamente conseguenza del postulato sul

collasso, ma questa posizione non e’ tenibile se vogliamo descrivere la misura in termini

quantistici. Dovremo dunque cercare di capire se la meccanica quantistica stessa ci puo’

offrire una soluzione.

10.2 Misura e sovrapposizione degli stati macro-

scopici. Il gatto di Schrodinger

Ovviamente la descrizione dell’interazione e’ ipersemplificata, ma serve per far capire

come tutto il processo di misura si possa descrivere in termini quantistici e tramite l’uso

dell’equazione di evoluzione del sistema. Per il futuro ignoreremo i dettagli dell’interazione

ma ci limiteremo ad assumere che ci sia una osservabile di M , che denoteremo come metro,

137

i cui autovalori ci forniscono i risultati della misura. I casi discussi nella sezione precedente

ci dicono che il processo di misura deve essere tale da far passare lo stato |on〉 ⊗ |a0〉 allo

stato |on〉 ⊗ |an〉:|on〉 ⊗ |a0〉 → |on〉 ⊗ |an〉 (10.45)

Inoltre, per essere piu’ precisi occorre tener conto del fatto che l’apparato consiste anche

in un amplificatore ed in un puntatore, gli stati in HA oltre a dipendere dall’autovalore

considerato del metro, dipendono anche da altri numeri quantici r che nel corso della

misura possono cambiare, dato che nello spostamento del puntatore lo stato microscopico

di A certamente cambiera’. Dunque la transizione dovuta al processo di misura sara’

|on〉 ⊗ |a0, r〉 →∑r′

c(n)rr′ |on〉 ⊗ |an, r

′〉 (10.46)

E’ importante sottolineare che questa transizione e’ il risultato dell’evoluzione temporale

del sistema dovuta all’hamiltoniana di interazione. Segue allora che se lo stato iniziale e’

una combinazione lineare di autostati di OS

|ψ〉 =∑n

µn|on〉 (10.47)

a causa della linearita’ dell’equazione di Schrodinger, lo stato finale sara’ la stessa combi-

nazione lineare degli stati finali dell’equazione (10.46)

|ψ〉 ⊗ |a0, r〉 =∑n

µn|on〉 ⊗ |a0, r〉 →∑n

∑r′

µn c(n)rr′ |on〉 ⊗ |an, r

′〉 (10.48)

Come abbiamo gia’ osservato in precedenza, questa espressione per lo stato finale e’ la

responsabile dei problemi dovuti al problema della misura in meccanica quantistica, quan-

do si voglia dare una descrizione quantistica anche all’apparato di misura. Il paradosso

che ne scaturisce e’ noto come il paradosso del gatto di Schrodinger. Non c’e’ dubbio che

Figura 10.2: Il gatto di Schrodinger.

ogni verifica sperimentale della meccanica quantistica sia in accordo con il postulato di

riduzione. Pero’ se la meccanica quantistica e’ in grado di descrivere tutti i sistemi mi-

croscopici deve essere anche in grado di descrivere quelli macroscopici. La conseguenza di

138

questa situazione fu esemplificata da Schrodinger tramite il suo famoso esperimento ideale

sul gatto. Si rinchiuda un gatto in una scatola di acciaio (vedi Figura 10.2) insieme con

un contatore Geiger ed minuscola porzione di sostanza radioattiva. In un dato intervallo

di tempo uno degli atomi si puo’ disintegrare. Se cio’ succede, il contatore lo segnala e

aziona un relais di un martelletto che rompe una fiala con del cianuro che avvelena il gatto.

Oppure puo’ succedere che non ci siano disintegrazioni e che quindi allo scadere del tempo

prefissato il gatto sia vivo. Dagli argomenti precedenti vediamo che il gatto si trova in

uno stato sovrapposto dei due stati vivo o morto. Nell’interpretazione di Copenhagen e’

solo al momento dell’apertura della scatola che si decide in quale stato sia il gatto, vivo

oppure morto con probabilita’ dipendenti dal meccanismo usato.

Torniamo adesso al caso generale e consideriamo la transizione di equazione (10.48).

Se assumiamo che lo stato inziale sia normalizzato segue che anche lo stato finale deve

esserlo (l’evoluzione temporale e’ descritta da un operatore unitario) e quindi si ha la

seguente condizione di normalizzazione per i coefficienti c(n)rr′∑

r′

|c(n)rr′ |

2 = 1 (10.49)

Se invece consideriamo lo stato iniziale in (10.48) la condizione di normalizzazione sara’∑n

|µn|2 = 1 (10.50)

Questa assieme alla precedente implicano che anche lo stato finale della (10.48) sia nor-

malizzato. Se, sempre in questa espressione consideriamo la probabilita’ che l’indicatore

dello stato finale punti su an (corrispondente appunto al valore on di OS) si ha che tale

probabilita’ e’ data da ∑r′

|µn|2|c(n)rr′ |

2 = |µn|2 (10.51)

Questo e’ esattamente cio’ che ci aspettiamo, cioe’ che la probabilita’ che il metro assuma

il valore an, sia uguale alla probabilita’ che lo stato iniziale sia nell’autostato |on〉 dell’os-

servabile OS . Quindi la probabilita’ per OS di avere l’autovalore on viene trasferita alla

probabilita’ di un fenomeno, la posizione del metro, che mostra come risultato il valore ancorrispondente appunto ad on.

Consideriamo infine una ulteriore semplificazione. Dopo la misura possiamo considera-

re il sistema microscopico S al quale abbiamo applicato il nostro processo di misura come

facente parte dell’apparato di misura A. Chiameremo il nuovo sistema macroscopico A′.

Nel caso dello spin, possiamo pensare che la particella si arresti nell’apparato di misura

dopo che sia stata determinata la direzione dello spin. Dunque il nuovo sistema A′ sara’

uguale al sistema A+ S . Questo aggiungera’ solo alcune altre variabili (quelle di S) alle

moltissime altre che stiamo usando per descrivere A. Potremo allora evitare di scrivere lo

139

stato finale come un prodotto tensoriale3 ma usare invece la notazione∑n

µn|on〉 ⊗ |a0, r〉 →∑n,r′

µn c(n)rr′ |on〉 ⊗ |an, r

′〉M =∑n,r′

µnc(n)rr′ |an, r

′〉M ′ (10.52)

Come risultato vediamo che lo stato finale e’ una somma di stati distinti macroscopici.

Quando effettuiamo una misura, sappiamo che dovremo preparare N copie dello stato

iniziale. Nell’esempiodella Sezione precedente (spin con metro a due stati) troveremo (per

N sufficientemente grande) |c+|2N volte il puntatore in alto ed |c−|2N volte il puntatore

in basso. L’interpretazione e’ che lo spin della particella in esame ha probabilita’ |c+|2

di essere up e probabilita’ |c−|2 di essere down. Potrebbe sembrare naturale interpretare

il risultato dicendo che si ha un insieme statistico con |c+|2N particelle di spin up e

|c−|2N particelle di spin down. Abbiamo gia’ visto in un caso simile (vedi Sezione 8.2)

che le matrici densita’ di uno stato puro del tipo considerato in precedenza (dove adesso

indichiamo gli stati del metro con | ↑〉 e | ↓〉), come per esempio,

|ψ〉 =1√2|+〉 ⊗ | ↑〉+

1√2|−〉 ⊗ | ↓〉 (10.53)

o in uno stato misto, che in questo caso sarebbe descritto dalla matrice densita’

ρ =1

2(|+〉 ⊗ | ↑〉)(〈+| ⊗ 〈↑ |) +

1

2(|−〉 ⊗ | ↓〉)(〈−| ⊗ 〈↓ |) (10.54)

sono profondamente diverse. Calcoliamo la matrice densita’ nei due casi nella rappresen-

tazione in cui

|+〉 ⇔(

10

), |−〉 ⇔

(01

)(10.55)

e

| ↑〉 ⇔(

10

), | ↓〉 ⇔

(01

)(10.56)

Avremo per

|ψ〉 =1√2|+〉 ⊗ | ↑〉+ 1√

2|−〉⊗ | ↓〉 ⇔ 1√

2

(10

)⊗(

10

)+

1√2

(01

)⊗(

01

)(10.57)

da cui

|ψ〉 ⇔ 1√2

1000

+

0001

=

1√2

1001

(10.58)

La corrispondente matrice densita’ e’ data da

ρψ = |ψ〉〈ψ| ⇔ 1

2

1001

( 1 0 0 1)

=1

2

1 0 0 10 0 0 00 0 0 01 0 0 1

(10.59)

3Questa identificazione e’ dello stesso tipo di quella usata per descrivere lo stato a due particellein termini di un prodotto tensoriale di stati ad una particella. In questo caso diciamo che scrivere|x1〉 ⊗ |x2〉 e’ equivalente a scrivere |x1, x2〉

140

Per la matrice ρ di equazione (10.54) si ha invece

ρ =1

2

1000

( 1 0 0 0)

+

0001

( 0 0 0 1) =

1

2

1 0 0 00 0 0 00 0 0 00 0 0 1

(10.60)

Vediamo che tutta la differenza tra le due matrici e’ negli elementi fuori della diagonale

principale. Questi elementi, che non sono nulli nella matrice relativa allo stato puro, danno

luogo a termini di interferenza che pero’ nel caso macroscopico non sono accettabili.

Torniamo adesso al caso generale e calcoliamo la matrice densita’ per lo stato (10.52)

ρ =∑

n,n′,r′,r′′

µnµ∗n′c

(n)rr′ c

(n′)∗rr′′ |an, r

′〉〈an′ , r′′| (10.61)

Possiamo calcolare il generico elemento di matrice con il risultato:

〈an, r′|ρ|an′ , r′′〉 = µnµ∗n′c

(n)rr′ c

(n′)∗rr′′ (10.62)

Dato che gli indici r non giocano nessun ruolo fintanto che ci limitiamo all’osservazione

del puntatore, possiamo definire una matrice densita’ ridotta dalla formula

〈an|ρrid|an′〉 =∑r′

〈an, r′|ρ|an′ , r′〉 = µnµ∗n′

∑r′

c(n)rr′ c

(n′)∗rr′ (10.63)

Quando n = n′ si ha per la (10.49)

〈an|ρrid|an〉 = |µn|2 (10.64)

come ci aspettiamo per una miscela statistica. Ma in questo caso gli elementi non diagonali

dovrebbero dare un risultato nullo, cioe’ si dovrebbe avere

〈an|ρrid|an′〉 = |µn|2δnn′ (10.65)

Dunque lo stato finale che si ottiene dopo la misura non e’ costituito da eventi chiaramente

distinti, cioe’ abbiamo una sovrapposizione di stati macroscopici. Questo e’ chiaro se

pensiamo di misurare un’osservabile C dell’apparato di misura e che non commuta con

l’osservabile che definisce il metro. Dalla miscela statistica ci aspetteremmo

〈C〉 =∑n

|µn|2〈an|C|an〉 (10.66)

mentre si ha

〈C〉 =∑n,n′

µnµ∗n′〈an′ |C|an〉Inn′ (10.67)

dove

Inn′ =∑r′

c(n)rr′ c

(n′)∗rr′ (10.68)

141

Pertanto quando si voglia descrivere l’apparato di misura in termini quantistici, il risultato

e’ che si ha interferenza tra stati macroscopicamente diversi associati a diversi risultati

della misura. Questa conclusione deriva dall’aver considerato l’apparato di misura come

un oggetto descrivibile in termini quantistici. Chiaramente nell’interpretazione di Copen-

hagen si rinuncia a questa possibilita’ ed il problema non sorge. Infatti il risultato finale

dell’esperimento e’ interpretabile in termini di probabilita’, vista la riduzione della fun-

zione d’onda che e’ appositamente postulata perche’ l’interpretazione probabilistica sia

consistente. Rimane pero’ il fatto che non e’ evidente a priori il criterio secondo cui un

oggetto puo’ considerarsi classico o quantistico. Sebbene caso per caso questa distinzione

possa essere fatta, non esiste un criterio generale.

D’altra parte una soluzione semplice e’ quella di assumere che la quantita’ Inn′ sia data

da δnn′ , cioe’ che sia nulla per n 6= n′. Ovviamente occorre pero’ far vedere che questo

e’ compatibile con la dinamica quantistica. Questo e’ per l’appunto cio’ che accade per

l’effetto di decoerenza. In questo caso, a causa della inevitabile interazione con l’ambien-

te, si puo’ far vedere che in un tempo estremamente piccolo, i diversi stati macroscopici

diventano praticamente ortogonali tra loro a causa della dinamica di Schrodinger e quindi

gli effetti di interferenza vanno a zero.

Un’altra possibilita’, discussa da Von Neumann, e’ quella che un risultato diventi noto

solo dopo che la coscienza dell’osservatore lo ha registrato. E’ questo atto che rompe la

catena della dinamica quantistica e che da’ luogo alla riduzione della funzione d’onda.

L’idea e’ affascinante ma richiede che in qualche modo l’atto di prendere coscienza non sia

descrivibile in termini quantistici ed in definitiva non differisce molto dall’interpretazione

di Copenhagen.

Notiamo anche che la riduzione del pacchetto e’ in accordo con tutte le osservaziioni e

gli esperimenti effettuati e che quindi l’uguaglianza Inn′ = δnn′ e’ certamente confermata

dai dati. Il punto e’ che trovarne una spiegazione non e’ banale. D’altro canto la difficolta’

principale in una spiegazione teorica generale e’ che un sistema macroscopico non e’ facil-

mente descrivibile (sia in termini classici che quantistici) a causa dell’immenso numero di

gradi di liberta’ da cui e’ composto.

10.3 La decoerenza

Negli anni 70 Zeh e all’inizio degli anni 80 Zurek osservarono che era possibile eliminare i

termini misti presenti nella matrice densita’ a livello di premisura. L’osservazione cruciale

e’ che se il sistema, come in pratica succede sempre, interagisce con l’ambiente circostante,

allora i termini misti non desiderati vengono eliminati. In altri termini, contrariamente al

caso classico in cui si suppone che un sistema fisico possa sempre considerarsi isolato, cioe’

che si possano sempre rendere trascurabili le interazioni con l’esterno, qui la situazione e’

opposta. Si considera cioe’ un sistema quantistico come un sistema aperto che interagisce

con l’ambiente. Come vedremo, quando si voglia considerare la misura di un’osservabile

del sistema, si puo’ effettuare una traccia parziale sulla matrice densita’ relativa al sistema

142

piu’ ambiente, sulle variabile di ambiente. Restringendo cosi’ la dinamica complessiva alla

dinamica del solo sistema e’ possibile ottenere il fenomeno di cui abbiamo bisogno, cioe’ che

l’operatore di evoluzione, unitario nello spazio complessivo, dia luogo ad una operazione

non unitaria sul sistema in esame. In pratica la traccia ci fornisce automaticamente la

riduzione del vettore di stato, facendo si che la matrice densita’ ridotta (cioe’ tracciata

sulle variabili di ambiente) descriva una miscela statistica.

Consideriamo adesso l’idea base dell’approccio di Zurek. Il vettore di stato e’ consi-

derato come un vettore nello spazio di Hilbert prodotto diretto di quello del sistema S, di

quello dell’apparato di misura A e di quello dell’ambiente E, |ψSAE〉. Per semplicita’ iden-

tificheremo l’apparato di misura con il metro. Questo ci libera dall’appesantimento delle

notazioni della sezione precedente in quanto, come abbiamo visto, le variabili r necessarie

per descrivere il puntatore e l’amplificatore non giocano alcun ruolo. Il processo di misura

viene diviso idealmente in due fasi. Per semplicita’ supponiamo che lo stato iniziale sia

uno stato fattorizzato del tipo

|ψSAE(0)〉 = |ψ〉 ⊗ |a0〉 ⊗ |ψE〉 (10.69)

A causa dell’interazione tra il sistema e l’apparato di misura al tempo t = t1 si avra’

l’effetto di entanglement tra S ed A dovuto alla premisura. Successivamente, tra t1 e

t2 > t1 l’ambiente E subira’ l’entanglement con S ed A. Quindi avremo

|ψ〉 ⊗ |a0〉 ⊗ |ψE(0)〉 →

[∑i

ci|oi〉 ⊗ |ai〉

]⊗ |ψE(t1)〉, t = t1

→∑i

ci|oi〉 ⊗ |ai〉 ⊗ |ei〉, t > t2 (10.70)

La seconda trasformazione sara’ descritta tramite un operatore di evoluzione unitario che

coinvolge l’hamiltoniana di interazione tra i tre sistemi S,A ed E. Chiaramente la matrice

densita’ per t > t2 contiene termini misti del tipo visto precedentemente, ma se valutiamo

la matrice densita’ ridotta

ρrid = TrE |ψASE(t)〉〈ψASE(t)| =∑j

〈ej |ρ|ej〉 =∑j

|cj |2|oj〉 ⊗ |aj〉〈oj | ⊗ 〈aj | (10.71)

vediamo che essa corrisponde ad una miscela statistica in cui ogni autovalore oi, segnalato

dal metro con il valore ai, occorre con probabilita’ |ci|2. Si mostra facilmente che questo

risultato continua a valere anche nel caso in cui si considerino le variabili addizionali r

purche’ nel definire la matrice ridotta si effettui una traccia anche su queste variabili.

Si potrebbe mostrare che l’informazione contenuta nei termini misti non e’ persa nel

sistema totale ma e’ trasferita dalla parte S,A all’ambiente E. D’altra parte, dal punto

di vista dell’apparato, questa informazione viene completamente perduta. Il fatto che il

postulato di proiezione venga riprodotto in questa forma e’ perfettamente consistente con

una evoluzione unitaria nello spazio totale ma che diventa non unitaria allorche’ la si esami

sul sistema piu’ l’apparato di misura. L’ipotesi che abbiamo fatto nello scrivere la seconda

143

delle formule (10.71) e’ che ci sia una perfetta correlazione tra l’ambiente E e l’apparato

di misura A. In genere non e’ cosi’ e questo fa si che la matrice densita’ ridotta non

sia perfettamente diagonale ma contenga ancora dei termini misti. Questo porta all’idea

di un tempo tipico, detto tempo di decoerenza, tdec, tale che i termini non diagonali

decadano esponenzialmente a zero con una legge del tipo

e−t/tdec (10.72)

L’idea di un tempo di decoerenza fu introdotta da Zurek che ne propose anche una defi-

nizione nel caso particolare di sovrapposizione di due gaussiane interagenti con un bagno

termico a temperatura T , cioe’ con un ambiente a temperatura fissata. Nel caso particolare

di una dimensione spaziale si trova

tdec =1

γ

(λT∆x

)2

(10.73)

dove γ rappresenta l’inverso del tempo di rilassamento, definito dal modo in cui le particelle

cedono energia all’ambiente exp (−tγ) ed e’ anche proporzionale all’accoppiamento tra le

particelle e l’ambiente. Quindi quanto piu’ piccolo e’ l’accoppiamento e quanto piu’grande

e’ il tempo di decoerenza. ∆x e’ la separazione tra i due picchi gaussiani, quindi maggiore

e’ la separazione e piu’ piccolo e’ tdec. Infine λT e’ la lunghezza d’onda termica di de

Broglie

λT =h/√

2mkT(10.74)

dove k e’ la costante di Boltzman. Ricordiamo infatti che a temperatura costante una par-

ticella libera ha una energia cinetica media 〈p2/2m〉 = kT e quindi la lunghezza d’onda

termica e’ proprio la lunghezza d’onda di De Broglie, dove l’impulso e’ quello corrispon-

dente ad una energia termica pari a kT . Per avere un tdec piccolo, anche λT deve essere

piccola, quindi si deve avere una temperatura elevata.

Possiamo costruire un semplice modello per capire cosa succede quando non c’e’ per-

fetta correlazione tra ambiente, ed il sistema piu’ puntatore. Per semplicita’, dato che

comunque puntatore e sistema devono essere correlati, descriviamoli entrambi con un uni-

co vettore di stato. A questo punto considereremo sistema +puntatore come descritti

da uno spin 1/2, mentre non faremo assunzioni particolari sull’ambiente, salvo assumere

che i due stati che si correlano con |±〉 non sono ortogonali tra loro. Avremo dunque

un’evoluzione temporale nello spazio di Hilbert complessivo del tipo

|+〉 ⊗ |E〉 → |+〉t ⊗ |E+〉t|−〉 ⊗ |E〉 → |−〉t ⊗ |E−〉t (10.75)

Definiremo il prodotto scalare come una variabile η che in genere sara’ diversa da zero:

η = 〈E+|E−〉 (10.76)

144

Se assumiamo gli stati |E±〉 normalizzati, segue dalla disuguaglianza di Schwarz e dall’as-

sunzione che η sia reale e positivo

〈E±|E±〉 = 1 −→ 0 ≤ η ≤ 1 (10.77)

Per trattare il problema, consideriamo due vettori dell’ambiente ortonormali tra loro,

|E1,2〉 al tempo t, ed espandiamo |E±〉 su questa base

|E+〉t =√λ(t)|E1〉+

√1− λ(t)|E2〉

|E−〉t =√λ(t)|E2〉+

√1− λ(t)|E1〉 (10.78)

dove assumiamo λ ≤ 1. La dinamica dell’ambiente e della sua interazione con lo spin e’

stata parametrizzata dalla funzione λ(t). Usando l’ortonormalita’ di |E1,2〉 vediamo che

gli stati |E±〉 sono correttamente normalizzati e che

η = 2√λ(1− λ) (10.79)

Dalla condizione iniziale |E+〉t=0 = |E−〉t=0 = |E〉 segue√λ(0) =

√1− λ(0)→ λ(0) =

1

2(10.80)

e

η(0) = 1 (10.81)

L’idea fondamentale della decoerenza e’ che al passare del tempo gli stati E± dell’ambiente,

essendo descritti da molti gradi di liberta’, si differenziano sempre piu’ sino a diventare

ortogonali per t→∞. Quindi, in questa ipotesi e’ sensato parametrizzare η(t) in termini

di una funzione esponenziale che ha esattamente queste caratteristiche

η(t) = e−t/tdec (10.82)

Consideriamo adesso uno stato iniziale dello spin che sia una sovrapposizione dei due stati

di spin up e down

|ψ〉 = cos(θ/2)|+〉+ sin(θ/2)|−〉 (10.83)

Dunque l’evoluzione temporale, per linearita’, sara’ data da

|ψ〉 ⊗ |E〉 → cos(θ/2)|+〉t ⊗ |E+〉t + sin(θ/2)|−〉t|E−〉t (10.84)

Espandendo |E±〉 in termini di |E1,2〉 si trova

|ψ〉 ⊗ |E〉 → |ψ1〉 ⊗ |E1〉+ |ψ2〉 ⊗ |E2〉 (10.85)

con

|ψ1〉 =√λ(t) cos(θ/2)|+〉t +

√1− λ(t) sin(θ/2)|−〉t

|ψ2〉 =√

1− λ(t) cos(θ/2)|+〉t +√λ(t) sin(θ/2)|−〉t (10.86)

145

Consideriamo ora una misura dello spin fatta lungo la direzione x. Gli autostati di Sx,

nella base in cui e’ diagonale Sz sono

|±〉x =1√2

(|+〉 ± |−〉) (10.87)

Per calcolare la probabilita’ di misurare lo spin lungo le direzioni ±x, calcoliamo la ma-

trice densita’ ridotta relativa allo spin dalla matrice densita’ del sistema piu’ l’ambiente.

Dall’equazione (10.85) si trova

ρrid = Tr[ρ] = 〈E1|(|ψ1〉 ⊗ |E1〉+ |ψ2〉 ⊗ |E2〉)(〈ψ1| ⊗ 〈E1|+ 〈ψ2| ⊗ 〈E2|)|E1〉+

+ 〈E2|(|ψ1〉 ⊗ |E1〉+ |ψ2〉 ⊗ |E2〉)(〈ψ1| ⊗ 〈E1|+ 〈ψ2| ⊗ 〈E2|)| =〉= |ψ1〉〈ψ1|+ |ψ2〉〈ψ2| (10.88)

Vediamo che la matrice densita’ ridotta, come ci aspettiamo, non corrisponde ad uno stato

puro ma ad una miscela statistica. Pero’ questa matrice non e’ diagonale nella base Sz, ci

sono cioe’ dei termini di inerferenza. Infatti si ha

|ψ1〉 =

( √λ(t) cos(θ/2)√

1− λ(t) sin(θ/2)

), |ψ2〉 =

( √1− λ(t) cos(θ/2)√λ(t) sin(θ/2)

)(10.89)

Pertanto ρrid e’ data da

ρrid =

(cos2(θ/2)

√λ(t)(1− λ(t) sin θ√

λ(t)(1− λ(t) sin θ sin2(θ/2)

)(10.90)

dove abbiamo usato la relazione sin θ = 2 sin(θ/2) cos(θ/2). Inoltre gli operatori di

proiezione per gli autostati di Sx sono

P±x =1

2

(1 ±1±1 1

)(10.91)

Dunque le probabilita’, P±x, di trovare la particella con spin lungo l’asse ±x:

P(±x) = Tr[ρridP±x] =

=1

2Tr

[(cos2(θ/2) sin θ η(t)/2

sin θ η(t)/2 sin2(θ/2)

)(1 ±1±1 1

)](10.92)

dove abbiamo usato la (10.79) per riesprimere λ in funzione di η. Il calcolo di questa

traccia e’ immediato e si trova

P(±x) =1

2(1± η sin θ) (10.93)

Il caso di perfetta correlazione tra sistema ed ambiente corrisponde a η = 0, cioe’ quando

gli stati |E±〉 coincidono con |E1,2〉 e quindi sono ortogonali tra loro e questa situazione si

verifica a t→ +∞. Questa situazione asintotica e’ di fatto raggiunta in tempi di qualche

unita’ di tdec. Altrimenti gli effetti di interferenza si fanno sentire sulle probabilita’ di

146

θ

P(+x)

Figura 10.3: La probabilita’ P(+x) in funzione di θ. Il segmento corrisponde aη = 0, cioe’ perfetta correlazione. Le due curve sopra il segmento sono per η = 0.5e per η = 1 rispettivamente.

misurare lo spin lungo la direzione x, modulandole tramite il termine η sin θ, come illustrato

in Fig 10.3.

Scully, Shea e Mc Cullen (Physics Reports, 43 C, 485, 1978) hanno proposto un

semplice modello che mette in luce il fatto che e’ possibile realizzare il collasso senza la

necessita’ della coscienza dell’osservatore come richiesto da Von Neumann. Il modello

serve anche per illustrare le caratteristiche principali della decoerenza, nel senso che e’

effettivamente possibile realizzare la decoerenza pur di arrangiare i parametri del modello

in modo da cancellare i termini di interferenza. Niente ci dice pero’ sul decadimento

esponenziale di questi termini, cioe’ del tempo di decoerenza. Vedremo un modello di

questo tipo successivamente.

Il modello di Scully, Shea e Mc Cullen consiste in uno SG in cui i fasci, dopo essere

divisi sono fatti interagire con un atomo con due soli stati, il fondamentale e lo stato

eccitato (in pratica e’ sufficiente che le energie in gioco non permettano di eccitare i livelli

superiori). Questo atomo puo’ servire da apparato di misura se si decide di osservare

il risultato. Se invece non leggiamo il risultato, i nostri fasci interagiscono con questo

atomo e questo porta alla distruzione dei termini di interferenza e ad una matrice densita’

ridotta corrispondente ad una miscela statistica. Pertanto, almeno nel modello in esame, il

postulato di riduzione e’ una conseguenza della dinamica descritta dall’interazione dei fasci

molecolari con un atomo che e’ considerato esterno al sistema. Il modello e’ rilevante dal

punto di vista di von Neumann che richiede la partecipazione attiva di un osservatore per

provocare il collasso del vettore di stato. Il modello in esame mostra invece che la riduzione

e’ possibile anche senza un osservatore attivo ma che e’ sufficiente un’interazione con un

oggetto inanimato come un atomo, purche’ questa interazione non venga osservata. In

altri termini per la riduzione e’ sufficiente che il sistema S sia un sistema aperto. Si spiega

147

cosi anche la dinamica non unitaria a livello del sistema dei fasci. L’operatore di evoluzione

e’ unitario nello spazio complessivo, fasci molecolari + atomo, ma questa proprieta’ non

vale piu’ nello spazio ridotto dei fasci molecolari. Infatti una matrice unitario in uno

spazio, non lo e’, in genere, in un sottospazio. Basta pensare al caso 2× 2 ridotto ad una

dimensione:

U =

(cos θ − sin θsin θ cos θ

), UU † = 1 (10.94)

Chiaramente la sottomatrice U11 = cos θ non e’ unitaria.

10.4 Altre interpretazioni

Abbiamo gia’ discusso in precedenza l’interpretazione di Von Neumann che fa riferimento

alla coscienza dell’osservatore. Vediamo ora altre interpretazioni che sono state proposte

che pero’, al contrario della decoerenza, richiedono una estensione della usuale meccanica

quantistica. Daremo qui un breve elenco delle interpretazioni, a giudizio personale, piu’

significative.

Interpretazione a molti mondi

Nel 1957 Everett propose che in realta’ non ci fosse un collasso del vettore di stato ma che

le sue componenti, relative alla decomposizione dell’osservabile in oggetto, si evolvessero

ognuna in un mondo differente. Cioe’, se misuriamo Ω e lo stato e’

|ψ〉 =∑k

ck|ωk〉 (10.95)

ogni componente |ωk〉 evolve in un mondo diverso. Quindi non c’e’ mai un collasso del

vettore di stato in quanto lo stato si evolve in maniera unitaria nell’isieme dei mondi,

e’ semplicemente l’osservatore che seguendo una di queste linee mondo e vede solo una

componente del vettore, pensa che ci sia stata una riduzione dello stato. In altri termini,

ad ogni osservazione, la particolare linea mondo seguita dall’osservatore che fa la misura si

ramifica in tante linee monde relative alla varie componenti del vettore di stato. Sebbene

su una base interpretativa completamente diversa, anche questa interpretazione usa il fatto

che un operatore unitario nello spazio complessivo possa diventare non unitario quando

ristretto ad una particolare linea mondo.

Uno dei problemi e’ la degenerazione delle basi. Infatti il vettore di stato puo’ decom-

porsi in basi diverse a seconda dell’osservabile che si vuole misurare. Dunque dovrebbero

esistere mondi relativi a tutte le possibili scelte di base che noi desideriamo fare per il

vettore di stato. Un altro problema riguarda la spiegazione del perche’ le diverse compo-

nenti di una funzione d’onda abbiano probabilita’ diverse di essere realizzate nel mondo

del singolo osservatore. Dato che tutte le possibilita’ sono permesse dalla decomposizione

del vettore di stato ci si apetterebbe che queste fossero equiprobabili.

148

Modifiche dell’equazione di Schrodinger

Alcuni autori, come per esempio Ghirardi Rimini e Weber, hanno proposto delle modifiche

ad hoc dell’equazione di Schrodinger dipendenti da un parametro tale che le applicazioni

al microcosmo, cioe’ ad oggetti di piccole dimensioni, sono identiche a quelle della Mecca-

nica Quantistica tradizionale. D’altro canto se si considerano oggetti macroscopici questa

modifica diventa rilevante e permette la riduzione del pacchetto d’onda.

149

Capitolo 11

Conclusioni

Quindi concludendo, abbiamo visto che

• La decoerenza fa si che i termini di intereferenza tra stati macroscopici vadano a zero

esponenzialmente con un andamento tipico exp(−t/tdec). Il tempo di decoerenza tdec

e’ molto piccolo rispetto al tempo di dissipazione, tdec τ , che a sua volta e’ legato

all’interazione tra variabili collettive e d’ambiente. Questo significa che anche per

una piccola interazione (cioe’ per un tempo di dissipazione lungo), l’interferenza

e’ comunque piccola. Abbiamo pero’ anche detto che in certi sistemi macroscopici

in cui l’interazione sia particolarmente piccola, i fenomeni di interferenza possono

riemergere.

• Il rapporto tdec/τ dipende dal rapporto tra la costante di Planck ed una quantita’,

con le dimensioni di un’azione, che e’ costruita con i parametri macroscopici del-

l’apparato di misura. Da questo segue che il rapporto e’ molto piccolo. Vediamo

cosi che il problema della decoerenza e’ profondamente connesso con la transizione

tra classico e quantistico che anche, in linea generale, e’ caratterizzata dal rapporto

tra la costante di Planck ed una grandezza caratteristica di ogni sistema che e’ la

variabile di azione del sistema stesso.

• La decoerenza risolve il problema del collasso del vettore di stato nell’ambito della

meccanica quantistica stessa. Dunque si ottiene una risposta chiara al paradosso del

gatto di Schrodinger. Quando apriamo la scatola il gatto sara’ sempre vivo o morto.

In effetti non appena preparato il sistema, la sovrapposizione quantistica dei due

stati vivo o morto si riduce in modo quasi immediato alla loro miscela statistica.

L’approccio della decoerenza non e’ privo di critiche. Per esempio Bell non era asso-

lutamente soddisfatto da questo tipo di risposta che considerava di tipo FAPP (For All

Practical Purposes) e priva di un valore universale. Infatti, data la linearita’ della equa-

zione di Schrodinger, se all’istante iniziale il sistema e’ sovrapposizione lineare di due stati

macroscopici lo rimarra’ sempre. D’altra parte abbiamo visto che la risposta della decoe-

renza e’ quella di considerare un qualunque sistema quantistico come un insieme aperto

150

che si evolve unitariamente nello spazio di Hilbert totale, ma che l’evoluzione puo’ essere

non-unitaria quando si restringa l’operatore di evoluzione ad un sottospazio.

Ci sarebbe da chiedersi cosa ne penserebbe oggi del problema John Stewart Bell1 se

fosse ancora tra noi.

1John Bell e’ nato a Belfast nel 1928 ed e’ morto a Belfast nel 1990

151