Supponiamo che il sistema di trovi sul generico stato Ψ(x,t), e consideriamo un’osservabile fisica A. ≡. In generale, dipenderà da t. Bene, calcoliamo.

Slides:



Advertisements
Presentazioni simili
I sistemi di equazioni di I grado
Advertisements

Equazioni differenziali
Meccanica 7 28 marzo 2011 Corpi estesi. Forze interne al sistema
2. Introduzione alla probabilità
Corso di Chimica Fisica II 2011 Marina Brustolon
Particella in una buca di potenziale
Capitolo 8 Sistemi lineari.
Autovalori e autovettori
Matematica I: Calcolo differenziale, Algebra lineare, Probabilità e statistica Giovanni Naldi, Lorenzo Pareschi, Giacomo Aletti Copyright © The.
METODI EQUAZIONI DIFFERENZIALI Funzioni che mettono in relazione una variabile indipendente ( es. x), una sua funzione ( es. y = f(x) ) e la.
COORDINATE POLARI Sia P ha coordinate cartesiane
6. Catene di Markov a tempo continuo (CMTC)
Dinamica del manipolatore
Fisica 1 Termodinamica 9a lezione.
Fisica 2 18° lezione.
Fisica 2 Elettrostatica
Meccanica 8 31 marzo 2011 Teorema del momento angolare. 2° eq. Cardinale Conservazione del momento angolare Sistema del centro di massa. Teoremi di Koenig.
Esercizio 1 Un filo indefinito è costituito da due semirette AB e BC formanti un angolo retto, come in figura Il filo è percorso da una corrente I = 10.
Meccanica 5 31 marzo 2011 Lavoro. Principio di sovrapposizione
= 2x – 3 x Definizione e caratteristiche
Analisi delle Decisioni Funzioni di utilita’ e lotterie
Soluzioni di problemi elettrostatici
6. Catene di Markov a tempo continuo (CMTC)
3. Processi Stocastici Un processo stocastico è una funzione del tempo i cui valori x(t) ad ogni istante di tempo t sono v.a. Notazione: X : insieme di.
Lezione 3) Cenni di teoria dell’elasticità, sforzi e deformazioni, l’equazione delle onde elastiche.
Algebra lineare.
Processi Aleatori : Introduzione – Parte I
Abbiamo visto un esempio di applicazione del teorema, ma a noi interessa l’applicazione del Teorema di Bayes alla combinazione delle informazioni, ovvero.
SISTEMI D’EQUAZIONI ED EQUAZIONI DIFFERENZIALI LINEARI.
Energia e potenza nei circuiti elettrici
Le forze conservative g P2 P1 U= energia potenziale
Corso di biomatematica lezione 6: la funzione c2
Lezione 2 Caratteristiche fondamentali delle particelle: massa
Matrice densità.
Dispense per il corso di Filosofia della Fisica (parte II): La struttura formale della teoria Mauro Dorato, Dipartimento di Filosofia, Università di Roma3.
La simmetria Un’applicazione particolare e molto semplice:
Corso di Chimica Fisica II 2011 Marina Brustolon
Corso di Chimica Fisica II 2011 Prof. Marina Brustolon
1 Esempio : Utile per considerare limportanza delle ALTE FREQUENZE nella ricostruzione del segnale, in particolare dei FRONTI di SALITA e di DISCESA (trailing.
successioni e limiti di successioni
Metodi numerici per equazioni differenziali ordinarie Laboratorio di Metodi Numerici a.a. 2008/2009.
Lezione 14 Equazione di Dirac (seconda parte):
Lezione 13 Equazione di Klein-Gordon Equazione di Dirac (prima parte)
Lezione 10 Parità Parità intrinseca Isospin Multipletti di isospin.
Lezione 9 Invarianze e leggi di conservazione: definizioni generali
Propagazione degli errori
EQUAZIONI DI SECONDO GRADO
Derivate Parziali di una Funzione di più Variabili
Parte X: Il Io Principio della Termodinamica
Evoluzione Temporale in Meccanica Quantistica
Unita’ Naturali.
Unità 2 Distribuzioni di probabilità Misure di localizzazione Misure di variabilità Asimmetria e curtosi.
Matematica I: Calcolo differenziale, Algebra lineare, Probabilità e statistica Giovanni Naldi, Lorenzo Pareschi, Giacomo Aletti Copyright © The.
PROPAGAZIONE DEGLI ERRORI:
Calcolo letterale.
(descrizione quantitativa del moto dei corpi)
La variabile casuale (v.c.) è un modello matematico in grado di interpretare gli esperimenti casuali. Infatti gli eventi elementari  che compongono lo.
MATEMATICA PER L’ECONOMIA e METODI QUANTITATIVI PER LA FINANZA a. a
Forma normale delle equazioni di 2° grado Definizione. Un'equazione di secondo grado è in forma normale se si presenta nella forma Dove sono numeri.
1 Lezione IX seconda parte Avviare la presentazione col tasto “Invio”
Campo Elettrico Definizione operativa di campo elettrico: Il vettore campo elettrico associato ad una determinata carica sorgente Q, posta in un.
Anno scolastico 201 /201 Keith Devlin Anno scolastico 201 /201 Stanislas Dehaene L'assorbimento di questo sistema ha inizio già nell'infanzia, ancor.
Analisi matematica Introduzione ai limiti
DIPENDENZA STATISTICA TRA DUE CARATTERI Per una stessa collettività può essere interessante studiare più caratteri presenti contemporaneamente in ogni.
Sistemi di equazioni lineari. Sistemi di primo grado di due equazioni a due incognite Risolvere un sistema significa trovare la coppia di valori x e y.
Teoremi sulle funzioni derivabili 1. Definizione di massimo globale x0x0 f(x 0 ) Si dice massimo assoluto o globale di una funzione il più grande dei.
Ancora sulle equazioni di secondo grado….. Equazione di secondo grado completa Relazione tra le soluzioni di un'equazione di secondo grado.
Teoria delle perturbazioni indipendenti dal tempo Sia data Ĥ 0 e si assuma di avere risolto in modo esatto il problema agli autovalori: Ĥ 0 Ψ n 0 =E n.
Definizione di Flusso Il flusso è la misura di quanto materiale o campo passa attraverso una superficie nel tempo. Se si parla di campo elettrico basterà.
Sulle osservabili compatibili.... Due operatori hermitiani  e Ĉ commutano ([Â,Ĉ]=0) sse possiedono un sonc di autovettori comuni: Âφ rs (x)=a r φ rs (x);
Transcript della presentazione:

Supponiamo che il sistema di trovi sul generico stato Ψ(x,t), e consideriamo un’osservabile fisica A. ≡. In generale, dipenderà da t. Bene, calcoliamo la sua derivata temporale. Consideriamo pure il caso generale in cui  possa dipendere esplicitamente dal tempo (caso che comunque non considereremo mai, ma complica di pochissimo la dimostrazione, e potrà esservi utile in futuro), per cui ≡

Step 1. Dimostriamo che d dt = + +

d ≡d dt Non dipende da x Â(t)Ψ(x,t)Ψ(x,t) Adesso porto la derivata sotto il segno di integrale. Dato che agirà su funzioni che dipendono anche da un’altra variabile (x), per correttezza formale uso il simbolo di derivata parziale. dx potrebbe essere anche dxdydz, nulla cambia *

d dt Â(t)Ψ(x,t)Ψ(x,t)dx= Ψ(x,t) { } t [Â(t)Ψ(x,t)] * * +Ψ(x,t) t * [Â(t)Ψ(x,t)] dx Ψ ÂΨ * +Ψ * dx tt (ÂΨ)] [( ) Semplifico il formalismo!

d dt = Ψ ÂΨ * +Ψ * dx= tt (ÂΨ)] [() Ψ ÂΨ * +Ψ * tt Â)Ψ+Ψ [( ) ( Ψ t ( )]= Â * +<Ψ|( t Â)Ψ>+<Ψ|Â t t Ψ>

Step 2. Consideriamo l’equazione di Schrödinger e vediamone l’effetto sul secondo membro dell’eguaglianza: d dt = +<Ψ|( t Â)Ψ>+<Ψ|Â t t Ψ>

d dt = +<Ψ|( t Â)Ψ>+<Ψ|Â t t Ψ> ĤΨ=i ℏ t Ψ d dt = +<Ψ|( Â)Ψ>+ t ĤΨ iℏiℏ iℏiℏ d dt = i ℏ [ - ]+< ĤΨ Â>Â> t

d dt = i ℏ [ - ]+< ĤΨ Â>Â> t d dt = i ℏ [ - ]+< Ψ Â>Â> t d dt = i ℏ [ ] Ψ Â>Â> t +<+< E finalmente......

d dt = i ℏ Â>Â> t +<+< Risultato molto importante. Prende il nome di “Teorema di Ehrenfest”.

d dt = i ℏ Â>Â> t +<+< Conseguenza 1: se considero un hamiltoniana indipendente dal tempo (sempre in questo corso), allora entrambi gli addendi a destra si annullano: d dt = 0 E’ l’equivalente classico della conservazione dell’energia per un sistema isolato.

d dt = i ℏ Â>Â> t +<+< Conseguenza 2: se considero un operatore indipendente dal tempo (sempre in questo corso), allora: In meccanica quantistica un’osservabile è una COSTANTE DEL MOTO sse l’operatore ad essa associato commuta con l’hamiltoniana. d dt = i ℏ

In meccanica quantistica un’osservabile è una COSTANTE DEL MOTO sse l’operatore ad essa associato commuta con l’hamiltoniana. Quindi, ormai sappiamo che se d dt =0 ⃡ A e H sono due osservabili compatibili A e H sono diagonalizzabili simultaneamente, i.e. hanno autofunzioni comuni A è una costante del moto

d dt = i ℏ Â> (*) t +<+< Vediamo una terza conseguenza, sfruttando anche il principio di indeterminazione generalizzato che, per la coppia di operatori Ĥ (hamiltoniano), Â (generico operatore associato a un’osservabile) si scrive: σ 2 (Ĥ)σ 2 (Â) ≥ [(1/2i) ] 2 Considerando i due operatori indipendenti dal tempo, la (*) mi dice che = ℏ i d dt ⇒

σ 2 (Ĥ)σ 2 (Â) ≥ [(1/2i) ] 2 = ℏ i d dt =( ℏ /2) 2 [ dt d ] 2 σ(Ĥ)σ(Â)≥ ( ℏ /2) dt d || Adesso pongo: ΔE≡σ(Ĥ) e Δt≡ σ(Â) d dt | |

ΔE≡σ(Ĥ) e Δt≡ σ(Â) d dt | | Questo è solo un cambiamento di nome E’ del tipo spazio/velocità Mi dice quanto devo aspettare prima che cambi di un σ(Â), insomma è una misura sensata di un tempo caratteristico che provoca un cambiamento non trascurabile di valore in. Come tale, dipenderà criticamente dall’osservabile in questione. Notare che è una definizione di “Δ” concettualmente diversa da quelle date finora in termini di deviazione standard. In effetti, il tempo NON è una osservabile fisica. NON sto parlando di una deviazione standard su una distribuzione di probabilità dell’osservabile tempo.

σ(Ĥ)σ(Â)≥ ( ℏ /2) dt d || ΔE≡σ(Ĥ) e Δt≡ σ(Â) d dt | | ΔEΔt ≥ ℏ /2 Principio di indeterminazione energia-tempo.

Esercizio (già svolto): Si calcoli la densità di probabilità per la funzione d’onda Ψ (x,t) data dalla combinazione lineare degli stati stazionari (x,t) Ψ (x,t). Si considero tutte e tre le funzioni d’onda rea li e Ψ 1 2 In generale sarà dipendente dal tempo se la Ψ(x,t)| 2 = | c12c Φ c22c Φ +2c 1 c 2 ΦΦ 1 2 cos[(E 1 -E 2 )t/ ] Â(x,p) > <Ψ| Ψ Ψ NON è stazionaria. Ψ(x,t)=c 1 Ψ (x,t)+ 1 c2c2 Ψ (x,t) 2 Ψ (x,t)= Φ (x) i e EitEit-i i i=1,2

Ok, ma da quello che abbiamo appena visto, se Â≡Ĥ Ψ(x,t)| 2 = | c12c Φ c22c Φ +2c 1 c 2 ΦΦ 1 2 cos[(E 1 -E 2 )t/ ] non deve dipendere dal tempo, nonostante lo stato NON sia stazionario. Ψ Ψ(x,t)=c 1 Ψ (x,t)+ 1 c2c2 Ψ (x,t) 2 Ψ (x,t)= Φ (x) i e EitEit-i i i=1,2 Ok, dimostriamolo esplicitamente... ĤΦ =E i Φ i i

Ok, ma da quello che abbiamo appena visto, se Â≡Ĥ non deve dipendere dal tempo, nonostante lo stato NON sia stazionario. Ψ =E 1 |c 1 | 2 dato che =1 =0 dato che =0... =E 1 |c 1 | 2 +E 2 |c 2 | 2 indipendente da t Ψ

Generalizziamo! Ψ (x,t)= Φ (x) i e EitEit-i i i=1,2,3,.....,∞ ĤΦ =E i Φ i i Un generico stato può sempre (*) essere scritto come Ψ(x,t)=∑ i c i Φ i (x)e (-it E i/ ℏ ) (*) In realtà per gli operatori hamiltoniani che ammettono (anche) spettro continuo occorre un’estensione, la vedremo! =

=∑ i,j =∑ i,j c i * E j c j e (it E i/ ℏ ) e (-it E j/ ℏ ) =∑ i,j c i * E j c j e (it E i/ ℏ ) e (-it E j/ ℏ ) δ ij =∑ i |ci| 2 E i

= =∑ i |ci| 2 E i All’interno di una qualunque teoria probabilistica, se Pi è la probabilità di ottenere il risultato (E=Ei), allora =∑ i P i E i =1, con ∑ i P i =1. E’ quindi normale interpretare |c i |2 come probabilità di trovare il sistema nello stato i-esimo. Ovviamente, vale ∑ i |c i |2 = 1, infatti:

1= = 1=∑ i,j c i * c j * e (it E i/ ℏ ) e (-it E j/ ℏ ) 1=∑ i,j c i * c j * e (it E i/ ℏ ) e (-it E j/ ℏ ) δ ij 1=∑ i |c i | 2 =∑ i |ci| 2 E i

Se un sistema fisico si trova in un generico stato, una misura della sua energia darà sempre un valore corrispondente ad un autovalore dell’energia stessa, e il sistema, subito dopo la misura, si troverà nell’autostato corrispondente. Ma se preparo tanti sistemi identici in modi identici e, a tempi uguali, effettuo la stessa misura, diverse misure forniranno autovalori diversi. L’energia media è calcolata come (valore possibile di energia E i )x(probabilità |ci| 2 di trovare il sistema con quell’energia in una singola misura)

Sistemi identici preparati nello stesso stato ψ(x,t) Misura: valor medio di energia nello stato iniziale = media dei valori ottenuti E5E5 E3E3 E2E2 E1E1 E1E1 ψ 1 (x,t)ψ 5 (x,t)ψ 3 (x,t)ψ 2 (x,t)ψ 1 (x,t) Dopo la misura cambia tutto: i singoli sistemi non si trovano più nello stesso stato, ma nell’autostato corrispondente al valore di E misurato.

Matematicamente, l’effetto di una misura è quello di selezionare una sola componente della funazione d’onda, il che matematicamente viene ottenuto proiettandola sull’autostato ψ(x,t)=∑ i c i Φ i (x)e (-it E i/ ℏ ) =c k =[∑ i c i e (-it E i/ ℏ ) ]Φ k (x)=c k Φ k (x) lo stato finale normalizzato sarà dato da: Φ k (x) =Φ k (x)

Sistemi identici preparati nello stesso autostato Misura: valor medio di energia nello stato iniziale = media dei valori ottenuti = risultato singola misura E3E3 E3E3 E3E3 E3E3 E3E3 ψ 3 (x,t)

Generalizzazione: preso un operatore  associato a un’osservabile fisica, le sue autofunzioni: ψ(x,t)=∑ i c i (t)f i (x) Âf i (x)=a i f i (x) sono un sistema ortonormale completo, per cui posso sempre scrivere: Rispetto al caso Â=Ĥ, la dipendenza dal tempo non è esplicitata, ma racchiusa nei coefficienti (immaginate di ripetere uno sviluppo ad ogni tempo fissato). Ripetendo i conti fatti prima si verifica subito che: c i (t)= con1=∑ i |c i | 2

ψ(x,t)=∑ i c i (t)f i (x)Âf i (x)=a i f i (x) c i (t)= con1=∑ i |c i | 2 Probabilità di trovare il sistema nell’autostato i-esimo di Â. Se misuro l’osservabile, lo stato immediatamente dopo la misura coincide con l’autostato corrispondente. Se ripeto tante misura su sistemi identici preparati allo stesso modo, trovo (dim come prima): =∑ i |c i (t)| 2 a i

=∑ i |c i | 2 E i Se Â=Ĥ i coefficienti non dipendono dal tempo, perchè Ĥ è una costante del moto. La dipendenza dal tempo si perde per ogni costante del moto, ovvero per ogni operatore (indipendente dal tempo) tale da soddisfare: [Â,Ĥ]=0

Sulle osservabili compatibili.... Due operatori hermitiani  e Ĉ commutano ([Â,Ĉ]=0) sse possiedono un sonc di autovettori comuni: Âφ rs (x)=a r φ rs (x); Ĉφ rs (x)=c s φ rs (x); dove r ed s sono indici interi. E’ equivalente al risultato visto durante il ripasso di Algebra Lineare: due matrici commutano sse possono essere diagonalizzate simultaneamente (la matrice che realizza il cambiamento di base è quella degli autovettori). No dim, lo capiremo meglio con un esempio importante.

Postulati della Meccanica Quantistica. (i) Ad ogni sistema fisico C è associabile un opportuno spazio di Hilbert. Ogni stato del sistema fisico può essere rappresentato mediante un opportuno elemento dello spazio di Hilbert, con norma unitaria. L’evoluzione temporale di tale stato è determinata dall’Equazione di Schrödinger. (ii) Ad ogni osservabile A corrisponde un operatore autoaggiunto  (o hermitiano) che opera nello spazio di Hilbert associato al sistema. I valori misurabili della grandezza A corrispondono ai suoi autovalori. (iii) Effettuare una misura di un’osservabile equivale a proiettare lo stato del sistema sull’autostato (opportunamente normalizzato) relativo all’autovalore della grandezza corrispondente alla misura.