,

Meccanica statistica: un’introduzione storica

Livello di difficoltà: università

  1. Gli inizi
  2. Energia cinetica e temperatura assoluta
  3. Il contributo di Clausius
  4. Maxwell e Boltzmann
  5. Teoria degli ensemble
  6. La funzione densità
  7. Gibbs e la moderna teoria degli ensemble
  8. La rivoluzione di Planck
  9. La statistica di Bose-Einstein
  10. La meccanica statistica quantistica

La meccanica statistica è un insieme di modelli che costituiscono un vero e proprio ambito di studi e di ricerca della fisica, che mira a spiegare le proprietà fisiche della materia sulla base del comportamento dinamico dei suoi costituenti microscopici. Il campo di applicazione del formalismo è quasi illimitato, come la gamma stessa dei fenomeni naturali, poiché in linea di principio è applicabile alla materia in qualsiasi stato. È stato infatti applicato, con notevole successo, allo studio della materia allo stato solido, liquido o gassoso, della materia composta da più fasi e/o da più componenti, della materia in condizioni estreme di densità e temperatura, della materia in equilibrio con la radiazione (come, ad esempio, in astrofisica), della materia organica, ecc.

Inoltre il formalismo della meccanica statistica ci permette di studiare gli stati di non-equilibrio della materia oltre a quelli di equilibrio e tali studi ci aiutano a capire il modo in cui un sistema fisico che si trova fuori equilibrio in un dato momento t si avvicina a uno stato di equilibrio con il passare del tempo.

Gli inizi

Rispetto allo stato attuale del suo sviluppo, al successo delle sue applicazioni e all’ampiezza del suo campo di applicazione, gli inizi della meccanica statistica furono piuttosto modesti. A parte alcuni riferimenti primitivi, come quelli di Gassendi, Hooke, ecc. il lavoro vero e proprio iniziò con i lavori di Bernoulli (1738), Herapath (1821) e Joule (1851) che, a modo loro, cercarono di gettare le basi della cosiddetta teoria cinetica dei gas, una disciplina che alla fine si rivelò il precursore della meccanica statistica.

Il lavoro pionieristico di questi ricercatori stabilì che la pressione di un gas derivava dal moto delle sue molecole e poteva essere calcolata considerando l’influenza dinamica del bombardamento molecolare sulle pareti del contenitore. Bernoulli ed Herapath poterono così dimostrare che, se la temperatura rimaneva costante, la pressione P di un gas ordinario era inversamente proporzionale al volume V del contenitore (legge di Boyle) e che era essenzialmente indipendente dalla forma del contenitore.

Questo, ovviamente, implicava l’assunzione esplicita che, a una data temperatura T, la velocità (media) delle molecole fosse indipendente sia dalla pressione che dal volume. Bernoulli cercò anche di determinare la correzione (del primo ordine) a questa legge, derivante dalle dimensioni finite delle molecole, e dimostrò che il volume V che compare nell’enunciato della legge dovrebbe essere sostituito da (V-b), dove b è il volume totale effettivo delle molecole.

Joule fu il primo a dimostrare che la pressione P è direttamente proporzionale al quadrato della velocità molecolare v, che aveva assunto uguale per tutte le molecole.

Energia cinetica e temperatura assoluta

Krönig (1856) fece un ulteriore passo avanti. Introducendo l’ipotesi quasi statistica secondo la quale in qualsiasi momento t si può supporre che un sesto delle molecole si stia muovendo in ciascuna delle sei direzioni indipendenti, ossia +x,-x,+y,-y,+z,-z, ricavò l’equazione:

P=\frac{1}{3} n m v^{2} ,

dove n è la densità numerica delle molecole e m la massa molecolare. Anche Kronig ipotizzò che la velocità molecolare v fosse la stessa per tutte le molecole; dedusse quindi che l’energia cinetica delle molecole doveva essere direttamente proporzionale alla temperatura assoluta del gas.

Krönig giustificò il suo metodo con queste parole: “Il percorso di ogni molecola deve essere così irregolare da sfidare ogni tentativo di calcolo. Tuttavia, secondo le leggi della probabilità, si potrebbe ipotizzare un moto completamente regolare al posto di uno completamente irregolare!

Va tuttavia notato che è solo a causa della forma particolare di alcune sommatorie che compaiono nel calcolo della pressione che il modello di Krönig porta allo stesso risultato di quello che si ottiene da modelli più raffinati. In altri problemi, come quelli che coinvolgono la diffusione, la viscosità o la conduzione del calore, il modello non funziona più.

Il contributo di Clausius

È in questa fase che Clausius entra in campo. Innanzitutto, nel 1857 derivò la legge dei gas ideali con ipotesi molto meno stringenti di quelle di Krönig. Scartò entrambe le ipotesi principali di Krönig e dimostrò che l’equazione precedente era ancora vera; naturalmente, v^{2} andava interpretata come velocità quadratica media delle molecole.

In un articolo successivo (1859), Clausius introdusse il concetto di cammino libero medio e fu così il primo ad analizzare i fenomeni di trasporto. Fu in questi studi che introdusse il famoso “Stosszahlansatz” – l’ipotesi sul numero di collisioni (tra le molecole) – che, in seguito, ebbe un ruolo di primo piano nel monumentale lavoro di Boltzmann. Con Clausius, l’introduzione del punto di vista microscopico e statistico nella teoria fisica fu definitiva e non solo speculativa. Di conseguenza Maxwell, in un articolo divulgativo intitolato “Molecole”, scritto per l’Enciclopedia Britannica, si riferì a lui come al “principale fondatore della teoria cinetica dei gas“, mentre Gibbs, nel suo necrologio di Clausius, lo definì il “padre della meccanica statistica“.

Maxwell e Boltzmann

Il lavoro di Clausius attirò Maxwell in questo campo. Egli fece la sua prima apparizione con l’articolo “Illustrations in the dynamical theory of gases” (1860), in cui si spinse molto più in là dei suoi predecessori derivando la sua famosa legge della distribuzione delle velocità molecolari. La derivazione di Maxwell si basava su principi elementari di probabilità ed era chiaramente ispirata alla legge gaussiana della distribuzione degli errori casuali. Nel 1867 apparve una derivazione basata sul requisito che la distribuzione di equilibrio delle velocità molecolari, una volta acquisita, deve rimanere invariante sotto le collisioni molecolari. Questo portò Maxwell a stabilire la cosiddetta equazione di trasporto di Maxwell che, se usata con abilità, porta agli stessi risultati che si ottengono dall’equazione fondamentale di Boltzmann.

I contributi di Maxwell alla materia diminuirono notevolmente dopo la sua nomina, nel 1871, a Cavendish Professor a Cambridge. A quel tempo Boltzmann aveva già fatto i primi passi. Nel periodo 1868-71 generalizzò la legge di distribuzione di Maxwell ai gas poliatomici, tenendo conto anche dell’eventuale presenza di forze esterne; ciò diede origine al famoso fattore di Boltzmann \exp (-\beta \varepsilon), dove \varepsilon indica l’energia totale di una molecola. Queste indagini portarono anche al teorema di equipartizione. Boltzmann dimostrò che, proprio come la distribuzione originale di Maxwell, la distribuzione generalizzata (che oggi chiamiamo distribuzione di Maxwell-Boltzmann) è stazionaria rispetto alle collisioni molecolari. Nel 1872 arrivò il celebre teorema H (H-Theorem) che forniva una base molecolare per la tendenza naturale dei sistemi fisici ad avvicinarsi e a rimanere in uno stato di equilibrio. Questo stabilisce una connessione tra l’approccio microscopico (che caratterizza la meccanica statistica) e l’approccio fenomenologico (che caratterizza la termodinamica) in modo molto più trasparente di quanto sia mai stato fatto prima; inoltre fornisce un metodo diretto per calcolare l’entropia di un dato sistema fisico a partire da considerazioni puramente microscopiche. Come corollario al teorema H, Boltzmann dimostrò che la distribuzione di Maxwell-Boltzmann è l’unica distribuzione che rimane invariante sotto le collisioni molecolari e che qualsiasi altra distribuzione, sotto l’influenza delle collisioni molecolari, alla fine si trasforma in una distribuzione di Maxwell-Boltzmann. Nel 1876 Boltzmann derivò la sua famosa equazione di trasporto che, nelle mani di Chapman ed Enskog (1916-17), si è rivelata uno strumento estremamente potente per studiare le proprietà macroscopiche dei sistemi in stati di non-equilibrio.

Le cose, tuttavia, si rivelarono piuttosto difficili per Boltzmann. Il suo teorema $H$ e il conseguente comportamento irreversibile dei sistemi fisici furono oggetto di pesanti attacchi, soprattutto da parte di Loschmidt (1876-77) e Zermelo (1896). Mentre Loschmidt si chiedeva come le conseguenze di questo teorema potessero essere conciliate con il carattere reversibile delle equazioni di base del moto delle molecole, Zermelo si chiedeva come queste conseguenze potessero essere rese compatibili con il comportamento quasi-periodico dei sistemi chiusi (che nasceva in considerazione dei cosiddetti cicli di Poincaré).

Boltzmann si difese con tutte le sue forze da questi attacchi, ma non riuscì a convincere gli avversari della correttezza del suo lavoro. Allo stesso tempo, gli energetisti, guidati da Mach e Ostwald, criticavano le stesse basi (molecolari) della teoria cinetica, mentre Kelvin sottolineava le “nubi ottocentesche che aleggiano sulla teoria dinamica della luce e del calore”.

Tutto ciò lasciò Boltzmann in uno stato di disperazione e indusse in lui un complesso di persecuzione.

Teoria degli ensemble

Non ci soffermeremo ulteriormente sulla teoria cinetica, ma passeremo allo sviluppo di un approccio più sofisticato, noto come teoria degli ensemble, che può essere considerato come la meccanica statistica vera e propria.

In questo approccio, lo stato dinamico di un dato sistema, caratterizzato dalle coordinate generalizzate q_{i} e dai momenti generalizzati p_{i}, è rappresentato da un punto G(q_{i}, p_{i}) in uno spazio delle fasi di opportuna dimensione. L’evoluzione dello stato dinamico nel tempo è rappresentata dalla traiettoria del punto G nello spazio delle fasi, la cui geometria è governata dalle equazioni del moto del sistema e dalla natura dei vincoli fisici imposti. Per sviluppare un formalismo appropriato, si considera il sistema dato insieme a un numero infinitamente grande di “copie mentali” di esso. Cioè un insieme di sistemi simili sottoposti a vincoli fisici identici (anche se, in qualsiasi momento t, i vari sistemi dell’insieme differiscono ampiamente per quanto riguarda i loro stati dinamici). Nello spazio delle fasi, quindi, si ha uno sciame di infiniti punti G (che, in qualsiasi momento t, sono ampiamente dispersi e, con il tempo, si muovono lungo le rispettive traiettorie). Tale immagine di una miriade (ensemble) di sistemi infiniti, identici ma indipendenti, consente di sostituire alcune ipotesi dubbie della teoria cinetica dei gas con affermazioni facilmente accettabili della meccanica statistica. La formulazione esplicita di queste affermazioni fu data per la prima volta da Maxwell (1879), che in questa occasione usò il termine “statistico-meccanico” per descrivere lo studio degli ensemble (di sistemi gassosi) – anche se, otto anni prima, Boltzmann (1871) aveva lavorato essenzialmente con lo stesso tipo di ensemble.

La funzione densità

La quantità più importante nella teoria degli ensemble è la funzione densità \rho(q, p, t) dei punti G nello spazio delle fasi; una distribuzione stazionaria (\partial \rho / \partial t=0) caratterizza un ensemble stazionario, che a sua volta rappresenta un sistema in equilibrio. Maxwell e Boltzmann limitarono il loro studio agli ensemble per i quali la funzione \rho dipendeva unicamente dall’energia E del sistema. Questo includeva il caso speciale dei sistemi ergodici, definiti in modo tale che “il moto indisturbato di un tale sistema, se proseguisse per un tempo illimitato, alla fine attraverserebbe (un intorno di) ogni punto dello spazio delle fasi compatibile con il valore fisso E dell’energia“. Di conseguenza, la media sull’ensemble, <f>, di una quantità fisica f, presa in un qualsiasi momento t, sarebbe la stessa della media sul lungo periodo \bar{f}, relativa a un qualsiasi membro dell’ensemble.

Ora, \bar{f} è il valore che ci aspettiamo di ottenere per la quantità in questione quando effettuiamo una misura appropriata sul sistema; il risultato di questa misura dovrebbe, quindi, essere in accordo con la stima teorica <f>. In questo modo abbiamo acquisito un modo per realizzare un contatto diretto tra teoria ed esperimento. Allo stesso tempo, gettiamo una base razionale per una teoria microscopica della materia come alternativa all’approccio empirico della termodinamica.

Gibbs e la moderna teoria degli ensemble

Un significativo passo avanti in questa direzione è stato compiuto da Gibbs che, con il suo Elementary Principles of Statistical Mechanics (1902), ha trasformato la teoria degli ensemble in uno strumento molto efficiente per il fisico teorico. Egli enfatizzò l’uso di ensemble generalizzati e sviluppò schemi che, in linea di principio, consentivano di calcolare un insieme completo di quantità termodinamiche di un dato sistema fisico a partire dalle proprietà puramente meccaniche dei suoi costituenti microscopici. Nei suoi metodi e nei suoi risultati, il lavoro di Gibbs si rivelò molto più generale di qualsiasi trattazione precedente dell’argomento. Il metodo di Gibbs si applicava a qualsiasi sistema fisico che soddisfacesse i semplici requisiti di struttura meccanica e obbedienza alle equazioni del moto di Lagrange e Hamilton. Da questo punto di vista, si può ritenere che il lavoro di Gibbs abbia realizzato per la termodinamica quanto quello di Maxwell per l’elettrodinamica.

La rivoluzione di Planck

Questi sviluppi coincisero quasi con la grande rivoluzione che il lavoro di Planck del 1900 portò nella fisica. Come è noto, l’ipotesi quantistica di Planck risolse con successo i dubbi profondi sulla cosiddetta radiazione del corpo nero, un argomento su cui si concentravano le tre discipline più consolidate del XIX secolo, ossia la meccanica, l’elettrodinamica e la termodinamica. Allo stesso tempo, ha messo in luce sia i punti di forza che le debolezze di queste discipline. Sarebbe stato sorprendente se la meccanica statistica, che collega la termodinamica alla meccanica, fosse sfuggita alle ripercussioni di questa rivoluzione. Il successivo lavoro di Einstein (1905) sull’effetto fotoelettrico e di Compton (1923) sulla diffusione dei raggi x stabilirono l’esistenza del quanto di radiazione, o del fotone come lo chiamiamo oggi.

È stato quindi del tutto naturale che qualcuno abbia cercato di ricavare la formula di Planck per la radiazione trattando la radiazione del corpo nero come un gas di fotoni, più o meno come Maxwell aveva ricavato la sua legge di distribuzione (delle velocità molecolari) per un gas di molecole convenzionali. Ma allora, un gas di fotoni differisce così radicalmente da un gas di molecole convenzionali che le due leggi di distribuzione dovrebbero essere così diverse tra loro?

La risposta a questa domanda venne dal modo in cui la formula di Planck fu derivata da Bose. Nel suo storico articolo del 1924, Bose trattò la radiazione del corpo nero come un gas di fotoni; tuttavia, invece di considerare l’assegnazione dei singoli fotoni ai vari stati energetici del sistema, fissò la sua attenzione sul numero di stati che contenevano un particolare numero di fotoni. Einstein, che sembra aver tradotto in tedesco l’articolo di Bose da un manoscritto inglese inviatogli dall’autore, riconobbe subito l’importanza di questo approccio e aggiunse alla sua traduzione la seguente nota: “La derivazione di Bose della formula di Planck è a mio avviso un importante passo avanti. Il metodo qui impiegato permetterebbe anche di ottenere la teoria quantistica di un gas ideale, che mi propongo di dimostrare altrove“.

Implicito nell’approccio di Bose era il fatto che nel caso dei fotoni ciò che contava davvero era l’insieme dei numeri (di fotoni) nei vari stati energetici del sistema e non nello specifico quale fotone si trovasse in quale stato. In altre parole, i fotoni erano reciprocamente indistinguibili. Einstein sostenne che ciò che Bose aveva ipotizzato per i fotoni doveva essere vero anche per le particelle materiali poiché la proprietà di indistinguibilità derivava essenzialmente dal carattere ondulatorio di queste entità e, secondo de Broglie, anche le particelle materiali (cioè dotate di massa) possedevano tale carattere.

La statistica di Bose-Einstein

In due articoli, apparsi poco dopo, Einstein (1924,1925) applicò questo metodo allo studio di un gas ideale, sviluppando così quella che oggi chiamiamo statistica di Bose-Einstein. Nel secondo di questi articoli, la differenza fondamentale tra la nuova statistica e quella classica di Maxwell-Boltzmann emerge in modo trasparente in termini di indistinguibilità delle molecole. Nello stesso articolo Einstein scoprì il fenomeno della condensazione di Bose-Einstein che, tredici anni dopo, fu adottato da London (1938) come base per la comprensione microscopica delle curiose proprietà dell’elio-4 a basse temperature.

In seguito all’enunciato del principio di esclusione di Pauli (1925), Fermi (1926) dimostrò che alcuni sistemi fisici obbediscono a un diverso tipo di statistica, ossia la statistica di Fermi-Dirac, in cui non più di una particella può occupare lo stesso stato energetico. È importante ricordare che anche il metodo di Bose del 1924 porta alla distribuzione di Fermi-Dirac, purché si limiti l’occupazione di uno stato energetico a una sola particella.

Poco dopo la sua comparsa, la statistica di Fermi-Dirac fu applicata da Fowler (1926) per discutere gli stati di equilibrio delle stelle nane bianche e da Pauli (1927) per spiegare il paramagnetismo debole e indipendente dalla temperatura dei metalli alcalini; in ogni caso, si trattava di descrivere un gas di elettroni altamente degenere che obbediva alla statistica di Fermi-Dirac. A seguito di ciò, Sommerfeld produsse il suo monumentale lavoro del 1928 che fondò la teoria elettronica dei metalli su basi fisicamente solide. In questo modo, Sommerfeld riuscì a spiegare gran parte delle proprietà dei metalli derivandole dal comportamento degli elettroni di conduzione e ottenne risultati che mostravano un accordo molto migliore con gli esperimenti rispetto a quelli derivanti dalle teorie classiche di Riecke (1898), Drude (1900) e Lorentz (1904-05). Più o meno nello stesso periodo, Thomas (1927) e Fermi (1928) studiarono la distribuzione degli elettroni negli atomi più pesanti e ottennero stime teoriche per le relative energie di legame; queste indagini portarono allo sviluppo del cosiddetto modello Thomas-Fermi dell’atomo, che fu poi esteso in modo da poter essere applicato anche a molecole, solidi e nuclei.

La meccanica statistica quantistica

L’intera struttura della meccanica statistica fu stravolta dall’introduzione del concetto di indistinguibilità delle particelle (identiche). L’aspetto statistico del problema, che era già presente in considerazione dell’elevato numero di particelle presenti, veniva ora arricchito da un altro aspetto statistico derivante dalla natura probabilistica della descrizione della meccanica ondulatoria. Si doveva quindi effettuare una doppia media delle variabili dinamiche sugli stati del sistema dato per ottenere i valori di aspettazione corretti. Una situazione del genere non poteva che rendere necessaria una riformulazione della teoria degli ensemble.

In primo luogo, Landau (1927) e von Neumann (1927) introdussero la cosiddetta matrice densità, che era l’analogo quantistico della funzione di densità dello spazio delle fasi classico. Questa fu discussa sia dal punto di vista statistico che quantistico, da Dirac (1929-31). Guidati dalla teoria classica degli ensemble, questi autori considerarono sia gli ensemble microcanonici che quelli canonici; l’introduzione degli ensemble grancanonici nella meccanica statistica quantistica fu fatta da Pauli (1927).

L’importante questione di quali particelle obbediscano alla statistica di Bose-Einstein e quali a quella di Fermi-Dirac rimase teoricamente irrisolta fino a quando Belinfante (1939) e Pauli (1940) scoprirono il fondamentale legame tra spin e statistica. Si scopre che le particelle il cui spin è un multiplo intero della costante di Planck ridotta obbediscono alla statistica di Bose-Einstein, mentre quelle il cui spin è un multiplo semi-intero della costante di Planck ridotta obbediscono alla statistica di Fermi-Dirac.

Fonti:

Lascia un commento


Blog su WordPress.com.