Microscopio di Heisenberg

Microscopio di Heisenberg

 

 

 

I riassunti , gli appunti i testi contenuti nel nostro sito sono messi a disposizione gratuitamente con finalità illustrative didattiche, scientifiche, a carattere sociale, civile e culturale a tutti i possibili interessati secondo il concetto del fair use e con l' obiettivo del rispetto della direttiva europea 2001/29/CE e dell' art. 70 della legge 633/1941 sul diritto d'autore

 

 

Le informazioni di medicina e salute contenute nel sito sono di natura generale ed a scopo puramente divulgativo e per questo motivo non possono sostituire in alcun caso il consiglio di un medico (ovvero un soggetto abilitato legalmente alla professione).

 

 

 

 

Microscopio di Heisenberg

Matematica, linguaggio e tecnica nella fisica quantistica: la filosofia della scienza di Werner Heisenberg

 

Che cos’è la filosofia della scienza? Ossia che cos’è stata nella sua storia e che cosa è nel suo concetto?
Ovviamente, come disciplina a se stante, la filosofia della scienza non può nascere che dopo la consumazione della separazione tra la filosofia e le scienze, quindi solo dopo la nascita della scienza moderna durante il rinascimento. Di fatto, però, le prime espressioni consapevoli e compiute di una filosofia della scienza sono molto più tarde, a partire dall’ottocento. Molti autori considerano le opere mature e tarde di Kant l’atto di nascita della filosofia della scienza e certamente già la problematica della Critica della ragion pura può essere considerata largamente congruente con questo ambito problematico. Nella sua opera capitale, Kant si interroga sulle condizioni di possibilità dei giudizi sintetici a priori, rinvenendole nell’apparato categoriale dell’intelletto e nei trascendentali spazio e tempo. In questo modo, Kant confutava la possibilità di una metafisica come scienza, ma al tempo stesso fondava la legittimità delle teorie scientifiche universali negli apriori dell’esperienza.

Il pensiero di Kant è stato poi di fatto determinante per tutto un filone della filosofia della scienza, dal quale dipendono, per esempio, l’empiriocriticismo di Avenarius e Mach, ma parzialmente anche il neopositivismo. Questa importanza di Kant dipende dal fatto che nella sua opera sono stati affrontati insieme, in maniera coordinata, quelli che Popper riteneva i due problemi fondamentali dell’epistemologia: ossia il problema dell’induzione e quello della demarcazione.
1) La prima questione è relativa appunto allo status ed alla validità dell’induzione. Ma cos’è l’induzione? Una forma di inferenza, ossia di derivazione logica: un’inferenza è induttiva quando procede da asserzioni singolari (come i resoconti dei risultati di osservazioni o di esperimenti) ad asserzioni universali (quali ipotesi o teorie). Come vediamo, il rapporto logico è tra due entità linguistiche e non direttamente tra il fenomeno e la teoria, ossia per induzione non intendiamo più oggi la teoria ingenua dell’empirismo di una derivazione diretta della legge naturale dall’esperienza, ma di una serie di asserzioni generali a partire da asserzioni singolari, che a loro volta derivano dall’esperienza secondo procedimenti più o meno rigorosi (e riguardo al rigore di questa derivazione, il neopositivismo è certamente stato la scuola più austera). Anche raffinata in questo modo, però, la teoria dell’induzione, ossia la pretesa che la logica della scoperta scientifica sarebbe una logica induttiva, è problematica e probabilmente insostenibile. Il motivo più elementare è che da qualsivoglia numero di affermazioni singolari non si può mai dedurre rigorosamente un’affermazione universale, ma tutt’al più un’affermazione particolare. Diverso è il caso in cui noi usiamo l’asserzione singolare non per verificare, bensì per falsificare un’asserzione universale: metodo che è esattamente quello proposto da Popper con il suo falsificazionismo.
2) La seconda questione è relativa al problema della demarcazione, ossia al criterio della distinzione tra scienza e non scienza (soprattutto tra scienza e metafisica). Demarcazione che a Kant riesce molto bene, proprio mostrando che sapere scientifico si dà solo dei fenomeni e che dunque la metafisica, che si volge ai noumeni, non può vantare alcuna scientificità.

Come dicevamo prima, però, il problema dell’induzione e quello della demarcazione sono i problemi fondamentali dell’epistemologia, non della filosofia della scienza in generale. Che senso ha questa distinzione? Essa è in certa misura convenzionale, poiché semanticamente non vi è grande differenza tra le due espressioni: la parola greca epistemologia è composta da epistheme e logos, letteralmente “discorso intorno alla scienza”. Con epistemologia possiamo però intendere una branca particolare della filosofia della scienza, e precisamente quella che si occupa di problemi gnoseologici, interrogandosi intorno ai fondamenti, la natura, i limiti e le condizioni di validità del sapere scientifico. Popper diceva epistemologia la dottrina della scoperta scientifica, ossia la teoria del metodo scientifico. Conformemente a ciò, è ovvio che l’epistemologia deve sempre preliminarmente trovare un criterio per distinguere tra ciò che a buon diritto può essere chiamato metodo scientifico e ciò che non lo è; e inoltre deve affrontare la questione di come sia possibile trarre teorie generali dall’esperienza della natura.

Le scienze, però, non sono esaminabili esclusivamente sotto il riguardo del loro apparato metodologico e dei problemi gnoseologici che vi sono connessi, ma anche nella loro struttura teorica, logico-concettuale e matematica. Esiste dunque una filosofia della scienza che si occupa esattamente del chiarimento delle nozioni strutturali del pensiero scientifico, dei suoi concetti fondamentali (ipotesi o teoria scientifica, legge, spiegazione e così via). Inoltre, appartiene alla filosofia della scienza l’analisi del linguaggio teorico, nelle sue relazioni con i linguaggi naturali e matematici. In quest’ambito è possibile un’indagine sulla natura dell’esperimento scientifico, che non si riduca a prendere in considerazione i problemi di origine gnoseologica, ossia non si limiti a stimare la validità e il rigore del metodo sperimentale, bensì consideri nel suo complesso le relazioni tra teoria ed esperimento, le implicazioni del metodo strumentale sulla natura della verità scientifica acquisibile per il suo tramite e, in ultimo, anche le relazioni tra scienza sperimentale e tecnica.
Inoltre, le scienze sono considerabili in relazione ai propri risultati, al sapere scientifico che producono. Rispetto a ciò, la filosofia della scienza è lo studio dello statuto della verità scientifica, se essa sia conoscenza della natura, o mero strumento mentale per ordinarne i fenomeni (si pensi alla dicotomia “spiegare” o “comprendere”); se in entrambi i casi detenga una qualche oggettività, o non sia piuttosto condizionata storicamente e così via.
E ancora: è possibile considerare le scienze nella loro molteplicità, con l’intento di classificarle e stabilirne le specificità. In quest’ambito si parla delle differenze tra scienze formali ed empiriche. E nell’ambito di queste ultime, tra scienze della natura e scienze dello spirito, problema quest’ultimo centrale per tutto il neokantismo e lo storicismo tedeschi. Nell’ambito delle scienze della natura, possiamo mettere tra parentesi le scienze descrittive, come la tassonomia, o indagare sulla maggiore o minore permeabilità dei loro metodi: un argomento caratteristico di quest’ultimo punto è per esempio la chiarificazione dei motivi per i quali la fisica ha finito per rappresentare la scienza modello dal punto di vista metodologico, come è confermato dal fatto che l’epistemologia si è limitata quasi esclusivamente al suo studio. O, ancora, si può indagare sul processo di riduzione delle discipline, qualora una branca scientifica tenda a venir assorbita da un’altra: come è il caso della chimica nella fisica.
Ma non è tutto: è compito legittimo, per quanto non esclusivo, della filosofia della scienza, anche studiare i rapporti tra le scienze e le altre espressioni culturali (arte, religione, politica, morale, la stessa filosofia) o socio-economiche. In questo ambito rientrano anche i problemi relativi alla responsabilità della ricerca scientifica, allo statuto dello scienziato ed ai limiti che considerazioni di carattere etico (soprattutto bioetico) possono imporre alla libertà della ricerca.

Vi è, insomma, una gamma molto vasta di questioni, rispetto alle quali non è sempre semplice individuare una figura unitaria per questa disciplina, se non considerandola l’ambito molto generale del pensiero filosofico che si confronta con la scienza nelle sue diverse dimensioni ed espressioni. In realtà, però, non è tanto importante che la filosofia della scienza si dia un’apparenza di univocità come disciplina definita, nella misura in cui il suo riferimento alla scienza come fenomeno riccamente articolato, ma comunque unitario, le assicura un ancoraggio più che sufficiente. Ed è, anzi, opportuno che l’atteggiamento con il quale si affrontano i singoli temi rimanga aperto a questa ampiezza disciplinare, senza rinchiudersi in una specializzazione troppo settoriale, che renderebbe incapaci di comprendere il senso più complessivo delle ricerche che si compiono. Almeno se si è convinti che la filosofia non sia mai specializzabile, per quanto specifici possano essere i suoi interessi: poiché sua caratteristica è proprio la capacità di contestualizzare ogni specificità all’interno di un quadro unitario e complessivo.
È questo il motivo per il quale, durante in corso, l’attenzione che si rivolgerà ad una questione molto particolare, sorta nell’ambito della riflessione sulla meccanica quantistica, sarà integrata dal tentativo di sviluppare alcune delle conseguenze che in questo ambito specifico della scienza della natura sono venute alla luce relativamente ai rapporti complessivi tra scienza e tecnica moderna.

Il titolo del corso, come sapete, è Matematica, linguaggio e tecnica nella fisica quantistica: la filosofia della scienza di Werner Heisenberg. Con questa formulazione si vogliono sintetizzare una serie di argomenti correlati. In primo luogo, ci occuperemo delle relazioni tra i diversi linguaggi che entrano in gioco nella creazione e nella formulazione della meccanica quantistica: ossia il linguaggio naturale, quello teorico e quello matematico. Il linguaggio naturale, ossia la lingua che comunemente parliamo, è considerato in questo contesto come coerente con il linguaggio della scienza classica newtoniana e rimane il presupposto della preparazione sperimentale delle esperienze che guidano la ricerca scientifica. Queste esperienze, però, sono tradotte in un linguaggio matematico, ai fini della misurazione, del calcolo e della previsione. Il formalismo del linguaggio matematico è a sua volta espresso tramite un linguaggio teorico, ove compaiono i concetti fondamentali della meccanica quantistica: come le particelle elementari, le onde di probabilità, e così via. Un primo fine del corso, dunque, sarà ripercorrere le considerazioni che uno dei padri della meccanica quantistica, l’ideatore del celeberrimo principio di indeterminazione, ossia Werner Heisenberg, svolge proprio a proposito delle difficoltà che emergono in questa molteplicità linguistica della scienza.
Sulla base di questo discorso, poi, che sarà ovviamente anche un discorso epistemologico sui diversi momenti della ricerca scientifica: dalla formulazione ipotetica della teoria, all’ideazione dell’apparato sperimentale atto a renderne conto, alla formalizzazione dei risultati, svilupperemo un’analisi del progressivo processo di tecnicizzazione della scienza della natura, che proprio nella meccanica quantistica vive uno dei suoi momenti più estremi e che lo stesso Heisenberg riconosce molto chiaramente nelle sue caratteristiche fondamentali. Questo ci consentirà di terminare svolgendo alcune considerazioni intorno alle relazioni che intercorrono tra scienza e tecnica, che ci permetteranno di abbozzare un’immagine complessiva del senso e della posizione della scienza della natura nel mondo culturale occidentale moderno.

Per motivi di ordine metodologico, perché si possa seguire un discorso altrimenti difficilmente intelligibile su certi caratteri specifici della meccanica quantistica, è opportuno contestualizzare questa teoria all’interno di un quadro sintetico della storia della fisica da Newton all’elettrodinamica.
Cominciamo col dire che la teoria quantistica nasce, in buona sostanza, come riforma della meccanica classica relativamente ai processi che si svolgono a livello dell’atomo. Una riforma che si impose come soluzione delle difficoltà che le teorie dinamiche classiche incontrarono, verso la fine dell’ottocento, nella descrizione di certi fenomeni, soprattutto nell’ambito dell’elettrodinamica e della teoria ondulatoria della luce. Per comprendere il senso di questo processo, dunque, dobbiamo fissare preliminarmente alcune coordinate elementari rispetto alla struttura della dinamica classica, soprattutto nella sua formalizzazione hamiltoniana, dell’elettrodinamica e delle teorie della luce e dell’atomo.

La meccanica newtoniana, nella sua espressione matura, formalizza le leggi relative ai movimenti dei corpi nello spazio ed alle forze che si esercitano su questi movimenti. Il corpo è concepito come una certa quantità di massa dotata di inerzia, col che si vuol dire che la quiete e il moto rettilineo uniforme di un corpo si mantengono di per sé, in assenza di influssi esterni, ossia se non intervengono forze a turbare il corpo. Questa è precisamente la prima legge della dinamica, espressa già da Galilei: non c’è bisogno di nessuna forza per mantenere il moto rettilineo uniforme o la quiete di un corpo, le forze intervengono solo per mutare la velocità o la direzione del moto.

Questa legge è ovviamente dipendente dalle qualità dello spazio euclideo all’interno del quale la meccanica classica concepisce i suoi fenomeni, spazio del quale la quiete e il moto rettilineo uniforme definiscono gli elementi fondamentali: ossia la posizione e la direzione, il punto e la retta. In un certo senso, dunque, la meccanica classica può essere vista come un tentativo di generalizzazione ai fenomeni fisici dell’analisi geometrica dello spazio. Con un’importante correzione, però, relativamente alla concezione analoga degli antichi: rispetto, infatti, all’idea aristotelica che i corpi tendono ad occupare il loro luogo naturale, ossia che il loro moto sia del tutto dipendente dallo spazio in cui si trovano, si sostituisce qui la tesi che un corpo è di fatto una data quantità di moto, di per sé uniforme, tanto che si potrebbero concepire le stesse dimensioni dello spazio euclideo come dipendenti dal principio di inerzia, piuttosto che il contrario. Di fatto, è proprio per questo che una mutata concezione delle caratteristiche della massa inerziale, soprattutto a partire da Einstein, ha comportato anche un cambiamento nella concezione dello spazio (per esempio, quando si assume che certe masse siano in grado di “curvare” lo spazio).

A prescindere da questo, è comunque evidente sin dal principio, che il vero problema della fisica, a partire dall’impostazione galileiana, non è più quello aristotelico della kinesis, del moto, che è presupposto e per il quale non si richiedono cause, se ogni corpo persiste di per sé nella propria situazione cinetica, bensì quello del mutamento del moto, ossia dell’accelerazione (positiva o negativa). Ciò che la fisica deve poter calcolare e prevedere è la dinamica non certo della quiete o del moto rettilineo uniforme, bensì delle variazioni del moto (relativamente a velocità e direzione) in sistemi dinamici ove intervengano più corpi e forze. È questo precisamente l’oggetto della seconda legge della dinamica, espressa per lo più con la formula
F = ma
ove F è la forza, m è la massa inerziale ed a il vettore di accelerazione. Questa formula corrisponde alla tesi che l’accelerazione di un corpo è proporzionale alla forza che si esercita sulla sua massa inerziale. A parità di forza, dunque, ad una massa maggiore viene impressa un’accelerazione minore.

Da queste due prime leggi, ed ossia dalla definizione del corpo come quantum di massa inerziale, la cui misura determina anche il valore dell’incidenza di una data forza sul moto di quello stesso corpo, comportandone una maggiore o minore accelerazione, possiamo subito derivare anche una conseguenza molto notevole, e cioè che, in qualche misura, in questa concezione della dinamica propria dei corpi è già compresa l’idea di una sostanziale equivalenza tra corpo e forza: non solo nel senso generico che forza e corpo devono pur condividere qualcosa, affinché la prima possa applicarsi al secondo, ma nel senso che, ogniqualvolta si parla dell’incidenza di una data forza su di un corpo, il corpo stesso esprime una misura di forza, resistendole solo impropriamente “per inerzia”, nel senso comune che diamo a questo termine. Questa concezione troverà infine un’espressione compiuta nell’equivalenza einsteiniana tra massa ed energia, ma è in realtà già intima alla meccanica classica: basti pensare alle due forze che, in maniera eminente, saranno considerate come rappresentative per un sistema dinamico, la forza cinetica e quella potenziale, che corrispondono alle due possibilità essenziali di un corpo, quella del moto e quella della quiete.

Ma di fatto già nella terza legge della dinamica noi ritroviamo questa enunciazione relativamente all’interazione tra due corpi. La terza legge, nella dizione newtoniana, recita: “ad ogni azione corrisponde una reazione uguale e contraria”, il che di solito si traduce dicendo che se un corpo esercita una forza F su un altro corpo, quest’ultimo esercita una forza –F sul primo. Cosa che, se non concepissimo la variazione di accelerazione come derivata degli stati cinetici dei due corpi, sarebbe un’assunzione del tutto metafisica e incomprensibile. Perché, infatti, il secondo corpo, il corpo che subisce la forza in questa descrizione diacronica e causale, dovrebbe reagire all’attacco proprio con una forza identica e contraria alla prima? Il problema è che quella descrizione è molto antropomorfica e tiene artificialmente separati proprio i concetti di forza e corpo. Il primo corpo non è portatore di una forza, come potremmo immaginare seguendo le solite rappresentazioni esemplificative: diciamo la classica palla da biliardo, ferma, alla quale io imprimo una forza, che poi essa cede alla palla sulla quale urta, subendo in questa cessione una forza identica e contraria che, in teoria, dovrebbe riportarla ad uno stato di quiete. Ma rimanendo fedeli a questa concezione che distingue tra attori e portatori e tra causa ed effetto, non comprendiamo veramente il senso delle equazioni della meccanica classica, né una delle loro caratteristiche essenziali, ossia l’invarianza rispetto al tempo.

Infatti, un corpo che, relativamente ad un osservatore, si muove con una certa velocità in una data direzione è un certo quantum di forza, così come lo è il corpo in quiete (per lo stesso osservatore) e la terza legge della dinamica non dice niente altro che la loro interrelazione è quella data dal prodotto delle due quantità di moto e non un’altra, e che lo è indipendentemente dalla sequenza temporale nella quale si svolge il fenomeno. F = ma, appunto, ove ovviamente, qualora le masse da considerarsi siano più di una ed in interrelazione, la forza risulta appunto come una funzione della relazione tra le masse e i loro vettori di accelerazione. È, dunque, solo per l’abitudine di associare al corpo in moto o a quello dotato di maggiore massa la causa e a quello in quiete o di massa minore l’effetto, che descriviamo in maniera diacronica l’urto e dunque associamo un valore positivo o negativo alla forza a seconda del lato dal quale la consideriamo. Formalmente, e anche fenomenologicamente, però, le due direzioni coincidono.

Questa invariabilità relativamente alla direzione del tempo, che cominciamo qui a incontrare, dipende sostanzialmente dal fatto che, per la meccanica classica, ogni sistema dinamico è definibile, in linea di principio, istantaneamente, ossia come somma, in un dato tempo, delle diverse grandezze che caratterizzano i suoi elementi: posizione, velocità e accelerazione di ogni corpo. Ma come è possibile descrivere matematicamente lo stato istantaneo di un corpo relativamente alle coordinate del suo movimento? Da un punto di vista concettuale, ovviamente, siamo qui di fronte ad un ossimoro molto stridente, nella misura in cui solo la posizione appare definibile, in un dato istante, in termini esclusivamente spaziali. Ma il variare della posizione, sia esso uniforme o accelerato, coinvolge sempre un concetto di divenire temporale. Di fatto, anche in fisica la velocità è espressa come intervallo di spazio percorso in un tempo dato: metri al secondo, per esempio. E l’accelerazione come indice dell’aumento di velocità in un tempo dato. Ora, come è possibile coinvolgere queste quantità in una definizione istantanea del corpo in movimento? Ossia: com’è possibile concepire il movimento in un suo istante dato? È il vecchio problema di Zenone, che egli sollevava per sostenere la concezione parmenidea dell’atemporalità dell’essere. Ed anche la meccanica classica, compreso Einstein, ha creduto in una qualche atemporalità dell’essere di un sistema dinamico, quantomeno come determinabilità istantanea dei parametri sufficienti ad una sua descrizione completa.

La soluzione newtoniana, e ancor prima leibniziana, a questo problema fu di carattere matematico e consistette nell’introduzione del calcolo infinitesimale come descrizione adeguata della variazione al limite di una grandezza continua fra due istanti successivi, quando l’intervallo di questi due istanti tende a zero. Tramite ciò, lo stato del corpo in ogni istante viene descritto non soltanto dalla sua posizione, bensì anche dalla sua “tendenza istantanea”, qualunque cosa si voglia intendere con ciò, a cambiare posizione (velocità) ed a modificare il trend di questo cambiamento (accelerazione). Nell’ambito di questa teoria, velocità ed accelerazione si definiscono come “derivate rispetto al tempo”.

Ora, come dicevamo prima, il vero compito della meccanica newtoniana è quello di calcolare la derivata al tempo dell’accelerazione di ogni punto di un sistema dinamico, che è una “derivata seconda”, poiché è espressa come derivata al tempo della velocità (e, ovviamente, anche di calcolare le ulteriori derivate, come la variazione nel tempo dell’accelerazione e così via). E l’accelerazione è funzione delle forze che si esercitano sul movimento dei corpi. Ma, coerentemente con la sua impostazione matematica, neanche questa formulazione riesce ad assicurare alla forza un diritto di cittadinanza forte nel cosmo meccanicistico, rispetto a quello della massa, e ciò anche in netto contrasto con l’intenzione dei fondatori di questa teoria. Infatti, nei termini del calcolo infinitesimale, il movimento di ogni punto in un certo intervallo di tempo è quantificato tramite l’integrazione dei suoi stati istantanei, ossia la somma delle variazioni infinitesime di velocità. In questo senso, per quanto tenda a darsi un’uguaglianza in ogni istante fra la forza applicata ad un punto e l’accelerazione che essa genera, proporzionale alla massa, e per quanto questa sorta di equivalenza tra forza e accelerazione costituisca l’incarnazione matematica, in conformità con la seconda legge della dinamica, della struttura causale proprio al mondo fisico meccanicistico, tutto ciò rimane definibile in termini di stato dei corpi in ogni singolo momento del loro moto. In certo qual modo, dunque, le forze studiate dalla fisica newtoniana sono funzione della configurazione spaziale del sistema di corpi fra i quali esse agiscono.

Ma a quale condizione possiamo fare una generalizzazione simile, considerando che la meccanica classica rimane l’esempio più tipico dell’uso del concetto di forza in fisica? In un certo senso, infatti, anche nella descrizione istantanea delle relazioni tra i corpi nello spazio del sistema considerato, noi inseriamo certe ipotesi sulla natura delle forze dinamiche, ossia sul modo in cui le accelerazioni istantanee che esse generano possono essere dedotte dallo stato istantaneo del sistema. Ciò significa, da Galileo in poi, che assumiamo che vi siano certe relazioni matematiche calcolabili tra le misure delle posizioni e delle velocità di ogni punto di un sistema in un due istanti scelti arbitrariamente, relazioni che devono essere confermate empiricamente. Ora, ciò che la fisica newtoniana ha stabilito, per un grande ambito di fenomeni, è che l’unica forza effettivamente in gioco, ossia la relazione matematica tra grandezze fisiche sufficiente a rendere conto delle posizioni successive dei corpi di un sistema dato, è precisamente una funzione tra la massa e la posizione reciproca di questi corpi. Infatti, la forza di attrazione gravitazionale, come ricorderete dal liceo, è proporzionale al prodotto delle masse e inversamente proporzionale al quadrato della distanza che le separa.

Ma che la forza venga definita come una certa relazione matematica tra le grandezze che descrivono i corpi nello spazio, significa in definitiva che ad essa è stato sottratto, già alle origini della fisica moderna, ogni carattere sostanziale: la forza non è un vero agente, un ente fisico dotato di una propria oggettività, bensì esprime la regolarità del comportamento dei corpi. La seconda legge della dinamica, associata al postulato galileiano che il libro della natura sia scritto in lingua matematica, non significa nient’altro che questo: che esiste una relazione tra massa ed accelerazione, tale da rendere conto della uniformità dei fenomeni fisici.
È in questo senso che essa è incarnazione matematica della struttura causale, come dicevamo prima: ossia non esprime nient’altro che la legalità della natura, la legge dei movimenti, una legge che è integralmente esprimibile come funzione matematica delle grandezze proprie ai corpi. E ciò vale indipendentemente da quale sia la forza: dopo Newton, infatti, alla forza di gravità si sono aggiunte tutta una serie di altre forze, che non rappresentano appunto nient’altro che diverse relazioni matematiche tra i corpi nello spazio. Che in natura si mostri una simile molteplicità delle relazioni dinamiche, è certamente qualcosa di antipatico per la fisica, la cui aspirazione ultima è formalizzare l’equazione che valga per ogni sistema dinamico possibile, la cosiddetta “formula del mondo”. Ma, nonostante questo programma non sia riuscito, neanche nei suoi tentativi più recenti, come la teoria del campo unificato, rimane valida e regolativa per ogni dominio di validità l’impostazione della meccanica newtoniana, ed ossia la richiesta che, quale che sia il contenuto empirico delle leggi del moto, ossia il modo in cui vengono quantificate in accordo con l’esperienza, la loro forma rimanga invariata: F = ma. È per questo che, all’aprirsi di nuovi campi di indagine, la fisica ha risposto con una serie di variazioni sul tema centrale della dinamica classica, intendendo i diversi ambiti fenomenici come espressioni di particolari sistemi dinamici: abbiamo così, per esempio, la termodinamica, l’elettrodinamica e la stessa meccanica quantistica.

Che cosa è dunque comune a tutti questi settori di ricerca, risultando riconducibile all’impostazione della meccanica classica? Possiamo cercare di riassumere in tre parole chiave, intimamente interconnesse, il significato dell’impresa che la fisica moderna ha affrontato nel segno della matematizzazione della natura. Queste parole sono: legalità, determinismo, reversibilità.

Che cosa intendiamo dire, assumendo che la meccanica classica sia caratterizzabile da questi tre concetti: legalità, determinismo e reversibilità? Prima di tutto, che essa esprime i propri enunciati generali in forma di leggi della natura, ossia che fissa matematicamente le relazioni universali tra le grandezze fisiche che pone come sufficienti a descrivere i sistemi dinamici. Con legalità, dunque, intendiamo dire che la natura viene considerata come omogenea ed uniforme relativamente a certe regolarità, definibili matematicamente, nelle interazioni tra i suoi elementi.
Per esempio: se abbiamo assunto, come è nel caso della meccanica classica, che le grandezze fisiche sufficienti a descrivere un sistema, ossia quelle caratteristiche degli enti di natura che risultano misurabili e che dovrebbero fornirci tutti gli elementi essenziali per spiegare la dinamica di qualsivoglia sistema, siano la massa inerziale e la posizione dei corpi, una legge naturale consisterà nella formulazione di una relazione quantitativa generale tra queste grandezze. A prescindere dunque da ogni realizzazione singola in un sistema dato, la legge ci dirà, per tornare all’esempio fondamentale, che le masse si attraggono con una forza proporzionale al loro prodotto e inversamente proporzionale al quadrato della distanza che le separa. Questa è una legge naturale: un’equazione matematica tra grandezze fisiche.

Se le cose stanno così, è ovvio che le leggi di natura di per sé non sono sufficienti a descrivere le dinamiche singolari di sistemi dinamici dati, ma solamente a definire le regole di tutte le evoluzioni possibili. Per prevedere il comportamento di un sistema particolare, alla legge del moto bisogna aggiungere la conoscenza empirica di uno stato istantaneo qualunque del sistema. È così possibile dedurre, applicando la legge universale, la successione degli stati del sistema, idealmente per qualsiasi suo momento, nel futuro e nel passato.
Facciamo ancora un esempio del tipo classico, newtoniano, che ci servirà anche per capire cosa cambia poi nella matematica della fisica a partire dall’ottocento. Se vogliamo descrivere matematicamente la caduta di un grave usando la legge del moto di Newton, noi dobbiamo conoscere la massa e la velocità del corpo, quella della terra e la distanza tra i due baricentri. Successivamente, imposteremo le equazioni in questi termini: al tempo t, un grave di massa m e velocità x alla distanza y da un grave di massa m1, subisce un’attrazione pari a F. Data questa conoscenza, noi possiamo definire, tramite il calcolo infinitesimale, qualsiasi configurazione tra questi due corpi in un tempo t1 a piacere, ossia, possiamo stabilire, per esempio, quale fosse la distanza tra i due corpi, sempre in assenza di perturbazioni, tanto precedentemente, quanto successivamente all’istante iniziale. Ciò non toglie, però, che in questa forma ogni nostra descrizione è parziale e legata ad un punto di vista, per quanto contenga implicitamente in sé la totalità sincronica del sistema. Parziale, poiché ad ogni istante considerato la forza di gravità, per quanto rispondente ad una stessa relazione, risulta differente, col cambiare delle dimensioni delle grandezze considerate, nel nostro caso della distanza. In effetti, quanto più sono vicini i corpi, tanto più forte sarà la loro attrazione reciproca. Ed è proprio poiché a rigori dobbiamo parlare di attrazione reciproca anche nel caso in cui uno dei due corpi abbia massa enormemente inferiore all’altro e dunque eserciti su di esso una forza minima, che la nostra descrizione è legata ad un punto di vista: nella forma newtoniana delle equazioni, infatti, ragioniamo sempre in termini di forze legate a corpi singoli, mai di energia totale del sistema. Conseguentemente, di uno stesso fenomeno sono sempre possibili più descrizioni, legate a quelli che si chiamano i suoi gradi di libertà, ossia, semplificando, le variabili in gioco: nel nostro esempio, assumendo per semplicità che le masse siano stabili, due, ossia velocità e distanza. Di fatto, noi parliamo della velocità di un grave, che cade sulla terra, che viene considerata ferma rispetto ad esso: ma sarebbe altrettanto possibile e del tutto rispondente al principio galileiano dell’equivalenza di causa ed effetto, considerare il grave in situazione di quiete e la terra in movimento verso di esso. La descrizione del sistema sarebbe equivalente, ma la forma delle equazioni differente. Come si vede, dunque, in base alla stessa legge di natura noi possiamo avere descrizioni diverse di un fenomeno, addirittura opposte nel nostro esempio, che condividono però la caratteristica di rappresentare una conoscenza compiuta delle relazioni tra le grandezze del sistema in qualsiasi istante.

Si suol parlare di ciò, dicendo che in ogni istante è tutto assegnato. Ed è esattamente questo che intendiamo, quando parliamo di determinismo: ossia che la dinamica definisce tutti gli stati come equivalenti, poiché ciascuno di essi permette di determinare tutti gli altri. In tal senso, la legalità della natura, insieme alla conoscenza completa di un unico stato del sistema, permette la previsione degli stati futuri, così come la ricostruzione di quelli passati. Come ben sapete, questo principio, coniugato con alcune assunzioni di carattere ontologico universale, ha costituito il nucleo di una visione del mondo globale, che ancora Kant riteneva insuperabile da un punto di vista speculativo, costituendo esattamente l’antitesi della terza antinomia della dialettica trascendentale: “non c’è nessuna libertà, ma tutto nel mondo accade unicamente secondo leggi della natura”. Considerata da un punto di vista metafisico, cosa che Kant ovviamente non faceva, ma la scienza sì, ciò significa definire la totalità degli enti come sistema globale descritto completamente dalle grandezze fisiche valide per la meccanica classica, e dunque tale che conoscendone integralmente un qualsiasi istante, se ne avrebbe la conoscenza di tutta l’evoluzione. Questa tesi è passata alla storia tramite la metafora del demone di Laplace, ossia di quell’entità sovrannaturale in grado di osservare dall’esterno compiutamente il mondo e dunque conoscere l’intera verità oggettiva del suo dispiegamento in avanti e all’indietro. Questa metafora esprime un punto fermo della teoria classica: ossia che ogni sistema è osservabile dall’esterno in maniera puramente oggettiva e, in linea di principio, completa. Precisamente quanto contesterà la meccanica quantistica.

Oltre a legalità e determinismo, abbiamo proposto come terza parola d’ordine della meccanica classica l’espressione “reversibilità”, il cui senso si è venuto chiarendo in parte già da quanto detto sinora. Da un punto di vista matematico, possiamo parlare di ciò, notando che ogni formalizzazione della dinamica di un sistema è tale, che risulta perfettamente indifferente il senso in cui esso effettivamente evolve, essendo sempre possibile immaginare un’inversione delle forze che costringa il sistema a ripercorrerebbe a ritroso gli stati che ha già attraversato. Ciò significa che ogni evoluzione dinamica è, in linea di principio, reversibile, poiché le trasformazioni matematiche che portano dall’una all’altra descrizione del suo senso sono equivalenti e lineari. Con questo si dice qualcosa di più della semplice determinabilità anche degli stati passati, poiché in realtà non si assume semplicemente che dall’effetto si può risalire alla conoscenza della causa, bensì che causa ed effetto hanno la stessa natura e dimensione. Ciò che è causa di un certo fenomeno, può essere, in circostanze adeguate, effetto di quello stesso fenomeno, laddove le forze agiscano in senso inverso. Ciò comporta una concezione molto particolare del concetto di causa, che in realtà è la sua dissoluzione: la causa è solo l’antecedente temporale in una sequenza scelta arbitrariamente per l’evoluzione di una dinamica, non ciò che innesca e determina, bensì solo una prospettiva della sua descrizione. E, dal momento che le relazioni matematiche che esprimono quella dinamica sono di tipo lineare, ossia prevedono rapporti matematici proporzionali alle grandezze, anche il rapporto tra causa ed effetto sarà lineare. Cosa si vuol dire esattamente che esercitando una forza x, si avrà un effetto x, e non maggiore o minore. Ciò potrebbe sembrare del tutto ovvio e naturale, ma non è affatto così: anche in natura, infatti, e su ciò si fonda l’attuale teoria del caos, una causa minima è in grado di determinare effetti macroscopici, dunque per niente lineari e conseguentemente neanche reversibili. In realtà, però, non c’è neanche bisogno di scomodare questo cosiddetto “effetto farfalla” – nome che gli viene dalla metafora utilizzata per descrivere il concetto, quella di una farfalla il cui batter d’ali in un punto qualsiasi della terra può causare un uragano anche a migliaia di chilometri di distanza – non c’è bisogno di arrivare a questo estremo, poiché a confutare la presunta reversibilità di ogni fenomeno naturale ci basta la semplice considerazione del secondo principio della termodinamica: che l’entropia necessariamente cresca in qualsiasi sistema chiuso non significa altro che una forza x non ha mai un effetto x, ma sempre inferiore, poiché nel processo di causazione, se così vogliamo dire, una parte di energia è sempre degradata.

Già da questi pochi accenni vediamo che, durante lo sviluppo ulteriore della scienza moderna, lo scenario descritto tramite questi tre termini – legalità, determinismo e reversibilità – sarà destinato a subire molteplici sconvolgimenti, a partire appunto dall’enunciazione dei principi della termodinamica, per arrivare alle tesi della teoria dei quanta. Ma prima di arrivare a ciò, dobbiamo descrivere brevemente in che modo, tramite l’opera di grandi matematici come Poincaré e Hamilton, la meccanica newtoniana divenne un vero e proprio linguaggio formale, coerente e astratto, di straordinaria potenza applicativa. E dobbiamo farlo, poiché proprio questa trasformazione dell’intera impostazione matematica non ha solo assicurato alla dinamica classica un’estrema flessibilità di applicazione, al punto che in questa forma essa risulta ancora indispensabile alla meccanica quantistica, ma poiché ha anche contribuito alla chiarificazione e sintesi degli elementi fondamentali del meccanicismo, in primo luogo del concetto di energia.

Il processo di simbolizzazione matematica della meccanica newtoniana nel senso di un linguaggio formale coerente e completo sintetizza il paradigma di ciò che vale come forma della teoria scientifica per tutta la modernità. Ma su quale circostanza si fondava l’esigenza di formalizzazione del linguaggio della meccanica classica? Dicevamo che la legalità della natura corrisponde alla regolarità e linearità delle relazioni sussistenti tra le grandezze fisiche che descrivono un sistema. Queste relazioni sono rappresentate da enti matematici, la loro regolarità da certe funzioni tra questi enti, la linearità e reversibilità dai principi di commutabilità e simmetria di queste funzioni.
Per esempio, prendiamo di nuovo la legge del moto di Newton: F = ma, ossia uguale ad m per a. Qui abbiamo dei simboli matematici, come m per la massa ed alfa per l’accelerazione, che rappresentano le grandezze fisiche che prendiamo in considerazione. Abbiamo inoltre, l’operazione che definisce la regolarità della legge: la forza è uguale ad un certo tipo di prodotto tra quelle grandezze. Questa operazione è, dal canto suo, soggetta alle normali regole aritmetiche di commutazione: m x alfa corrisponde ad alfa x m (per quanto sembri banale, questa regola è in realtà determinante: si pensi che in meccanica quantistica non vale più, relativamente a certe equazioni!).
Questa, però, come dicevamo ieri, è un’espressione universale, non immediatamente sufficiente per descrivere un sistema particolare, che anzi è descrivibile in più maniere, tutte coerenti con la legge, ma diverse da essa. In effetti, affinché l’ideale di matematizzazione delle leggi della natura si traducesse in atto, vi era l’esigenza di trovare un insieme di variabili tali, da definire ogni sistema dinamico nel modo più semplice ed economico, riuscendo al contempo a dare la massima evidenza ai principi universali della dinamica. Questo significa che l’espressione di relazioni generali tra grandezze misurabili deve trasformarsi in sistemi di equazioni tra variabili, che esprimano i valori possibili di quelle grandezze.
Un compito che, evidentemente, non è esaurito dalla enunciazione della legge del moto di Newton, che si limita a quantificare una relazione generale tra grandezze e va tradotta di volta in volta, di fronte a singoli sistemi dinamici, in espressioni particolari. Ciò che si cercava, in fondo, era un’espressione matematica che tenesse conto non solo della legge universale, ma anche dei principi generali di descrizione completa dello stato iniziale di un qualsivoglia sistema dinamico, dimodoché la formula comprendesse non solo le relazioni generali, ma anche tutte le possibili soluzioni di un problema particolare.

In qualche modo, dunque, la formalizzazione della meccanica classica persegue un incremento di astrazione rispetto alle sue leggi, poiché ricerca equazioni del moto, che abbiano in sé non solo l’espressione della legge, ma anche della sua applicabilità universale: ossia, che non esprimano solo il contenuto matematico della legge, ma anche la forma della sua legalità.
Ma come è possibile raggiungere questo grado di astrazione? Dal punto di vista simbolico, è ovvio che un’espressione formale di questo tipo debba comprendere al suo interno tanto la legge, quanto i parametri della sua applicazione, dunque sia variabili che esprimono grandezze fisiche in grado di definire ogni sistema istantaneamente, sia funzioni che rendano possibile calcolare i valori di queste variabili nel tempo. Comprendete la differenza rispetto ad un’espressione pura delle leggi? La legge di Newton è del tutto priva di ogni riferimento al tempo e si riferisce direttamente alle grandezze oggettive ultime che costituiscono un sistema. Le equazioni del moto di Hamilton, invece, per quanto egualmente atemporali, nel senso che ammettono una descrizione sincronica completa del sistema, comprendono al loro interno la variabile temporale, e in tal modo sono utilizzabili per descrivere diversi istanti di un unico sistema, e inoltre fanno riferimento non direttamente a grandezze, bensì a variabili il cui contenuto non è dato immediatamente, ma può essere scelto di volta in volta a seconda delle caratteristiche del sistema particolare che si studia. Con ciò, ovviamente, non si vuol dire che queste variabili siano del tutto arbitrarie, ma solo che hanno un maggior grado di indefinitezza e dunque anche di astrazione. Rappresentano solamente i quantificatori delle grandezze che descrivono un sistema, senza specificare immediatamente quali siano queste grandezze, e dunque permettendo di volta in volta di scegliere i fattori che risulta più comodo misurare.

Nonostante ciò, è ovvio che, almeno inizialmente, queste variabili sono concepite come del tutto coerenti con l’impostazione di fondo della meccanica classica. In che senso intendiamo ciò? Come dicevamo, per la dinamica classica le grandezze fisiche di riferimento sono quelle legate ai corpi e allo spazio, e conseguentemente la legge del moto è una certa relazione tra questi due ordini di grandezze. In questo senso, arguivamo, la forza, che in qualche modo esprime il principio del movimento, e dunque sta per la sua legge, si riduce esattamente ad una certa regolarità nelle relazioni tra corpi nello spazio. Questa regolarità risultava, per la prima legge della dinamica, essere riducibile ad una qualche funzione omogenea della massa inerziale in movimento (o quiete) nello spazio. Il che significa, relativamente a sistemi dinamici, che essi sono determinati dalla somma della quantità di moto dei corpi che li costituiscono, somma che, come ci assicura la terza legge della dinamica, è invariante: ad ogni azione, corrisponde una reazione identica e contraria.
Tutto ciò comporta che, secondo i principi della dinamica classica, dovrebbe essere possibile identificare un’espressione matematica definita per la forza complessiva di un sistema, che sia funzione dei due ordini di grandezze fisiche che lo definiscono, ossia in ultima istanza delle masse inerziali dei corpi che si muovono nello spazio che essi stessi costituiscono. Quindi che sia possibile parlare non della forza che si applica ad un corpo o ad una posizione particolari del sistema, forza che quantitativamente, come dicevamo ieri, cambia con il cambiamento delle configurazioni tra i corpi, ma della somma di queste forze del sistema, un’entità matematica che deve risultare dunque invariabile nel tempo, se è vero che la causa corrisponde all’effetto, ossia che il sistema è unico in qualsiasi suo istante. Questa funzione viene detta, da un certo punto in poi, energia.
Comprendete che cosa significa ciò? In effetti, qui si passa dalla molteplicità di forze che agiscono in un sistema a seconda del punto di vista che si adotta nel descriverlo, ad un unico quantificatore invariante della quantità di moto complessiva nello spazio del sistema, quantificatore che esprime anche la regolarità di ogni relazione singolare, ossia la legalità del sistema.
La forza di Newton poteva essere la forza cinetica del corpo in movimento, ma anche quella potenziale del corpo in quiete relativamente all’osservatore. Nel nuovo tipo di impostazione, invece, un sistema dinamico ha un’unica energia definita, che è data dalla somma delle forze cinetiche e potenziali dei corpi che lo compongono. Una somma che è matematicamente configurata in modo tale da essere anche espressione delle leggi del mutamento del moto dei singoli corpi. Ciò significa esattamente, però, che al di là delle singole forze e della loro determinazione matematica come relazioni tra grandezze fisiche, esiste un livello ulteriore di legalità della natura, che sancisce null’altro del principio di conservazione dell’energia.

Per tornare ora alla nostra questione, ossia a quali dovrebbero essere i caratteri di una possibile formalizzazione talmente astratta, da comprendere in sé tanto l’espressione della legge, quanto i parametri delle complete descrivibilità sincronica e determinabilità diacronica di un sistema, dobbiamo dedurre che essa deve enunciare, al tempo stesso, questo principio universale di conservazione dell’energia. E ciò è precisamente quanto accade nelle equazioni del moto di Hamilton, che non sono più eguaglianze tra la forza e certe relazioni tra grandezze fisiche, bensì tra l’energia complessiva e le variabili spazio-temporali sufficienti a descrivere ogni sistema.
Comprendete la differenza radicale che vi è tra le due concezioni, nonostante la seconda derivi direttamente dalla prima? Molto all’ingrosso potremmo dire che solo tramite la formalizzazione matematica della meccanica in fisica nasce e si chiarifica il concetto stesso di sistema dinamico chiuso, ossia di composizione in un’unica unità di tutti gli elementi che partecipano ad un certo fenomeno. Rispetto alla teoria di Newton, infatti, che era configurata in modo tale che l’osservatore, per così dire, entrava nel sistema e lo definiva dall’interno come relazione di un suo elemento con gli altri elementi, le equazioni hamiltoniane guardano il fenomeno dall’esterno e nella sua interezza, fornendo solo le regole di osservazione del comportamento di un qualsiasi sistema dinamico in quanto tale.
Da un punto di vista strettamente matematico, ciò comporta il passaggio dal calcolo differenziale a quello integrale, argomento che qui tralasciamo completamente, mettendone in evidenza solo alcune implicazioni. In primo luogo, la meccanica hamiltoniana è, in qualche modo, più “libertaria” di quella newtoniana: mentre F=ma determina le traiettorie, la meccanica hamiltoniana “sceglie” fra tutte le traiettorie possibili quelle più economiche, ossia quelle che soddisfano meglio certe funzioni matematiche. Cosa si vuol dire: che in effetti, posta la quantità complessiva di energia del sistema, che è espressa dalla cosiddetta funzione hamiltoniana H, le variabili delle equazioni possono, teoricamente, descrivere qualsiasi situazione coerente del moto, anche quelle che non si danno di fatto, ma rimangono possibili data quella certa quantità di energia. Astrattamente, dunque, l’equazione rappresenta tutte le possibilità, all’interno delle quali si scelgono quelle di volta in volta quelle effettive (tramite il “metodo variazionale”).

Più in generale, però, possiamo dire che le equazioni del moto di Hamilton stabiliscono certe relazioni tra l’energia totale del sistema e variabili scelte in modo da rendere il sistema particolare in esame più facilmente descrivibile. Queste variabili hanno la caratteristica fondamentale di essere coniugate: ossia calcolabili l’una come derivata dell’altra, conoscendo l’energia totale del sistema. Ma è meglio esemplificare quanto diciamo proprio con le equazioni generali hamiltoniane, che hanno questa forma:
dq/dt = dH/dp
dp/dt = -dH/dq
ove p e q sono le variabili coniugate, espressione la prima di caratteristiche spaziali (generalmente si chiama posizione, per quanto possa esprimere anche grandezze più complesse), e la seconda di caratteristiche del moto (generalmente si chiama momento o quantità di moto, ma anche in questo caso può corrispondere a espressioni più complesse). Quello che è evidente nelle formule, è che la variazione di q nel tempo è calcolata in base ad una certa relazione tra la variazione di p e l’energia totale del sistema o viceversa, ossia che la definizione degli stati possibili delle grandezze del sistema è funzionale della sua energia totale espressa nei termini delle due variabili. Infatti, l’hamiltoniana è sempre simboleggiata in questo modo:
H (p, q)
ossia è funzione contemporaneamente di entrambe le variabili. Praticamente ciò vuol dire che, una volta che si conosca l’hamiltoniana espressa nei termini delle variabili scelte, si può calcolare per ogni punto del sistema la derivata di questa funzione rispetto all’una o all’altra variabile:
H (p, q)/dp      e
H (p, q)/dq
che, come formalizzato appunto nelle equazioni del moto esprimono la prima la variazione nel tempo di q e la seconda la variazione nel tempo di p .

Il fatto che le variabili siano proprio due è connesso con le due dimensioni eminenti della meccanica, quella dello spazio e quella delle masse. E che queste variabili, che per questo motivo si chiamano “canoniche”, siano coniugabili, ossia che sia possibile esprimere completamente l’energia totale unica del sistema grazie a loro, deriva dal fatto che lo stesso spazio è funzione delle masse inerziali. In questo modo, ovviamente, non c’è più il problema legato all’espressione newtoniana della legge, ossia quello di aver a che fare con un’espressione matematica della legge tramite la forza che comporta valori diversi di F nel tempo, poiché l’energia propria del sistema non cambia, pur variando la sua derivata rispetto alle singole canoniche. Tuttavia, è evidente che anche qui nel complesso la variabile del tempo diviene del tutto irrilevante per la comprensione del sistema, e risulta pertinente solo laddove si vogliano fare delle previsioni. La verità del sistema, comprese tutte le possibilità anche mai realizzabili, ma comunque coerenti con la sua costituzione, è espressa integralmente da H, tanto che le diverse raffigurazioni possibili del sistema in momenti del tempo diversi non rappresentano alcuna modificazione di H: a variare sono solo le derivate delle canoniche, ossia, in un certo senso, i punti di vista dai quali si osservano gli elementi del sistema. In qualche modo, dunque, si può dire che le equazioni del moto di Hamilton hanno un carattere tautologico: ogni loro applicazione singola non fa altro che dire la stessa cosa, ossia che il sistema, in tutte le sue possibili configurazioni parziali, è una determinata quantità di energia che si conserva. Anche da ciò emerge, dunque, il carattere statico, deterministico e reversibile della meccanica, anche nei gradi più astratti della sua formulazione.

Teniamo però presente una cosa, ed ossia che le leggi newtoniane del moto, come abbiamo già accennato, sono solo una parte delle possibili soluzioni delle equazioni di Hamilton, ed esattamente quella parte che soddisfa certe relazioni particolari tra le variabili, ed in modo tale che le equazioni risultino integrate rispetto al tempo, ossia che siano indifferenti rispetto ad esso. Ossia, le leggi del moto sono solo una classe di equazioni hamiltoniane molto particolari, quelle che descrivono il sistema integrabile (in sintesi possiamo dire che si dà integrazione di un insieme di equazioni differenziali quando possiamo considerare una serie di derivate pari a 0, ossia invariabili e quindi non significative: ciò consente di esprimere le equazioni solo rispetto ad uno dei due termini, che risulta così del tutto determinato. Ovviamente ciò non è sempre possibile). Conseguentemente, le equazioni hamiltoniane, pur derivando dalla meccanica classica, essendo più astratte e vaste delle leggi del moto, rendono possibile la descrizione di qualsiasi sistema definibile in termini di variabili canoniche e dunque di energia totale conservativa del sistema rispetto a due parametri.
È precisamente questo, il motivo della loro generalità per la formalizzazione di qualsiasi problema dinamico, anche laddove ciò avvenga in teorie che contraddicono la meccanica classica: in ogni caso, si farà riferimento all’energia ed alle quantità relative allo spazio e al moto, cercando di minimizzare, se non neutralizzare del tutto la variabile temporale, ossia di integrare le equazioni in modo che tale parametro risulti invariabile. Si cercano dunque, in linea di principio, equazioni conservative (dell’energia) e reversibili (ossia tali che l’inversione del tempo sia equivalente alle inversioni di velocità: il che significa che il tempo è ridotto alle caratteristiche di una variabile canonica, e se questa è coniugata all’altra variabile in maniera che le equazioni differenziali siano integrabili, anche il parametro tempo è solo espressione di un punto di vista atemporale sulla dinamica complessiva del sistema, del tutto ridotta alla hamiltoniana rispetto alle variabili canoniche).

Ovviamente, alla base di tutto ciò rimane il presupposto che sia lecito parlare di energia totale, e altresì che sia legittima l’idea di stato iniziale, determinabile nell’istante: che sia pensabile non solo l’effettiva osservazione completa delle condizioni iniziali, ma l’esistenza stessa di qualcosa come delle condizioni iniziali. E che nelle condizioni iniziali di un sistema chiuso sia presente il principio dell’unità atemporale del sistema, l’energia appunto, come ciò che non varia, ossia come la vera sostanza del sistema, verità permanente del suo divenire. Ed, in definitiva, è presupposta la legittimità dell’idea stessa di sistema chiuso, cioè di qualcosa di cui non abbiamo esempi in natura: e questo è uno dei motivi fondamentali per i quali la scienza moderna non è mai stata, neanche nei suoi primi inizi, basata sull’osservazione dei fenomeni naturali, come era invece per Aristotele, ma solo sulla misurazione sperimentale. L’esperimento, infatti, può essere visto precisamente come un’operazione di chiusura del sistema: si inscena una situazione, nella quale rimangano pertinenti solo i parametri scelti come significativi, escludendo, entro i limiti del possibile, qualsiasi perturbazione esterna.

Cerchiamo adesso di descrivere in estrema sintesi il significato generale della trasformazione avvenuta: con la formalizzazione della meccanica classica si è passati dall’espressione matematica di leggi della natura alla simbolizzazione logico-matematica del modo di considerare qualsiasi sistema dinamico. Ciò è stato possibile sulla base di un assunzione di grado superiore ad ogni singola legge, consistente precisamente nel principio di conservazione dell’energia. E l’energia, come somma delle forze di un sistema, è considerata nell’ambito della teoria classica come perfettamente determinabile secondo un sistema metrico continuo. Il che, tutto sommato, non significa altro che affermare la compiuta matematizzazione a priori di ogni problema fisico. La tesi di Galileo, per cui “la natura è scritta in lingua matematica”, giustificava la formulazione delle leggi di natura come determinate relazioni tra grandezze. Ma qui si va oltre: oramai, ogni ente fisico è immediatamente immerso in un contesto logico-matematico che esprime solo il principio ideale della sua perfetta determinabilità quantitativa, un contesto che diciamo logico-matematico, poiché in esso non compaiono immediatamente le relazioni specifiche tra le grandezze, ma solo la forma della relazionalità matematicamente costante tra esse. Questo contesto è considerato universale, ossia tale da comprendere tutte le possibilità singole di espressione di leggi particolari. Se riguardiamo, infatti, le equazioni di Hamilton, vediamo che in esse non compare alcun numero, né alcuna grandezza specifica: sono del tutto simboliche ed esprimono l’assunto metodologico di fondo della scienza moderna. E ciò continuerà a valere fino alla meccanica quantistica, che esprimerà le sue concezioni fondamentali tramite lo stesso linguaggio formale, distinguendosi però radicalmente dalla meccanica classica, poiché farà rientrare nelle equazioni del moto espressioni matematiche invariabili, ossia grandezze specifiche discrete, rompendo la continuità del cosmo newtoniano .


La meccanica classica, di cui abbiamo delineato sin qui le caratteristiche fondamentali, è la disciplina che ha dato avvio alla rivoluzione moderna della scienza, fornendo ad essa non solo il paradigma del metodo sperimentale, ma anche la forma più matura di linguaggio formale matematico.
Da Newton in poi, di fatto, la tendenza generale di sviluppo delle scienze è verso una sempre più marcata fisicizzazione: con questa espressione intendiamo diverse cose insieme:

  • in primo luogo, gli enti dei quali si interessa la scienza vengono sempre più definiti solo da quantità fisiche misurabili: si rifiuta, dunque, ogni approccio qualitativo e si preferisce non prendere in considerazione le caratteristiche non riducibili a grandezze misurabili. L’esclusione delle qualità avviene in vari modi e su vari piani: praticamente attraverso la purificazione sperimentale del fenomeno, teoricamente attraverso la distinzione tra caratteristiche primarie e secondarie, una distinzione che era già stata fatta da Democrito: le caratteristiche primarie sono le autentiche grandezze fisiche, le secondarie sono solo epifenomeni delle primarie, aspetti concomitanti e inessenziali, dati dalla configurazione particolare reciproca delle grandezze primarie. Ovviamente, nonostante lo schema concettuale risalga all’atomismo antico, questa distinzione acquista un senso differente da quello democriteo nella fisica moderna: per il filosofo di Abdera, primarie erano le forme geometriche degli atomi, determinabili come armonia delle relazioni; per la fisica moderna sono la massa e la posizione, misurabili empiricamente; per il primo, le qualità secondarie avevano un carattere casuale e non rigorosamente deducibile dalla configurazione delle primarie, mentre la meccanica moderna ritiene che siano sempre riducibili causalmente, almeno in linea di principio, alle caratteristiche complessive del sistema. Tenete presente che questo tipo di contrapposizione troverà e trova ancora espressione anche nella modernità: all’indomani del trionfo dei principi newtoniani nella polemica di Goethe contro il riduzionismo proprio a questo approccio; durante l’ottocento nella critica prima romantica e poi storicistica contro l’approccio meccanico ed in favore di una visione organica della natura; ancora negli ultimi anni, nella crescente attenzione alla dimensione sintetica, cosiddetta olistica, ossia globale, dei fenomeni, contro la loro riduzione analitica alle grandezze elementari.
  • Questo primo momento della fisicizzazione, tramite la considerazione delle sole quantità misurabili, trova immediatamente riscontro, come dicevamo, nella pratica sperimentale della scienza moderna, che viene sempre più concepita come isolamento delle grandezze misurabili del fenomeno al fine della loro misurazione. In questo modo è del tutto trasformata l’antica concezione dell’empiria, tanto che oggi siamo addirittura propensi a ritenere la scienza antica del tutto non empirica. Questo, però, è un errore gravissimo, poiché sin dai presocratici e ancor più con la fondazione della fisica in Aristotele l’empiria è elemento centrale della filosofia della natura, solo che non ha carattere sperimentale. Come osservazione diretta della natura, anzi, l’empiria degli antichi era molto più accurata e fedele ai fenomeni, dei quali cercava di vedere la forma pura. In qualche modo, dunque, l’empiria era una disciplina della teoria, ossia un’educazione al guardare, il cui fine era la contemplazione della forma, dello eidos. L’esperimento moderno, invece, è sin dall’inizio contro la visione immediata: la famosa frase di Galileo “eppur si muove” non viene affatto compresa se si intende con essa un’esaltazione dell’esperimento come manifestazione di un’evidenza empirica. In effetti, è tutt’altro: la visione ingenua vede la terra ferma eppure essa si muove.

Ma la fisicizzazione non comporta solo la preminenza del dato quantitativo e dunque della pratica sperimentale, ma anche una scelta di ciò che deve essere considerato l’elemento chiave della spiegazione scientifica, che è poi ciò che risulta maggiormente conoscibile matematicamente: come risultava anche dal formalismo hamiltoniano, il vero oggetto della dinamica moderna sono i movimenti dei corpi nello spazio, ossia le loro “traiettorie”. Anche i corpi, dunque, in quanto mera quantità di massa in movimento, non sono considerati allo scopo di conoscere la loro natura, concetto sempre più privo di senso, ma solo la dinamica dei loro movimenti: conseguentemente, non solo la forza, come dicevamo nelle prime lezioni, perde ogni carattere sostanziale, ma anche la materia: le sostanze materiali non vanno considerate in funzione delle loro caratteristiche proprie, ma solo in considerazione del principio di quantificazione universale dell’energia. Si è dunque trovato un metodo per considerare qualsiasi fenomeno, ossia qualsiasi forza e qualsiasi materia, tramite un unico sistema di calcolo, che è quello espresso nei termini delle traiettorie dei corpi nello spazio.

In questo modo, è evidente che la fisica moderna nasce in immediata e insanabile contraddizione con un’altra scienza di lunga tradizione, che cerca costantemente di riassorbire in sé: la chimica, che studia proprio le caratteristiche proprie alle diverse sostanze. In funzione di ciò, si può addirittura fare il tentativo di leggere l’intero sviluppo della scienza moderna come il progresso nella sintesi delle istanze proprie alla fisica ed alla chimica, sintesi – mai del tutto compiuta – che è avvenuta per lo più nel segno dei presupposti della fisica, che però si sono dovuti in qualche modo adattare agli oggetti propri della chimica. Di fatto, le grandi rivoluzioni della scienza moderna, così come il definitivo abbandono del progetto espresso nelle tre parole chiave che richiamavamo precedentemente – “legalità, determinismo, reversibilità” – dipendono proprio dagli elementi irriducibili alla riduzione meccanicistica che la scienza della materia, la chimica nell’accezione più vasta del termine, ha finito per importare nella fisica.

Forse ricorderete una definizione scolastica che si usava dare della differenza tra fisica e chimica: la prima si occuperebbe delle trasformazioni reversibili, la seconda di quelle irreversibili: le reazioni chimiche rappresentano comportamenti della natura almeno apparentemente a senso unico. Caso esemplare di ciò è la combustione: non vi è alcuna evidenza empirica che ci possa far ritenere che un corpo combusto possa ritornare al suo stato precedente attraverso qualsivoglia trasformazione fisica immaginabile. La chimica, dunque, come scienza delle sostanze e del fuoco, contrappone al regno silenzioso delle traiettorie l’esteso campo dei fenomeni impuri della materia. Ed il primo grande tentativo di interpretare questi fenomeni tramite le regole della meccanica classica, un tentativo solo in parte riuscito, è proprio la termodinamica.
In un certo senso, infatti, si può dire che la termodinamica rappresenti lo sforzo di interpretazione dei fenomeni legati al calore nei termini delle equazioni hamiltoniane del moto, ossia come processi descrivibili grazie ad un quantificatore unico dell’energia del sistema espresso mediante le variabili relative a grandezze misurabili nel sistema stesso. È anzi proprio in termodinamica che si impone l’idea che il principio di conservazione dell’energia non enunci solo la convertibilità meccanica di forza cinetica e potenziale, ma di qualunque tipo di forza: fu Joule nel XIX secolo a dare la prima definizione di un equivalente generale per le trasformazioni fisico-chimiche, tale da rendere possibile la misura della quantità che si conserva. Questa unità di misura dell’energia, che si chiama appunto Joule, corrisponde al lavoro meccanico necessario per fare alzare di un grado la temperatura di una data quantità di acqua.
Ora, se consideriamo che questa assunzione rese possibile affrontare in maniera unitaria e – tanto metodologicamente, quanto concettualmente – coerente una vastissima varietà di fenomeni apparentemente diversi, non possiamo stupirci del fatto che il principio di conservazione dell’energia sia stato visto come il vero nucleo della natura, come il principio generale della sua legalità e omogeneità, addirittura come principio di causalità unica. O, quantomeno, come autentico a priori della scienza: al riguardo è molto interessante il testo in cui il celebre fisico tedesco Helmholtz parla appunto della conservazione dell’energia, che lui chiamava ancora forza (il titolo del libro è Über die Erhaltung der Kraft). Per Helmholtz, infatti, il principio di conservazione non era nient’altro che l’incarnazione, nel campo della fisica, dell’esigenza a priori su cui si basa ogni scienza: la natura deve essere intelligibile; pertanto bisogna postulare che essa abbia un’invarianza fondamentale, soggiacente alle trasformazioni naturali.

In questa sede non svilupperemo i particolari della sintesi termodinamica del principio di conservazione dell’energia, ma ci limiteremo a notare come in questo ambito sorga il primo importante problema, che apparirà a lungo come una confutazione delle pretese del meccanicismo: anche assumendo, infatti, che ogni sistema è portatore di una data e invariante quantità di energia, la termodinamica scopre che le trasformazioni tra le varie forme di questa energia non sono perfettamente reversibili ed in particolare che ogni conversione di forza cinetica comporta una dissipazione di energia nella forma di calore che si propaga nel sistema e risulta inutilizzabile per ulteriori trasformazioni. Il moto perpetuo, che ancora valeva come ideale per le macchine classiche, è quindi dimostrato come impossibile in linea di principio. Il fenomeno universale della propagazione irreversibile del calore comporta la degradazione universale dell’energia meccanica.

A questa tendenza dell’energia alla degradazione si è dato il nome di entropia, fenomeno che avrebbe invero un carattere del tutto universale, pur esprimendosi paradigmaticamente nell’ambito dei fenomeni legati al calore. Ciò è dovuto al fatto, che il calore è la forma più degradata di energia e dunque quella che maggiormente evidenzia l’impossibilità di procedere indefinitamente a sempre ulteriori trasformazioni: una sola fonte di calore è, infatti, incapace di fornire lavoro, ossia non può essere trasformata in forme diverse di energia. In realtà, però, in qualsiasi fenomeno noi dovremmo potere indicare la tendenza entropica, che si manifesta perlopiù in un’evoluzione verso il disordine, ossia verso configurazioni delle parti del sistema sempre meno discrete e definite.
Esempi:
1) Produzione di calore a causa dell’attrito nelle macchine
2) Un altro esempio, interamente sul piano delle reazioni chimiche, è quello della goccia di inchiostro fatta cadere in un bicchiere d’acqua: all’inizio abbiamo le particelle di inchiostro e quelle d’acqua del tutto separate, e dunque il sistema è discreto; ma, con lo sciogliersi dell’inchiostro, la situazione diviene sempre più omogenea ed alla fine il sistema è disordinato, ossia un miscuglio omogeneo e indistinto. A questo tipo di argomento si può e deve obiettare che il fenomeno è legato alle caratteristiche chimiche dei due liquidi: se infatti invece di inchiostro versiamo olio, l’evoluzione è differente. Per ovviare a questo tipo di obiezione, ed in fondo per estromettere la chimica dalle spiegazioni fisiche, si fa un altro esempio tipico (ed importantissimo, come vedremo tra poco), basato su un cosiddetto esperimento mentale, pratica questa molto significativa e diffusa: l’esperimento mentale, infatti, permette di immaginare situazioni astratte che rappresentino nel modo più puro le esigenze teoriche che un esperimento reale quasi mai soddisfa (ammesso che, per le dimensioni in gioco, sia praticabile). È però ovvio che un simile esperimento non può avere valore euristico, essendo di fatto una tautologia: da esso non può derivare niente di più di ciò che vi era già stato presupposto, poiché non contiene nessun riferimento alla realtà e dunque non incontra nessuna resistenza da parte di un’alterità. Ora, il classico esperimento mentale che dovrebbe rendere conto dell’entropia sul piano puramente dinamico è il seguente:
3) invece di considerare due sostanze reali, assumiamo di avere a che fare con due miscele ideali di particelle, che hanno interamente lo stesso comportamento dinamico, ma si differenziano per una o più qualità secondarie.  In fisica questo tipo di sostanze chimeriche sono state chiamate “gas ideali” (ricordate la teoria cinetica dei gas). Ora, se immaginiamo di mettere in contatto due gas ideali di colori diversi, ossia composti entrambi di particelle della stessa massa, che si comportano secondo le stesse leggi del moto, ma dotate appunto di un aspetto differente, ossia di una qualità che non ha alcun significato per la descrizione del loro moto, noi avremmo un’evoluzione paragonabile a quella dello sciogliersi dell’inchiostro nell’acqua, ma senza implicazioni di carattere chimico. Lo stato iniziale del sistema sarà ordinato, nel senso che il due colori occupano posizioni distinte, mentre lo stato finale sarà un miscuglio disordinato e, anche dinamicamente, di fatto irreversibile. È singolare, però, notare come in questa descrizione dinamica l’ordine e il disordine siano predicati di qualità secondarie e non primarie, ossia di caratteristiche che non hanno pertinenza per la spiegazione: questo è un indizio importante del fatto che l’entropia rimane sostanzialmente inspiegata meccanicamente, come vedremo anche tra poco.

I due primi principi della termodinamica hanno trovato una celebre formulazione in Clausius, “l’energia del mondo è costante, l’entropia del mondo tende ad un massimo”. Il che significa che, pur tenendo fede al principio di conservazione dell’energia, da questo momento in poi viene meno la fiducia nella terza legge della dinamica: causa ed effetto, nonostante abbiano lo stesso contenuto energetico, non coincidono più, poiché ad ogni azione corrisponde una reazione uguale, ma non più del tutto contraria. Delle tre parole d’ordine della meccanica classica – legalità, determinismo, reversibilità – è dunque inizialmente solo la terza a non essere più valida, per quanto l’ulteriore sviluppo della termodinamica contemporanea, soprattutto nelle teoria degli stati lontani dall’equilibrio, metta in fortemente in discussione anche il determinismo.
A ben vedere, però, questa critica del determinismo è già implicita nella termodinamica: se ricordate, infatti, noi esprimevamo la tesi deterministica dicendo che nell’istante iniziale è già tutto assegnato, ossia è determinata ogni evoluzione successiva del sistema ed in maniera necessaria. Si può esprimere ciò anche dicendo che il sistema conserva costantemente la memoria di quello stato, il quale continua a sempre a determinarlo. Nei termini del formalismo hamiltoniano, data una certa quantità energetica complessiva ed una certa configurazione iniziale, le variabili canoniche del sistema assumono valori continui precisamente prevedibili, che rappresentano traiettorie definite e singolari (e vedremo poi l’importanza della continuità di questi valori, legata a ciò che chiamavamo linearità della causalità). In termodinamica, invece, data una certa quantità di energia, quale che sia lo stato iniziale il sistema chiuso tenderà all’equilibrio, ossia ad una situazione disordinata in cui non è più possibile alcuna trasformazione di energia, ossia alcun moto: la morte termica è precisamente l’assenza di qualsiasi traiettoria definita, il meccanismo si deve necessariamente fermare. In tal senso, esso non è determinato precisamente dal suo stato iniziale, del quale non si conserva alcuna memoria nello stato finale dell’equilibrio: ogni sistema in equilibrio è equivalente a tutti gli altri che contengano la stessa quantità di energia, per quanto essi possano essere evoluti verso l’equilibrio tramite dinamiche del tutto diverse.
Come vi renderete facilmente conto, la situazione era insostenibile in questa forma, rappresentando una disarmonia all’interno delle dinamiche naturali, una disomogeneità nel quadro che dovrebbe ovunque manifestare un unico tipo di evoluzione, quella meccanica: in termodinamica, invece, si distingue la dinamica dei sistemi lontani dall’equilibrio da quella dei sistemi vicino all’equilibrio, e questa da quella dell’equilibrio vero e proprio, che è in qualche modo assenza di dinamismo, poiché in questo stato sono possibili solo fluttuazioni e non traiettorie vere e proprie. E quindi è comprensibile che l’imporsi della termodinamica abbia inaugurato un periodo di forte agitazione negli ambienti scientifici ed abbia in qualche modo imposto una difficile sfida ai difensori della prospettiva meccanicistica, una sfida cui ha risposto nel modo migliore Ludwig Boltzmann, quando ha esposto la sua interpretazione probabilistica delle leggi della termodinamica. La tesi di Boltzmann si sviluppa sostanzialmente grazie ad un procedimento analogo a quello di cui parlavamo prima della distinzione tra qualità primarie e secondarie: infatti, egli considerò la termodinamica valida nelle sue formulazioni solo a livello macroscopico, ossia considerando nel loro complesso sistemi costituiti da un numero grandissimo di parti elementari. Ciò che su questo livello verrebbe all’evidenza in coerenza con il principio dell’entropia non sarebbe, però, che epifenomeno delle dinamiche elementari sottostanti, tutte rigorosamente meccaniche e dunque ancora deterministiche e reversibili.
S=k ln w, ossia l’entropia è una funzione di stato pari ad una certa funzione logaritmica dei microstati compatibili con i vincoli macroscopici e l’energia totale del sistema. In parole povere, proprio riferendosi ad una situazione ideale paragonabile a quella descritta con l’esempio dei gas ideali, Boltzmann constata che tra tutti i microstati possibili in un certo sistema quelli che corrispondono ad un macrostato in equilibrio sono – tanto più è complesso il sistema – la stragrande maggioranza e dunque sono i più probabili: conseguentemente, l’entropia non rappresenta una tendenza dei sistemi all’equilibrio, ma semplicemente il fatto che è probabile in maniera preponderantemente schiacciante che ogni sistema complesso, tramite la sua dinamica meccanica deterministica microscopica, evolva dal punto di vista macroscopico, e dunque in senso esclusivamente qualitativo, verso l’equilibrio. (Maxwell, del quale parleremo ancora in un altro contesto, espresse questa posizione dicendo che un ipotetico osservatore di dimensioni microscopiche, del quale si parla da allora come del diavoletto di Maxwell, non vedrebbe il colore uniforme del miscuglio dei gas, ma sempre e solo particelle di uno o dell’altro colore, le cui traiettorie rimangono del tutto coerenti con la legge del moto di Newton).
In questo modo, un po’ artificioso, ma matematicamente ineccepibile, Boltzmann aveva salvato l’unicità delle leggi dinamiche, sacrificando però la possibilità di un calcolo preciso dei macrostati, trattabili solo statisticamente dal punto di vista meccanico. In qualche modo, però, con la sua argomentazione la probabilità non era più solo espressione di un’ignoranza, poiché assumeva in effetti il valore di una vera e propria spiegazione. E non solo: di fatto, nell’argomento di Boltzmann vi era un’importantissima concessione all’approccio tipicamente chimico alla realtà: contro la fisica, che aveva puntato tutto sulla matematica delle traiettorie, nelle tesi di Boltzmann rispunta il vecchio atomo democriteo, ossia la dimensione microscopica caratterizzata non dall’armonia dei movimenti celesti che avevano fornito il paradigma della meccanica newtoniana, bensì dal caos delle collisioni tra particelle, dell’agitazione molecolare, che costituisce peraltro proprio il fondamento dinamico del calore: il calore di un corpo, infatti, è definito come l’energia cinetica media delle particelle che lo compongono, ove è ovvio che una simile descrizione è tesa precisamente a leggere l’energia del fuoco come parvenza di un’energia legata al moto.

Ora, questo tipo di lettura costituì immediatamente il vero e proprio programma della scienza tardo-ottocentesca e degli inizi del novecento: infatti, nonostante la semplicità dell’argomento utilizzato da Boltzmann e il sollievo che suscitò tra i fisici la sua soluzione dell’enigma dell’entropia, questa soluzione era in realtà altamente problematica ed impegnava la teoria fisica a rendere conto anche dei fenomeni microscopici e atomici in termini di dinamica classica, cosa che fino ad allora aveva evitato accuratamente di fare, accampando a motivo l’indescrivibilità precisa di stati così complessi. Ma a questa intrapresa era ora in qualche modo obbligata, anche per tentare di risolvere il quesito che Poincaré, altro matematico straordinario, aveva posto. Questi aveva infatti cercato di tradurre le equazioni di Boltzmann nei termini del formalismo hamiltoniano ed aveva concluso che questa traduzione era impossibile: ossia che in accordo con le leggi del moto newtoniano non era possibile trovare una funzione hamiltoniana relativa a due variabili canoniche che avesse le caratteristiche dell’entropia, cioè un valore sempre crescente, anche invertendo le velocità. Insomma, vi era l’impressione che Boltzmann, cercando di salvare la fisica classica, in realtà ne avesse messo in discussione il suo linguaggio più universale.

Il primo tentativo in grande stile di rendere conto di queste difficoltà fu costituito dalla teoria fisica degli insiemi di Gibbs e Einstein (ben diversa dalla teoria logica degli insiemi di Cantor), che si proponeva la descrizione dinamica di sistemi composti da un numero altissimo di molecole indipendentemente dalla precisa specificazione delle condizioni iniziali. Questo tentativo, di cui non descriveremo i particolari, è importante poiché vi si propose un concetto matematico destinato a grande successo, quello dello spazio delle fasi, ossia uno spazio che avesse tante dimensioni quante quelle sufficienti a descrivere ogni stato di un sistema tramite un solo punto. Per esempio, per descrivere un sistema di due particelle, abbiamo bisogno di due posizioni e due vettori del moto in uno spazio a 3 dimensioni, ma possiamo anche considerare un solo punto in uno spazio a 12 dimensioni. In questo modo, per quanto caotico sia il sistema e confusi e irregolari i movimenti per collisione delle particelle, noi potremo descriverne, ovviamente solo in linea di principio, l’evoluzione nel tempo come una traiettoria nello spazio delle fasi, ossia riportare il caos ad una forma che giudichiamo meccanicamente ideale. E potremo farlo proprio nella forma delle equazioni hamiltoniane del moto, considerando le canoniche come coordinate dell’intero sistema nello spazio delle fasi (equazione di Liouville). È evidente che questo spazio è irrappresentabile, ma formalizzabile matematicamente: l’averlo teorizzato è comunque significativo della tendenza della fisica ad una rappresentazione tutto sommato statica della natura: qualsiasi sistema, compreso l’universo, può essere rappresentato da un solo punto ed in maniera tale che, coerentemente con il carattere deterministico e reversibile delle hamiltoniane, in questo punto sia già compresa l’intera traiettoria nel tempo: non è un caso, che Einstein immaginasse la possibilità di descrivere l’intero mondo, in questo modo sostanzialmente del tutto atemporale, con una sola equazione.
La cosa singolare è che neanche nella forma della teoria fisica degli insiemi si poté venire a capo dell’entropia: neanche un sistema complesso descritto nello spazio delle fasi può avere una funzione di stato a tendenza univoca, e così lo stesso Gibbs finì per ritenere la termodinamica come una semplice interpretazione soggettiva, legata all’incompletezza della nostra conoscenza possibile della natura, la quale avrebbe invece un andamento del tutto coerente con la dinamica. E questa è anche la tesi di Einstein, per il quale l’intera dimensione temporale non sarebbe che soggettiva e possibile solo per la nostra visione limitata a poche dimensioni dello spazio, laddove il mondo si dà invece tutto insieme, al di fuori del tempo, in uno spazio a infinite dimensioni.
Con questa visione di Einstein si può dire che l’ideale della scienza moderna trovi la sua forma più completa, e anche l’ultima espressione metafisica. Di fatto, dopo la cosmologia della relatività generale non vi è più stato alcun tentativo di intendere la fisica come filosofia della natura, avendo preso invece sempre più esplicitamente piede la considerazione puramente tecnica della scienza. Ma di ciò parleremo alla fine del corso. Oggi invece vediamo come in questa situazione, in qualche modo già problematica, verso la fine dell’ottocento intervengano a scuotere l’egemonia della dinamica altre discipline scientifiche, in primo luogo l’elettromagnetismo.


L’elettromagnetismo nacque ai primi dell’ottocento come spiegazione unitaria dei fenomeni elettrici e magnetici, dunque in un ambito anch’esso vicino alla chimica (pila chimica di Volta), ma con l’intenzione di ridurre questa specificità alle leggi newtoniane della dinamica. Questo contrasto permase a lungo e si espresse nelle diverse posizioni dei maggiori rappresentanti dell’elettrodinamica: esemplarmente, possiamo citare Ampere per la posizione newtoniana, basata sulle linee di forza e dunque sull’azione a distanza, come quella della forza di gravità, e Faraday per un’impostazione maggiormente chimica, incentrata sul mezzo di propagazione, l’etere elastico di cui sarebbe costituito lo spazio (ove dunque avviene tutto per contatto e contiguità). Una prima sintesi compiuta delle varie teoria elettromagnetiche si deve però a Maxwell (che proveniva dalla stessa scuola di Hamilton) e a Hertz, i quali riuscirono a ricomprendere in questo particolare dominio anche la luce, fornendo un’interpretazione unitaria dell’elettricità e della radiazione luminosa tramite una concezione ondulatoria, quindi formalizzabile matematicamente ancora secondo le equazioni di Hamilton sulle traiettorie, tendendo l’energia come quantità conservativa e assumendo lunghezza d’onda e frequenza come variabili canoniche.

Con queste concezioni dell’elettrodinamica, così in sintonia con la matematica del meccanicismo, sorgeva però una contraddizione nella concezione della realtà fisica che sarà destinata a rimanere centrale: quella tra onda e corpuscolo. In effetti, la vecchia elettrostatica aveva interpretato i fenomeni elettrici come relativi alle cariche positive o negative degli elettroni, ossia di corpi. Mentre le traiettorie delle equazioni hamiltoniane erano comunque comprese come evoluzione nello spazio di punti massa privi di altre grandezze oltre a quelle relative al moto e dunque non concepibili come dotati di una propria forza elettrica. La spiegazione ondulatoria di Hertz, invece, diede un contenuto fisico vero e proprio all’idea di onda, indipendente da un sostrato atomico: l’onda si propaga in un mezzo, ma non coincide con esso. A questo punto, però, bisogna decidere cosa farsene dell’elettrone: è questo che procede lungo una traiettoria ondulatoria? O non esiste affatto un elettrone, bensì solo le onde di energia? Esiste la possibilità di conciliare l’aspetto particellare dell’elettricità, pensata come moto di cariche agenti con forze a distanza, con la teoria del campo elettromagnetico, con la sua equivalenza tra elettricità e luce? Di fatto, entrambe le teorie, separate, si svilupparono ampiamente e furono in grado di rendere conto di una grande serie di esperienze possibili, dunque parevano entrambe valide all’interno del loro dominio di validità. Il problema era però inaggirabile, nei casi in cui questi domini di validità si sovrapponevano e nessuna delle due teorie isolatamente poteva risolvere nei propri termini esclusivi il fenomeno osservato.

Tutte le questioni sorte relativamente a questa circostanza diedero origine a una vera e propria contrapposizione, che rispecchia in qualche modo quanto accennavamo prima sul contrasto tra la fisica della forza e quella degli atomi. Un contrasto per noi particolarmente significativo in elettrodinamica, poiché è nell’ambito dei fenomeni cui si interessa questa disciplina che emergeranno quelle difficoltà, di cui parlavamo all’inizio di questo excursus sulla scienza moderna, che renderanno necessaria una riorganizzazione completa della fisica atomica nel segno della meccanica quantistica.
Ma prima di arrivare a definire le origini problematiche della teoria dei quanta, va accennato il quadro teorico completo in cui si organizzò l’elettrodinamica e che costituì, peraltro, anche il presupposto fondamentale della teoria della relatività ristretta: parliamo della sintesi di Lorenz. Molto brevemente e semplicemente, si può dire che egli cercò di conciliare l’aspetto atomico e quello ondulatorio dell’elettricità, assumendo che esistessero particelle cariche nello spazio, gli elettroni appunto, il cui moto costituisce la corrente elettrica, e che sono al tempo stesso le sorgenti dei campi di forza ondulatori, campi di forza che pervadono e configurano lo spazio all’interno del quale quelle stesse particelle si muovono. Lorenz sostenne questa sintesi con un apparato matematico estremamente raffinato ed a prima vista coerente con le equazioni hamiltoniane del moto, seppure per alcuni critici nella sua teoria vi sarebbe già una rottura insanabile con l’impostazione classica. Come che sia, la sua interpretazione, seppure a tratti artificiosa, sembrava garantire una buona dose di coerenza e, almeno sul piano del linguaggio formale, di ortodossia.
Di fatto, però, egli aveva sancito due principi contrari al meccanicismo: in primo luogo, che la forza di gravità da sola non basta a spiegare tutto, poiché di fatto vi è almeno una duplicità di forze: quelle legate al moto delle cariche, la corrente elettrica appunto, e quelle legate alla forza elettrica delle stesse, il campo elettromagnetico. In secondo luogo, e conseguentemente, che i corpi non possono essere considerati solo come un certo quantum di massa inerziale, esprimendo almeno a livello atomico forze proprie, legate alla propria particolare natura. Il primo problema, da questo momento in poi, sarà chiarire il rapporto tra queste forze e la forma in cui questa duplicità si afferma anche nella luce, data la sostanziale omogeneità descrittiva tra elettricità e radiazione luminosa. Ma, in realtà, poiché ogni radiazione ammette una descrizione in termini ondulatori, il problema sarà chiarire il rapporto generale tra corpuscolo e radiazione.

Già nella formulazione di Lorenz, comunque, è evidente che la fisica aveva definitivamente ammesso al suo interno la teoria atomica, quanto meno nella forma degli atomi di elettricità, gli elettroni. E questo, come accennavamo già la volta scorsa, non è un affare da poco, poiché la modernità aveva a lungo rifiutato la scientificità rigorosa dell’atomismo ed aveva, anzi, sviluppato, nella teoria gravitazionale dell’azione a distanza, un modello interpretativo antiatomistico. In ciò si differenzia, dunque, notevolmente rispetto alla tradizione antica, all’interno della quale l’atomismo fu sin da molto presto un’ipotesi diffusa e centrale: infatti, per quanto la sua forma più pura e coerente fosse quella datagli da Democrito, certamente anche le teorie di Anassagora o degli stoici, per non parlare di Epicuro, avevano una struttura atomistica. Nel mondo moderno, invece, in qualche misura anche a causa dell’interdetto cristiano contro l’epicureismo, anche da un punto di vista filosofico non abbiamo esempi significativi di teorie atomiste, se si fa eccezione per la sintesi di Pierre Gassendi, nella prima metà del ’600. Per quanto riguarda la scienza, ignorata dalla teoria cartesiana e newtoniana, l’ipotesi atomica trova inizialmente espressione solo nell’alchimia e, per lungo tempo, ha un carattere fondativo solo in chimica, che però conserva ancora oggi. Si può infatti dire che l’atomo rimane tuttora l’elemento ultimo della chimica, nonostante abbiamo imparato che esso è a sua volta divisibile in ulteriori componenti, che chiamiamo particelle elementari: ma le particelle elementari non hanno qualità chimiche, mentre l’atomo può definirsi come la più piccola parte di un elemento che conserva le proprietà chimiche dell’elemento stesso. Un atomo di idrogeno, insomma, ha già da solo le caratteristiche chimiche dell’idrogeno, mentre un elettrone non ha alcuna caratteristica chimica, ma solo caratteristiche fisiche.

A prescindere, però, da quale sia oggi lo status della chimica, certamente dobbiamo riconoscere che nel suo periodo aureo, tra ottocento e novecento, questa disciplina scientifica ha definito tutti i suoi concetti fondamentali, come “molecola”, “valenza”, “peso atomico”, “legame”, etc., sull’ipotesi dell’atomo. Ed il coronamento della teoria chimica, il sistema periodico degli elementi, è organizzato esattamente in funzione del “numero atomico” degli stessi. Insomma, per la chimica la materia è costituita da un numero finito di atomi indivisibili, distinti qualitativamente e quantitativamente l’uno dall’altro.
Ora, questo tipo di approccio, almeno in parte qualitativo e antiriduzionista, rimase sempre ed è tuttora estraneo alla fisica, che solo nella metà dell’ottocento accettò un’ipotesi di tipo atomico, come quella di Boltzmann o della teoria cinetica dei gas, ma considerando gli atomi come indiscernibili, come punti massa equivalenti, passibili di considerazione puramente quantitativa e statistica. Questo tipo di concezione, in realtà molto astratta e formale, viene in parte corretta già nelle tesi elettrodinamiche di Lorenz, che parla, come abbiamo appena detto, degli elettroni come particelle elementari dotate di una certa carica (che è già bivalente, potendo essere positiva e negativa) e capaci di irradiare delle forze: la struttura degli atomi si va specificando, dunque, e contro la sostanziale omogeneità presunta della teoria dei gas ideali assume caratteristiche articolate, per quanto sempre strettamente legate a fattori quantificabili. In realtà, però, con le tesi di Lorenz viene già meno anche l’idea dell’indivisibilità dell’atomo chimico: gli elettroni ne sono solo una parte, peraltro relativamente libera, poiché in grado di scorrere da un atomo all’altro: dicevamo che la corrente elettrica è esattamente il moto degli elettroni all’interno dei conduttori.

Con la forma matura dell’elettrodinamica, insomma, noi abbiamo una prima espressione di una teoria fisica delle particelle elementari, particelle che non hanno più le caratteristiche qualitative degli atomi della chimica, ma solo caratteri fisici, in primo luogo la carica elettrica e la capacità di creare un campo di forze. L’elettrodinamica, dunque, occupa una posizione veramente centrale e determinante per tutta la scienza del novecento, poiché va legittimamente vista come luogo d’origine non solo della teoria della relatività ristretta, come dicevamo prima, ma anche della teoria dell’atomo.
Riguardo a quest’ultima, noi possiamo sostenere che gran parte dell’evoluzione successiva dell’idea di atomo sia in qualche modo preannunciata nell’idea elettrodinamica di elettrone: l’esistenza di queste particelle cariche negativamente, infatti, implica logicamente una struttura atomica complessa e non più indivisibile, della quale devono far parte anche particelle cariche positivamente, i cosiddetti protoni, poiché altrimenti ogni sostanza avrebbe una carica elettrica, cosa che ovviamente non è, essendo i corpi per lo più elettricamente neutri. Il primo compito della teoria dell’atomo, dunque, fu quello di chiarire la dinamica della relazione tra protoni ed elettroni, in maniera da comprendere la stabilità dell’atomo e di reinterpretare grazie a questo modello il sistema periodico degli elementi, ossia di ridurre ogni specificità a certe relazioni quantitative – e dunque in linea di principio comprensibili in termini di meccanica classica – tra le particelle elementari (almeno due) che costituiscono ogni atomo.
Riuscire a portare a termine questo progetto avrebbe significato il trionfo definitivo della fisica sulla chimica, la sua completa fisicizzazione nei termini della dinamica newtoniana. E per un certo periodo si ritenne vicino questo traguardo, come dimostrano i primi modelli atomici: da quello di Thomson, che immaginava l’atomo come un miscuglio omogeneo di cariche positive e negative, un po’ dunque alla maniera dei gas di Boltzmann, al modello di Rutherford, che avrà molto più successo. Questo modello, che ancora per noi rappresenta la quintessenza dell’immagine dell’atomo, ha in effetti una valenza metaforica e ideale fortissima: l’atomo è concepito come un vero e proprio sistema solare, dunque in base al fenomeno guida della meccanica di Newton. Attorno al nucleo centrale carico di elettricità positiva ruotano in orbite circolari concentriche tanti elettroni quanti sono i protoni nel nucleo: l’atomo, dunque, è elettricamente neutro e le grandezze fisiche che lo costituiscono sono tutte definibili in termini di traiettorie e di forza a distanza, per quanto questa forza non sia più quella gravitazionale, ma l’interazione elettrodinamica di attrazione e repulsione tra cariche.
Ora, il problema è che questo modello atomico ideale e perfetto (che, metaforicamente, possiamo dire rigorosamente copernicano, se non altro per la circolarità delle orbite) non è compatibile né con la meccanica celeste classica, né con l’elettrodinamica. La prima, infatti, non è in grado di rendere conto della straordinaria stabilità atomica: nessun sistema solare rimarrebbe intatto dopo essere stato attraversato da un corpo celeste estraneo, come avviene invece, per esempio, nei metalli a seguito di un passaggio di corrente elettrica. In accordo con l’elettrodinamica, invece, dovremmo aspettarci due forme di collasso autogeno dell’atomo: la caduta degli elettroni nel nucleo, che li attrae, ma anche la dissoluzione del nucleo per la repulsione elettrica reciproca dei protoni (come sapete, cariche elettriche uguali si respingono): cosa impedisce all’elettrone di precipitare nel nucleo e cosa tiene il nucleo insieme, contrastando le forze elettriche di repulsione?
Ovviamente, solo una forza può contrastare una forza e, di conseguenza, dobbiamo aspettarci che la teoria dell’atomo, dovendo risolvere questo problema, debba finire per fare appello ad ulteriori forme di interazione. Se infatti le forze di attrazione e repulsione tra cariche elettriche sono, tutto sommato, sufficienti a rendere conto dei legami chimici, ossia tra atomi, non lo sono affatto per i legami nucleari, ossia tra particelle all’interno dell’atomo, che anzi risulterebbero impossibili. Va quindi postulata la presenza di forze antagoniste all’interno del nucleo in grado di vincere quelle elettriche, forze a brevissimo raggio che vengono chiamate interazioni nucleari forti e delle quali non si conosce ancora la legge, a differenza delle interazioni gravitazionali (la legge del moto) ed elettrodinamiche (le equazioni di Lorenz).

Ma che non si conosca ancora la formula precisa per le interazioni tra protoni e neutroni (poiché nel frattempo le particelle fondamentali del nucleo si sono arricchite del neutrone), non significa che queste forze abbiano un carattere puramente ipotetico, come dimostra il fatto che di esse sappiamo servirci ed in un modo tale da giustificare del tutto la pretesa che queste forze siano molto più intense di quelle elettriche: la scissione del nucleo, come ci insegna la bomba atomica, libera energie molto più forti di quelle liberate dallo scioglimento dei legami chimici, per esempio nello scoppio di un normale esplosivo.
Peraltro, è proprio in termini di intensità delle forze di legame nucleari che si spiega il fenomeno della radioattività, che si presenta qualora, nei nuclei di elementi chimici molto complessi, neanche questi legami forti risultino sufficienti a garantire stabilità, per cui l’atomo emette radiazioni, sotto forma di particelle, che possono essere protoni, elettroni o altre, fino ad arrivare ad una configurazione più stabile. Questo spiega anche perché gli elementi radioattivi sono quelli più utilizzabili per la fissione atomica, giacché sono naturalmente più instabili.
A questi tre tipi di interazione, quella gravitazionale, elettromagnetica, e nucleare forte, la successiva ricerca aggiungerà una quarta forza elementare, l’interazione nucleare debole, che per il momento non ci interessa chiarire. Ne parliamo solo per evidenziare qualcosa di notevole, ed ossia che, proprio percorrendo sino in fondo il suo cammino di progressiva assimilazione di ogni forma di sapere scientifico e soprattutto della chimica, la fisica come progetto di riduzione dell’ente ad un’unica legalità naturale, espressa in un unico linguaggio formale matematico che ha il suo nucleo, come dicevamo, nel principio di conservazione dell’energia come equivalente universale delle forze, ha finito per scoprire tutta una serie di forze irriducibili ed anzi contrarie l’una all’altra, delle quali non sono venuti a capo né Einstein, né Heisenberg o Wolfgang Pauli nei loro reiterati tentativi di formulare una teoria del campo di forze unificato.

 

Ma oltre all’irriducibilità delle forze, la fisica degli atomi ha dovuto concedere sempre di più alla chimica la specificità e non riducibilità a relazioni matematiche pure della materia. E ciò si esprime nella scoperta di sempre nuove “costanti universali”, ossia di certe grandezze fisiche che non sottostanno a nessuna relazione, ma permangono immutate in ogni trasformazione: questo significa che la struttura hamiltoniana delle equazioni del moto va integrata: non bastano più le variabili canoniche e l’espressione della legge come trasformazione matematica basata sulla forma del principio di conservazione dell’energia, ma vanno aggiunte queste costanti, che non sono ovviamente delle leggi, poiché non esprimono relazioni tra grandezze fisiche, ma una certa misura definita relativa ad una grandezza fisica data, che da questo momento in poi funge da parametro dell’intero sistema: in relatività, è la velocità della luce nel vuoto, in meccanica quantistica il quanto d’azione.

A questo punto, però, possiamo interrompere la ricostruzione per sommi capi della storia della fisica moderna, le cui tappe sono state la formulazione galileiana e newtoniana delle leggi del moto e del calcolo infinitesimale, la formalizzazione hamiltoniana delle equazioni corrispondenti, la risoluzione boltzmanniana dei paradossi della termodinamica, lo scheletro concettuale dell’elettrodinamica e della teoria dell’atomo. E il senso di questa storia è parso essere la realizzazione sempre più completa, ma anche sempre più difficile e ricca di compromessi, del progetto originario della dinamica classica come quella teoria fisica incentrata intorno ai termini “legalità, determinismo, reversibilità”, teoria fisica che si propone e diviene sempre più il vero e unico paradigma della scienza tout court.

Ora, tutti i momenti di questa linea di sviluppo convergono, in qualche misura, verso le due realizzazioni tipicamente novecentesche della fisica: la teoria della relatività di Einstein e la meccanica quantistica. Della prima non si parlerà, perché è un argomento complesso che meriterebbe un corso a parte. Per quanto riguarda la seconda, possiamo definirne preliminarmente l’intento di fondo in analogia a quanto detto sul senso della termodinamica e dell’elettrodinamica. Queste due teorie ci sembravano deputate a reinterpretare in senso meccanicistico ambiti disciplinari prima oggetto di scienze diverse, per lo più vicine ai fenomeni chimici del fuoco e della materia. Ed anche la meccanica quantistica nasce con la stessa intenzione, ossia come reinterpretazione dinamica e meccanicistica dei fenomeni atomici, fino a quel momento oggetto della chimica.

La meccanica quantistica, dunque, nasce a stretto contatto con la formulazione dell’elettrodinamica data da Lorenz e, come la teoria della relatività ristretta, in qualche modo per correggere le debolezze di questa teoria di fronte a certe situazioni sperimentali problematiche. Come abbiamo cercato di dedurre prima in maniera formale, queste situazioni devono avere a che fare con la relazione tra le descrizioni corpuscolare e ondulatoria dei fenomeni elettrici e luminosi, ed in particolare con il problema dello statuto della radiazione. Ed in effetti è storicamente così in quasi tutti i casi, compreso il primo e decisivo, quello della scoperta, da parte di Planck, del “quanto d’azione”.

Ricostruzione della nascita della meccanica quantistica sulla scorta delle testimonianze dei suoi fondatori, in particolare i saggi:
Sviluppo storico della teoria dei quanta, di Heisenberg, in Fisica e filosofia;
La scoperta di Planck e i problemi filosofici della teoria atomica, di Heisenberg, in Oltre le frontiere della scienza;
Il quanto d’azione e la descrizione della natura, di Niels Bohr, in I quanti e la vita (Bohr, danese, è il fondatore della Scuola di Copenaghen ed è conosciuto soprattutto per la sua versione corretta del modello dell’atomo di Rutherford e per l’enunciazione dei principi di corrispondenza e di complementarità, di cui diremo più avanti).

Fenomeni che resistono ad una descrizione nei termini della sintesi elettrodinamica di Lorenz: in primo luogo, quello degli spettri luminosi. Come sapete, la luce è stata studiata sin dal 700 tramite modelli ondulatori, ossia prendendo in considerazione come sue grandezze costitutive la frequenza dell’onda (n) e la sua lunghezza (l). Questa impostazione rendeva adeguatamente conto dei vari fenomeni di diffrazione ed interferenza tra fasci luminosi o tra la luce e il medium che attraversa. Già alla fine dell’ottocento, poi, si sapeva che ogni elemento chimico riflette una luce caratteristica della propria composizione, che, a differenza della luce solare, non corrisponde ad uno spettro continuo di frequenza, ma ne contiene una parte discreta, da cui derivano le linee e bande della spettrografia. Ciò vuol dire che, analizzando la luce emessa da una sostanza, si constata che è composta da radiazioni che corrispondono solo a certi valori particolari all’interno dell’intervallo complessivo di frequenze.
Ora, dalla sintesi di Lorenz sappiamo che la conciliazione tra elementi corpuscolari e ondulatori delle interazioni elettromagnetiche era riuscita, almeno apparentemente, concependo l’elettrone come particella carica che emette un campo ondulatorio di forze: ma come spiegarsi il fatto che, giuste le risultanze della spettrografia, per ogni elemento questo campo di forze dimostra prediligere certe frequenze d’onda ed escluderne del tutto altre? Perché la forza dovrebbe esprimersi solo in certe misure e a scatti, e non in maniera continua, come prevede l’idea classica di traiettoria? Perché, in funzione della sua forma, un atomo eccitato dovrebbe emettere una serie di frequenze discrete e non continue? Perché, dunque, ogni elemento chimico ha il suo spettro specifico? Tutte domande per le quali non si aveva risposta. Ma non è solo questo: di fatto, l’ignoranza di certe cause non basta a mettere in crisi una teoria. Il problema vero sorge in due casi: quando la teoria non è in grado neanche di rendere conto della possibilità di un certo fenomeno, come riguardo agli spettri luminosi, o quando un fenomeno che risulta sì possibile nei termini della teoria presenta, tuttavia, un andamento diverso da quello che la teoria prevede, come è il caso dell’effetto fotoelettrico.

Con questo nome ci riferiamo a un fenomeno che metteva in crisi la completezza della spiegazione ondulatoria della luce: questo fenomeno consiste nell’espulsione, da parte di un corpo (generalmente di un metallo o di un gas), di elettroni a seguito di un assorbimento di luce. Questo era un fatto molto enigmatico, poiché mostrava una interazione tra onda e corpuscolo, che non si riusciva a spiegare in maniera classica. Infatti, il numero di elettroni emessi e la loro energia cinetica non risultavano proporzionali all’intensità della radiazione luminosa, bensì alla sua frequenza, ossia ad una caratteristica propria dell’onda e non della forza. Nei termini hamiltoniani, così come sono adattati alle equazioni elettrodinamiche di Lorenz, le quali descrivono come analoghi gli eventi elettrici e luminosi, si può certo rendere conto della possibilità che una radiazione luminosa abbia un effetto elettrico e questo fenomeno si può calcolare tramite le derivate dell’energia complessiva del sistema rispetto alle posizioni ed ai momenti dei suoi componenti: in parole povere, possiamo mettere in relazione la posizione e la quantità di moto degli elettroni con l’intensità, ossia con l’energia, della luce. Questa descrizione, però, viene falsificata dalle esperienze, che manifestavano invece una vera e propria interazione tra la forma dell’onda e il comportamento delle particelle elettriche. Che relazione fisica vi è tra la frequenza della luce e l’energia degli elettroni emessi?

Questa questioni trovarono una formulazione sintetica nel problema del cosiddetto corpo nero, termine con il quale si designa un corpo che assorbe integralmente le radiazioni ed il cui campo di forze, conseguentemente, è indipendente dal proprio colore: ciò permetteva, sul piano sperimentale e teorico, di non prendere in considerazione le interazioni puramente ottiche e, dunque, di poter studiare nella sua purezza la relazione tra materia e radiazione. Non entro qui nei particolari della questione, ma vado direttamente al suo momento decisivo, ossia alla scoperta, da parte di Planck, che lo scambio di energia tra materia e radiazione, quindi tra gli atomi di un certo elemento chimico e la luce, avviene solo a tappe discrete, non continue. Dunque secondo una scala di valori a intervalli dati: la costante h di Planck esprime, esattamente, il valore minimo, e universale, di questa scala, l’intervallo minimo, che non è infinitesimale, ma di una certa misura sempre uguale, della composizione dell’energia: l’atomo energetico, in qualche modo, quello che egli stesso chiamerà “quanto d’azione”.

Questa scoperta, che sconvolse lo stesso Planck, il quale si rese subito conto di aver a che fare con qualcosa di completamente nuovo e rivoluzionario, ebbe una prima interpretazione generale da parte di Einstein, che osò formulare chiaramente almeno uno delle dimensioni fondamentali della vera questione che stava alla base di tutti i problemi di cui parliamo: ossia la dualità tra comportamento ondulatorio e corpuscolare della luce. Noi abbiamo visto che questa dualità permaneva anche nell’elettrodinamica, ma lì vi rimaneva suo malgrado, ossia nonostante tutti i tentativi di risolverla in un’unità superiore, e quindi come scandalo e fallimento della teoria. Einstein, invece, la rese il nucleo della propria teoria dei fotoni, formulandone chiaramente la struttura matematica proprio grazie al quanto di azione di Planck. Ossia, egli assunse che la luce può avere sia un comportamento ondulatorio, al quale ci riferiamo quando spieghiamo i fenomeni legati alla frequenza e alla lunghezza d’onda (come i fenomeni di interferenza), sia un comportamento corpuscolare, come nel caso dell’effetto fotoelettrico, che va descritto tramite i concetti tipici della meccanica. Un certo fascio di luce, dunque, sarà caratterizzato dalle sue frequenza e lunghezza d’onda, che però noi possiamo mettere in relazione a quantità meccaniche di particelle (i fotoni) come l’energia e il momento (coppia usuale nella scelta delle variabili canoniche nelle equazioni di tipo hamiltoniano) proprio tramite il quanto d’azione. E queste relazioni sono molto semplici:

e = hn
p = h/l

(ove e è l’energia e p il momento)


In buona sostanza, q è una coordinata, p è il momento associato (in meccanica classica
mv). Ritraducendo, la meccanica newtoniana è descritta dalla hamiltoniana H (p,q) = p^2/2m + V(q), ove V è l’energia potenziale. Da ciò si può derivare che:
dq/dt = p/m = v
ma = mdv/dt = dp/dt = -dV/dq = F
In sostanza è una riscrittura banale, ma non va trascurato il fatto che la meccanica hamiltoniana permette di cambiare totalmente la definizione delle coordinate: in generale, esiste una classe molto ampia di trasformazioni del tipo f(p,q), g(p,q) tali che posso riesprimere le equazioni del moto ancora in forma hamiltoniana
1k) df/dt = - dK/dg
2k) dg/dt =   dK/df
il che confonde totalmente i momenti e le posizioni. Si può vedere tutto ciò come un modo più semplice di esprimere un problema (in genere le trasformazioni sono fatte per avere equazioni del
moto più trattabili), ma si può anche decidere che il momento “vero” non è più mv, ma f (per convenzione i momenti sono quelli associati alla derivata di segno -). In genere però si parla di variabili
"coniugate": l'hamiltoniana coniuga il momento p alla coordinata q; il risultato è una traiettoria in genere limitata (dalla conservazione dell'energia) e non intersecantesi nel piano (q, p); il tempo "scompare", è semplicemente un parametro irrilevante, rimane l'oggetto “traiettoria” (questa volta non come funzione di t, ma come relazione fra p e q) caratterizzato dall'invarianza dell'energia E = H (p,q), lungo tutti i suoi
punti.

Relazioni di commutazione quantomeccaniche:
pq-qp = h/2pi
principio di indeterminazione:
Dq Dp ³ h
Heisenberg: “tutti i concetti che nella teoria classica vengono usati per descrivere un sistema meccanico si possono definire esattamente, anche per processi atomici, in analogia con i concetti classici. Gli esperimenti che servono a definirli, se pretendiamo da loro la determinazione simultanea di due grandezze canonicamente coniugate, hanno però in se stessi, sulla semplice base dell’esperienza, una indeterminazione. Il grado di questa indeterminazione è dato dalla relazione (1) (estesa a qualsiasi grandezza canonicamente coniugata)”.

Il quanto d’azione, quindi, risultava decisivo per passare dalla descrizione della luce come onda alla sua descrizione come pacchetto di fotoni, ossia di particelle dotate di un certo moto, etc… Dopo alcuni anni, queste stesse relazioni saranno alla base dell’interpretazione in qualche modo speculare della materia come onda, interpretazione che ha dato origine a quella branca della meccanica quantistica che è la meccanica ondulatoria, opera soprattutto di Erwin Schrödinger e Louis De Broglie.

Oltre ad essere in qualche modo risolutivo per i problemi legati all’interpretazione della luce, però, il quanto d’azione inaugurava anche una concezione del tutto nuova dell’atomo. L’intuizione di Planck, infatti, fu quella di esprimere le caratteristiche della radiazione come comportamenti dell’atomo radiante, di cui aveva già parlato Lorenz. E, come nota Heisenberg, dai risultati matematici dei suoi studi sul corpo nero, Planck doveva dedurre chiaramente che l’atomo può avere solo contenuti energetici discreti. Questo strano fatto, del tutto in contrasto con le normali leggi cinetiche e tale, dunque, da non poter essere compiutamente rappresentato per il loro tramite, fu dotato di un contenuto fisico da Niels Bohr, che ipotizzò che questi gradini energetici dell’atomo corrispondessero ai suoi possibili stati stazionari, situazioni stabili nelle quali l’atomo non emette, né assorbe radiazioni, ossia di fatto non interagisce con l’esterno. Solo quando l’atomo passa da uno stato stazionario all’altro, con un salto, che peraltro non ha sempre una vera e propria causa definita, vi è l’emissione o l’assorbimento di una radiazione, e solo in questo momento l’atomo è per noi conoscibile, poiché possiamo averne notizia e sperimentare su di esso.

Questo singolare modello dell’atomo, costruito del tutto per via deduttiva su due premesse (la stabilità e il quanto di azione), fu descritto matematicamente tramite una modificazione, apparentemente di poco conto, delle equazioni del moto hamiltoniane: ossia, si continuava a descrivere la dinamica delle particelle elementari tramite una funzione di stato complessiva e due variabili canoniche, con l’aggiunta però delle cosiddette condizioni quantiche. Che cosa sono queste condizioni quantiche? Cerchiamo di chiarirlo per contrasto: nella meccanica hamiltoniana, noi possiamo calcolare la derivata dell’energia del sistema rispetto all’una o l’altra variabile canonica. L’esito di questo calcolo è naturalmente una traiettoria continua in un qualche spazio di riferimento. Ora, con condizioni quantiche si intende dire che questa derivata dell’energia non potrà assumere qualsiasi valore, ma solo valori multipli o uguali ad h, ossia al quanto d’azione. Ma questo significa sconvolgere del tutto la matematica della meccanica classica, che come ricorderete era fondata sul calcolo infinitesimale. Nella nuova situazione, la funzione di stato, quindi quella che prima era l’hamiltoniana, deve essere configurata in maniera tale da selezionare solo una serie di valori possibili: il che significa, ovviamente, che per le sue derivate non abbiamo più traiettorie, ma una serie di punti staccati l’uno dall’altro.

La rinuncia alla traiettoria, però, prelude ad un’altra rinuncia, molto più importante: agli scienziati che si occuparono di fisica atomica, infatti, divenne ben presto evidente che le equazioni quantistiche del moto, pur essendo del tutto conservative rispetto all’energia totale, che rimane invariante così come nella meccanica classica, e pur avendo una natura chiaramente reversibile, non esprimono più una dinamica deterministica. Vedremo in maniera più particolareggiata in che modo avviene ciò, ma è comunque interessante notare come la meccanica degli atomi, che sul piano dei principi ermeneutici che abbiamo usato per descrivere la storia della fisica può essere considerata la naturale prosecuzione di quell’interpretazione microscopica dell’entropia proposta da Boltzmann allo scopo di salvare la reversibilità, riesca infine a far ciò solo rinunciando esplicitamente al determinismo.

Sul senso e sulla portata di questa rinuncia si è discusso a lungo e sin dall’inizio: in buona sostanza, infatti, era proprio questo il punto dolente per Einstein, che non poté mai accettare il “principio di indeterminazione” di Heisenberg (“Dio non gioca a dadi”). Ma cerchiamo di vedere esattamente come intesero questa indeterminazione di principio delle dinamiche atomiche i fisici quantistici e come questa indeterminazione è legata al quanto di azione, ossia a questa unità di misura oggettiva che rientra in ogni espressione delle leggi naturali, pur non essendo una legge, ossia l’espressione di una relazione regolare tra grandezze, bensì essa stessa una grandezza elementare.

Secondo le tesi che Bohr presenta nel succitato saggio, la scoperta del quanto d’azione, oltre a costituire la base per l’ordinamento delle esperienze sui fenomeni atomici, ha comportato un mutamento profondo anche relativamente ai principi della descrizione dei fenomeni naturali. Infatti, la meccanica quantistica, che Bohr considerava esplicitamente come una “generalizzazione naturale della meccanica classica” (principio di corrispondenza), proprio per il fatto che ne riproduce la struttura e la amplia fino a comprendere la novità della costante universale del quanto d’azione, il che la rende poi in grado di interpretare in maniera coerente i fenomeni atomici, paga questo suo successo con una rinuncia alla descrizione spazio-temporale e causale propria alla teoria classica. Al riguardo, lo stesso Bohr riconosce una certa delusione, giacché la teoria atomica era nata proprio con l’intenzione di elaborare una descrizione di tipo meccanico classico dei fenomeni microscopici. Ma perché la meccanica quantistica deve rinunciare alla descrizione spazio-temporale e causale?

Diciamo subito che la possibilità stessa del determinismo riposa sulla descrivibilità completa del fenomeno: come ricorderete, infatti, per determinismo intendiamo la fiducia che, conoscendo un qualsiasi stato istantaneo di un sistema, sia possibile determinarne la dinamica nel tempo, ossia determinarne tutti gli altri stati. Questa determinazione è possibile esattamente applicando le leggi del moto agli elementi del sistema che abbiamo completamente descritto nella sua composizione spazio-temporale. Ciò significa concepire la causalità come espressione di una dinamica costante, regolare, lineare e ineccepibile. Sulla base di questa concezione (già kantiana: “in mundo non datur hiatus, non datur saltus, non datur casus, non datur fatum”), i limiti più o meno grandi dell’effettiva capacità di previsione non derivano dalla cosa stessa, ma solo dalla frequente impossibilità di fatto a descrivere completamente un sistema in un suo stato iniziale. Ma ciò non inficia affatto la sua descrivibilità di principio e dunque la sua perfetta determinazione di fatto, per quanto ad essa non corrisponda sempre una completa determinabilità nella conoscenza.

Ora, ciò che viene meno nella teoria dei quanta è la possibilità stessa, non solo di fatto, ma in linea di principio, di una descrizione completa e oggettiva dello stato di un sistema. Possiamo anzi dire, che addirittura l’idea di «stato di un sistema» non rimanda, nella meccanica quantistica, a niente di correlato a qualcosa di rappresentabile oggettivamente. Per esempio, lo «stato stazionario» dell’atomo: come dicevamo precedentemente, noi possiamo conoscere solo i mutamenti di stato, ma quando l’atomo permane in un suo stato stazionario ci è del tutto estraneo e dunque è indescrivibile oggettivamente.

Ma cerchiamo di capire meglio questa questione: perché lo stato di un sistema atomico non è descrivibile oggettivamente in linea di principio? E cerchiamo di rispondere ancora facendo il paragone con la situazione in meccanica classica. Qual è la descrizione classica di uno stato? Quella basata sulle variabili canoniche e sulla hamiltoniana espressa nei loro termini: ossia si usa una funzione di stato, che è un’espressione matematica deputata esattamente a descrivere una certa situazione dinamica, espressione i cui termini sono certe grandezze fisiche relative al moto e alla posizione degli elementi del sistema. Data la misurazione sperimentale di queste grandezze, le equazioni del moto possono predire tutta la dinamica del sistema e se la legge è conosciuta correttamente, ossia si conoscono le giuste relazioni che sussistono tra quelle grandezze, gli eventuali errori nella previsione saranno imputabili solamente all’imprecisione nella prima misurazione, un’imprecisione che si può correggere, in linea di principio, fino alla perfezione.

Nella meccanica quantistica, invece, le cose stanno molto diversamente. Vediamo, per esempio, cosa scrive Heisenberg nel suo saggio su La scoperta di Planck e i problemi filosofici della teoria atomica (1958): «Con la scoperta di Planck si vide che era possibile una forma di legge naturale del tutto nuova […] Nella precedente formulazione matematica, le leggi di natura, sia nella meccanica che nella teoria del calore, contenevano come cosiddetta “costante” soltanto le proprietà dei corpi ai quali quelle leggi venivano applicate. Non comparivano costanti aventi carattere di principio universale di misura. Le leggi della meccanica newtoniana, per esempio, potevano in linea di principio essere applicate al moto di una pietra che cade, all’orbita della luna intorno alla terra o all’urto di una particella atomica. Una stessa cosa, sostanzialmente, sembrava manifestarsi dappertutto. Nella teoria di Planck, invece, compariva il cosiddetto “quanto d’azione”: un ben determinato metro di misura veniva introdotto nella natura. Fu chiarito che i fenomeni nei quali gli effetti sono molto grandi rispetto alla costante di Planck hanno luogo in modo essenzialmente diverso da quelli in cui gli effetti sono invece ad essa paragonabili».
E questo metro universale di misura comporta una profonda trasformazione non solo dell’idea di legge di natura, ma anche dell’idea di descrizione di un sistema dinamico: «Il carattere non intuitivo della moderna fisica atomica riposa in ultima analisi sull’esistenza del quanto d’azione di Planck e sulla presenza nelle leggi di natura di un metro di misura di dimensioni atomiche». «La teoria dei quanti si occupa in particolare del problema di una descrizione oggettiva dei processi fisici. Nella fisica precedente, la misurazione era un mezzo per accertare dei fatti oggettivi che erano indipendenti da essa. Questi fatti oggettivi potevano essere descritti matematicamente e con ciò la loro relazione causale era rigorosamente determinata. Nella teoria dei quanta, la misurazione è ancora un dato oggettivo, come nella fisica precedente, ma la conclusione che da essa si trae del corso oggettivo dell’evento atomico diventa problematica perché la misurazione interferisce sull’evento e non si lascia più separare completamente dall’evento stesso. Una descrizione intuitiva del processo atomico diventa perciò impossibile. Non possiamo più comprendere i processi naturali nel campo atomico allo stesso modo dei processi macroscopici. L’uso dei concetti abituali viene limitato dal cosiddetto “principio di indeterminazione”. Per l’ulteriore corso del processo atomico possiamo in genere soltanto stabilire la probabilità. Si possono dare formule matematiche per decidere le probabilità dell’accadere di certi fatti, ma non più i fatti oggettivi. Non più l’evento reale, ma la possibilità del suo accadere – la potentia, se vogliamo adoperare questo concetto della filosofia di Aristotele – è strettamente soggetta alle leggi di natura».

Riassumiamo: Heisenberg afferma che il quanto d’azione introduce un tipo nuovo di costante nelle leggi di natura, una costante che vale come metro universale di misura. Conseguentemente, oltre alla struttura della legge, viene modificata anche la concezione del processo di misurazione, che non ha più a che fare con la neutralità e convenzionalità dei vecchi strumenti di misurazione, ma deve fare i conti con questa unità di misura già data, che è di dimensioni atomiche e quindi risulta di carattere non intuitivo. Oltre a ciò, proprio Heisenberg dimostrerà che il quanto d’azione comporta una precisa indeterminazione degli esiti della misurazione, che non è legata ad una sua imprecisione di fatto, ma è costitutiva ed ineliminabile. Tutto ciò si ripercuote nel fatto che le nuove leggi non hanno più un carattere deterministico, ma sono leggi statistiche, ossia che parlano della potentia, della possibilità degli eventi. E parlano solo di possibilità, non perché non ne sappiamo ancora abbastanza delle dinamiche reali per poterle determinare precisamente (così come, per esempio, parlava Boltzmann di probabilità), ma poiché queste dinamiche non sono determinate in sé e quindi non possono essere mai determinate, pur conoscendole perfettamente. Il determinismo, come si vede, è distrutto non solo sul piano gnoseologico, bensì più radicalmente su quello ontologico: la natura non è determinata, in essa agiscono e sono conoscibili piuttosto delle tendenze, delle predisposizioni. Ma se questa interpretazione heisenbergiana della meccanica quantistica è corretta, significa che il suo vero oggetto non sono più le cause, così come concepite dalla fisica newtoniana ed ossia come rigide cause efficienti. Se di causa ancora si vuole parlare, e lo stesso Heisenberg sviluppa altrove questo tipo di argomento, allora si può dire con una certa approssimazione che la teoria dei quanta studia le cause formali (che ricomprendono quelle materiali) e finali degli eventi.

Questa, però, è una questione che possiamo per il momento tralasciare, per tornare al nostro tema: ossia alla spiegazione del nesso tra quanto d’azione, legge statistica e misurazione, ed in particolare per comprendere il contenuto proprio del principio di indeterminazione. Rispetto ad esso, possiamo cominciare col dire che la sua formulazione è strettamente dipendente dall’impostazione complessiva della prima teoria dei quanta, impostazione che è chiarita al meglio nel principio di corrispondenza di Bohr. Questo principio non afferma nient’altro che le leggi della meccanica classica, in particolare nella loro forma hamiltoniana, devono valere come struttura formale della formulazione delle leggi quantistiche. Un sistema atomico, dunque, deve essere descritto tramite delle variabili canonicamente coniugabili, relative alla posizione ed al moto dei suoi elementi (p e q). Il principio di indeterminazione, però, sancisce l’impossibilità di una determinazione precisa e contemporanea di queste grandezze: ossia dice che non è possibile sapere al tempo stesso dove è una particella e a che velocità si muove (Dq Dp ³ h). Questa impossibilità è dovuta al fatto che qualsiasi determinazione di una delle due variabili è tale da perturbare irrimediabilmente i valori dell’altra, e tanto più quanto più è precisa. Heisenberg fa l’esempio della misurazione della posizione di un elettrone: per poterla determinare, bisogna sottoporre l’elettrone ad una radiazione di lunghezza d’onda minima (p.e., raggi g), perché la misurazione sia precisa: metaforicamente, abbiamo bisogno di un fascio di luce strettissimo, che colpisca l’elettrone nella sua precisa posizione: ma la luce, giusta le equazioni di Einstein, ha essa stessa una natura particellare ed ogni fotone è portatore di almeno un quanto d’azione: conseguentemente, la nostra determinazione della posizione dell’elettrone coincide con la perturbazione della sua velocità, poiché ne abbiamo di fatto modificata l’energia. In particolare, ciò significa che non vi è alcun modo di vedere la traiettoria di un elettrone, poiché è sufficiente un singolo quanto di luce per espellere l’elettrone da questa sua presunta traiettoria. Insomma: è esattamente l’esistenza del quanto di azione, ossia di una soglia minima e intera oltre la quale l’energia non è ulteriormente divisibile e che è una grandezza assolutamente significativa al livello delle interazioni atomiche, a comportare l’impossibilità in linea di principio di un’osservazione pura. Ogni osservazione è un intervento, che modifica l’osservato, determinandone le grandezze fisiche, che nel suo stato precedente sono invece ancora indeterminate.

Ora, nei termini della meccanica classica si potrebbe ancora venire a patti con questa impossibilità dell’osservazione pura, assumendo che sia possibile tener conto della perturbazione e correggerla. Il che corrisponde ad ammettere che l’elettrone abbia effettivamente una posizione e velocità determinata in ogni istante. Ma la tesi di Heisenberg va molto più in là di ciò: di fatto, egli considera la stessa idea di traiettoria dell’elettrone come del tutto illusoria e indeterminate in linea di principio la sua posizione e velocità, almeno sino a quando una data osservazione non determini l’una o l’altra entro i limiti di precisione sanciti dal principio di indeterminazione.

Al riguardo, è notevolissima la conclusione della celeberrima memoria scientifica, con la quale Heisenberg presentava nel 1927 il suo principio di indeterminazione, uno scritto di natura matematica molto complesso, intitolato Sul contenuto intuitivo della cinematica e della meccanica quantoteoriche: «nella formulazione netta della legge di causalità: “se conosciamo esattamente il presente, possiamo calcolare il futuro”, è falsa non la conclusione, ma la premessa. Noi non possiamo in linea di principio conoscere il presente in ogni elemento determinante. Perciò ogni percepire è una selezione da una quantità di possibilità e una limitazione delle possibilità future. Poiché il carattere statistico della teoria quantistica è così strettamente collegato all’imprecisione di ogni percezione, si potrebbe essere indotti erroneamente a supporre che al di là del mondo statistico percepito si celi ancora un mondo «reale», nel quale è valida la legge di causalità. Ma tali speculazioni ci sembrano, insistiamo su questo punto, infruttuose e insensate. La fisica deve descrivere formalmente solo la connessione delle percezioni. Si può caratterizzare molto meglio il vero stato delle cose in questo modo: poiché tutti gli esperimenti sono soggetti alle leggi della meccanica quantistica, e dunque all’equazione (1) [quella del principio di indeterminazione], mediante la meccanica quantistica viene stabilita definitivamente la non validità della legge di causalità».

Come vedete, qui Heisenberg rifiuta nettamente il ricorso all’idea di un atomo in sé, ossia considerato nelle sue grandezze fisiche costitutive a prescindere dalla loro misurazione, che ci darebbe solo il fenomeno dell’atomo. E dunque rifiuta che si possa salvare il principio di causalità grazie a questa metafisica dell’atomo in sé. L’atomo è reale nel modo in cui ci si manifesta e questo modo è condizionato dal principio di indeterminazione. Il che equivale a dire che posizione e moto delle particelle sono di per sé indeterminate, entro i limiti stabiliti dal principio. Questi limiti sono relativi al rapporto tra la massa della particella e il quanto d’azione, ed in particolare, quanto minore è la massa, tanto maggiore l’indeterminazione. Il che giustifica il fatto che, studiando corpi di massa nettamente superiore a quelle proprie del mondo atomico, le leggi della meccanica classica, con il loro determinismo, siano ampiamente soddisfacenti, poiché nel loro caso l’indeterminatezza dovuta al quanto d’azione è infinitesima. Ma nell’ambito dei fenomeni microscopici questa indeterminatezza è rilevante, il che necessita una formulazione non più deterministica, ma statistica delle leggi. E, dal momento che l’indeterminazione appartiene al fenomeno, e non solo alla nostra conoscenza di esso, queste leggi statistiche non sono considerate solo come delle approssimazioni incomplete ad un ideale conoscenza perfetta del sistema, che tornerebbe ad essere deterministica, bensì la conoscenza adeguata della sua dinamica non deterministica, una dinamica di possibilità, piuttosto che di necessità.

È su questa base che poggia la singolare struttura matematica della teoria dei quanta, una struttura che prevede due tipi di formulazione del tutto diverse: la funzione d’onda, che esprime le possibilità di un certo evento fisico, e l’espressione dei risultati di un esperimento, detta anche collasso della funzione d’onda, poiché tra tutte le possibilità che quella funzione prevedeva si descrive ora quella effettivamente realizzata. Ma per comprendere adeguatamente questa duplicità del formalismo matematico della teoria dei quanta è conveniente seguire da vicino un altro saggio di Heisenberg, contenuto in Fisica e filosofia, e precisamente quello intitolato L’interpretazione di Copenaghen della teoria dei quanta.


Principio di indeterminazione e duplicità dell’apparato matematico-formale della teoria dei quanta: il problema è in che modo tenere insieme questi due formalismi e dunque che tipo di interpretazione dare della teoria nel suo complesso, il che significa rispondere a due domande: qual è il contenuto fisico della teoria e come lo si può esprimere? L’interpretazione di Copenaghen della teoria dei quanta individua già nel suo primo paragrafo l’elemento chiave nel rapporto tra linguaggio, teoria ed esperimento.
“L’interpretazione di Copenaghen della teoria dei quanta parte da un paradosso. Qualsiasi esperimento fisico, sia che si riferisca ai fenomeni della vita quotidiana o ad eventi atomici, deve essere descritto nei termini della fisica classica. I concetti della fisica classica formano il linguaggio per mezzo del quale descriviamo la preparazione dei nostri esperimenti e ne esprimiamo i risultati. Non possiamo né dobbiamo sostituire questi concetti con altri. Tuttavia l’applicazione di questi concetti risulta limitata dalle relazioni d’incertezza. Dobbiamo tener presente questa limitata area di applicabilità dei concetti classici mentre li applichiamo, ma non possiamo e non dovremmo sforzarci per migliorarli”.

enunciati fondamentali di questo passo:

  • ogni esperimento deve essere descritto nel linguaggio della fisica classica, ossia il formalismo logico-matematico di questa va usato tanto per la preparazione dell’esperimento, quanto per esprimerne quantitativamente i risultati
  • il principio di indeterminazione pone dei limiti all’applicabilità dei concetti della fisica classica, ossia essi risultano almeno parzialmente inadatti a parlare di quella parte della natura, sulla quale l’esperimento voleva gettare luce.

Il paradosso espresso da queste due proposizioni è ciò che la meccanica quantistica deve tenere, ossia la difficile unità che la sua interpretazione deve giustificare. Per seguire l’argomentazione di Heisenberg, dunque, dobbiamo comprendere a fondo il significato di queste due proposizioni.

Perché Heisenberg afferma che ogni esperimento è vincolato, in tutte le sue dimensioni, all’uso di un linguaggio scientifico classico, ossia di diretta derivazione dalla meccanica newtoniana? A favore di questa tesi egli sviluppa una serie di argomenti, ai quali dedica alcuni saggi autonomi, ma già nella parte finale di questo capitolo vi è qualche accenno: per esempio, vi si nota che la teoria dei quanta “parte dalla divisione del mondo in «oggetto» e resto del mondo, e dal fatto che almeno per il resto del mondo ci serviamo dei concetti classici per la nostra descrizione”. In parole povere, si sta qui affermando che l’apparato sperimentale, in quanto oggetto tecnico macroscopico, rientra nel dominio di validità del meccanicismo, ossia è stato progettato e costruito in base alle sue leggi, tramite le quali è integralmente descrivibile.

Ma già nello stesso contesto, a questo argomento di carattere essenzialmente tecnico si aggiunge una considerazione più generalmente storica: riguardo alla scansione tra l’oggetto dell’esperimento e il resto, Heisenberg infatti dice che essa “è una divisione arbitraria e storicamente una diretta conseguenza del nostro metodo scientifico; l’uso dei concetti classici è infine una conseguenza del modo generale di pensare degli uomini. Ma ciò implica un riferimento a noi stessi e quindi la nostra descrizione non è completamente obbiettiva”. Heisenberg, dunque, sta contestando l’ingenuità del realismo di derivazione cartesiana, per il quale la distinzione tra oggetto e soggetto è naturale e conforme alla costituzione ontologica delle cose, e nota invece il carattere storico di questa distinzione. Al tempo stesso, però, fa derivare il formalismo del meccanicismo direttamente dal “modo generale di pensare degli uomini”. Come dobbiamo intendere questa affermazione, che apparentemente non fa alcuna concessione alla dinamica storica, riferendosi ad un universale antropologico, peraltro molto dubbio? Che significa “conseguenza del modo generale di pensare”, e in che modo si può ritenere che le equazioni hamiltoniane del moto (poiché è in esse che sono contenuti i concetti classici fondamentali di cui parla Heisenberg) derivino da questa sorta di common sense?

Poche righe più sotto, Heisenberg afferma che “i concetti della fisica classica non sono altro che un raffinamento dei concetti della vita quotidiana e sono parte essenziale del linguaggio che forma la base di ogni scienza naturale”. Questo vuol forse dire che quella “conseguenza del modo generale di pensare” andrebbe intesa come derivazione del formalismo matematico dal cosiddetto “linguaggio naturale”? Il che poi sembrerebbe significare che la matematica ha un’origine latamente logica. Una simile tesi, però, avrebbe conseguenze intenibili per la meccanica quantistica nella sua interpretazione della scuola di Copenaghen, poiché non ci permetterebbe di comprendere perché il suo apparato matematico, che è di per sé coerente e unitario, non ammette una chiara ed univoca descrizione in termini linguistici.

Evidentemente, si giunge qui tematicamente al primo dei nessi di cui parla il corso, quello tra matematica e linguaggio, e lo si fa affrontando una delle difficoltà caratteristiche della teoria dei quanta, ed in parte anche della teoria della relatività ristretta: nell’ambito di queste teorie e a differenza di quanto accadeva nella scienza precedente, infatti, non è quasi mai possibile dare un chiaro contenuto logico alle espressioni matematiche. In parole povere, di fronte ad una formula che risulta del tutto idonea a rendere conto di certi fenomeni, noi non sappiamo dire cosa essa voglia esattamente significare. Parlavamo di ciò, dicendo che la meccanica quantistica è teoria dell’ormai irrappresentabile: ossia non solo che i suoi enti non sono più raffigurabili nell’immaginazione, ma neanche più del tutto definibili in termini linguistici. Questo ovviamente comporta una modificazione profonda del concetto di teoria, che nella concezione originaria in Aristotele rimanda esattamente alla visione della forma: noi non possiamo più vedere questa forma, il fenomeno è del tutto invisibile, quindi, a rigori, non è neanche più microscopico. Da tutto ciò deriva, evidentemente, che la meccanica quantistica non può accontentarsi di una concezione logica della matematica, poiché le sue formule, giudicate idonee e sufficienti a rendere conto della natura, non significano, di fatto, niente di preciso logicamente.

Ma allora quali sono i veri rapporti tra linguaggio e matematica? Possiamo affrontare la questione chiedendo che tipo di accesso al reale sia garantito per il loro tramite. In parte, Heisenberg sviluppa questo tema nella sua conferenza del 1960 su Linguaggio e realtà nella fisica moderna, conferenza che è poi confluita, abbondantemente modificata, nel decimo capitolo di Fisica e filosofia. Qui l’argomentazione esordisce sostanzialmente mettendo in campo il terzo elemento del nesso al quale è dedicato il corso, ossia la tecnica: Heisenberg scrive che “la progredita tecnica sperimentale del nostro tempo porta nella prospettiva della scienza nuovi aspetti della natura che non possono essere descritti nei termini dei comuni concetti”. Ora, «portare nella prospettiva» significa far entrare nell’ambito di un certo punto di vista e, come abbiamo appena visto, proprio di un punto di vista, di visione, di theoria, appare qui difficile parlare. In effetti, però, l’occhio dello scienziato, quello fisico e quello della mente, non è del tutto cieco, ma continua a vedere qualcosa, anche se questo qualcosa non è più direttamente l’ente naturale, bensì in prima istanza l’apparato tecnico-sperimentale. Il punto di vista a partire dal quale la scienza contemporanea affronta la natura, dunque, è esattamente quello della “progredita tecnica sperimentale”, di cui parla appunto Heisenberg, un punto di vista che ammette ed anzi esige una sua propria espressione linguistica soddisfacente, per quanto questa non sia riducibile ai “comuni concetti”.

Ma quale linguaggio si deve allora usare? Nel passo successivo del testo, si risponde dicendo che “il linguaggio che generalmente emerge dal processo di chiarificazione scientifica [di nuovo una metafora visiva] nella fisica teoretica è usualmente un linguaggio matematico, lo schema matematico [ancora: scÁma significa figura], che ci permette di prevedere [!] i risultati degli esperimenti. Il fisico può ritenersi soddisfatto quando ha a disposizione lo schema matematico e sa come usarlo per l’interpretazione degli esperimenti”. Come vedete, qui sembra delinearsi una distinzione tra il linguaggio comune, che parla di cose ed eventi, ed un linguaggio matematico che parla dei risultati degli esperimenti, una distinzione che, accettata integralmente in questa forma, è esattamente alla base del progetto operazionista di riduzione del sistema teorico della scienza della natura all’apparato sperimentale. Come ricorderete, per il fondatore dell’operazionismo, Bridgman, ogni concetto significa solo il “dato ultimo” del procedimento fattuale di misurazione che gli dà un contenuto quantitativo: per esempio, la parola entropia non mi parlerebbe di una tendenza universale propria ai fenomeni naturali, ma servirebbe solo a designare l’insieme delle operazioni che devo fare per dare un valore quantitativo al simbolo matematico (s) che viene chiamato con questo nome. Il linguaggio teorico, insomma, non sarebbe deputato ad altro che “nominare” gli elementi simbolici del costrutto matematico, a sua volta deputato solo ad esprimere quantitativamente gli esiti degli esperimenti.

E la natura di cui la fisica dovrebbe essere scienza e teoria? Che fine fa il fenomeno naturale, se tutto il discorso della scienza si chiude nel circolo vizioso di matematica, esperimento e linguaggio? Tenete presente, che alla base di questa possibilità vi è l’autonomizzarsi della tecnica sperimentale, il fatto che l’esperimento tende a divenire l’unico oggetto del sapere scientifico, perdendo il riferimento, che pure gli è logicamente essenziale, al fenomeno naturale che in esso deve essere sottoposto ad esperienza.

Questa tendenza è esemplificata in maniera molto chiara proprio dal discorso che Heisenberg fa in questa conferenza, cercando di riassumere il senso della matematizzazione del linguaggio scientifico. Egli comincia con il notare che l’evoluzione storica dei linguaggi naturali, sorti per la comunicazione interumana e divenuti la base del pensiero, ha opportunamente comportato una non completa definitezza delle parole, la cui polisemanticità è requisito necessario per l’elasticità nel loro uso. D’altra parte, la scienza naturale, che pure “deve essere basata sul linguaggio comune come suo unico mezzo di comunicazione”, ha particolari esigenza di rigidità nell’uso dei concetti: “nella scienza naturale noi cerchiamo di derivare il particolare dal generale, di comprendere il fenomeno particolare in quanto prodotto da semplici leggi generali”, ossia leggi che contengano solo pochi concetti semplici e rigorosamente determinati, ossia ben diversi da quelli propri ai linguaggi naturali. “Perciò i concetti delle leggi generali devono, nella scienza naturale, essere definiti con precisione completa, e ciò può essere fatto soltanto per mezzo dell’astrazione matematica”.

La matematizzazione, dunque, serve in principio a ridurre la ricchezza del linguaggio naturale, affinché questo sia utilizzabile per l’espressione di semplici relazioni generali tra le proprietà degli enti di natura. Sviluppandosi, però, il processo di evoluzione della scienza moderna, si arriva ad una situazione sostanzialmente diversa: “Nella fisica teoretica noi cerchiamo di intendere gruppi di fenomeni introducendo simboli matematici che possono essere messi in correlazione con i fatti, vale a dire con i risultati delle misurazioni. Per i simboli noi usiamo nomi che raffigurino la loro correlazione con la misurazione. I simboli sono così legati al linguaggio. I simboli vengono poi collegati fra loro da un rigoroso sistema di definizioni e assiomi, ed infine le leggi naturali vengono espresse come equazioni tra i simboli. L’infinita varietà di soluzioni di queste equazioni corrisponde allora all’infinita varietà di fenomeni particolari possibili in quel settore della natura. In tal modo lo schema matematico rappresenta il gruppo di fenomeni finché è valida la correlazione fra simboli e misurazioni. È questa correlazione che permette di dare espressione alla leggi naturali nei termini del linguaggio comune, giacché i nostri esperimenti consistenti di azioni e di osservazioni possono sempre venir descritti col linguaggio ordinario” …  o comunque con un “linguaggio scientifico che può esser considerato come una naturale espansione del linguaggio ordinario adattato ai nuovi campi della conoscenza scientifica”.

Questo passo, a mio avviso di estrema importanza, è paradigmaticamente chiaro e ambiguo al tempo stesso. Cosa vi si dice esattamente? Che la ricerca scientifica, cercando di comprendere quello che di volta in volta è l’ambito fenomenico al quale si volge, ossia la regione degli enti che studia, opera introducendo una serie di simboli matematici che rimandano a fatti, ove però questi fatti non sono direttamente gli eventi che accadono in quella regione dell’essere, bensì sono i risultati delle misurazioni. Inoltre, questi simboli possono essere espressi in un linguaggio e precisamente tramite “nomi che raffigurino la loro correlazione con la misurazione”. D’altro canto, lo sviluppo matematico del complesso simbolico del linguaggio teorico, che permette di esprimere le leggi naturali come equazioni tra simboli, dovrebbe rendere descrivibili matematicamente i fenomeni naturali.
Questo però si può affermare solo ritenendo che la misurazione sperimentale sia equivalente al fenomeno o quantomeno fornisca la sua essenza, cosa che effettivamente vale per la scienza moderna. Dunque, una prima premessa inesplicita di questo discorso è che l’essere degli enti di natura consista nella loro commensurabilità. Ammettendo che sia così, però, non si comprende la successiva limitazione della validità del linguaggio teorico alla sola descrizione dell’apparato sperimentale. Heisenberg, infatti, prosegue nel suo discorso assumendo che la matematica spiega i fenomeni naturali, “finché è valida la correlazione tra i simboli e le misurazioni” ed è proprio questa correlazione che permette “di dare espressione alle leggi naturali nei termini del linguaggio comune”, poiché le operazioni sperimentali possono essere descritte con questo linguaggio. Ma, in realtà, se i nomi che diamo ai simboli del linguaggio matematico esprimono la correlazione tra questi simboli e la misurazione, e se d’altro canto la misurazione ci assicura l’essenza del fenomeno, perché allora il linguaggio dovrebbe limitarsi a descrivere l’operazione sperimentale e non potrebbe, invece, parlare direttamente del fenomeno, come si è fatto durante tutto il periodo classico della fisica moderna (e lo stesso Heisenberg, nella prima versione di questa conferenza diceva infatti che i nomi che diamo ai simboli matematici “possono rappresentare, pur entro certi limiti, il contenuto intuitivo dei fenomeni”)? Perché bisogna inventarsi l’operazionismo, insomma? Perché, per fare un esempio, quando si parla di orbita dell’elettrone non ci si riferisce affatto ad una traiettoria curvilinea che dovrebbe seguire l’elettrone girando intorno al nucleo dell’atomo, traiettoria che è anzi messa in discussione, e si intende invece solo fare riferimento al tipo di esperimento che ci permette di dare un valore quantitativo al simbolo matematico al quale abbiamo dato questo nome di orbita?

Poche pagine prima, Heisenberg stesso esprimeva una sorta di perplessità relativamente a questo problema, dicendo che “anche per il fisico la descrizione nel linguaggio comune servirà come criterio per avere una chiara nozione di ciò che si è raggiunto”. Ed aggiungeva: “entro quali limiti è possibile una tale descrizione? È possibile addirittura parlare dell’atomo?” Ma, aggiungiamo noi, se di atomo non si può parlare entro una rigida logica operazionistica, che cosa ha effettivamente raggiunto la fisica moderna sul piano conoscitivo? Come vedremo, Heisenberg ha chiara consapevolezza della tendenza a ridurre gli esiti della scienza al piano tecnico e non a quello conoscitivo, ma resiste a questa riduzione, e conseguentemente resiste anche ad un’accettazione completa dell’operazionismo. È per questo che, durante la conferenza, cita la critica mefistofelica alla logica contenuta nel Faust di Goethe; ed è per questo che, dopo aver in qualche modo giustificato l’atteggiamento dei fisici durante gli sviluppi più recenti di questa scienza, sintetizza la questione in maniera chiaramente problematica e, sostanzialmente, rifiutando la limitazione di principio del linguaggio teorico a espressione rigorosa della pratica sperimentale. Infatti scrive: “Ma i problemi del linguaggio sono qui veramente seri. Noi desideriamo parlare in qualche modo della struttura degli atomi e non soltanto di «fatti» - ad esempio delle goccioline d’acqua in una camera a nebbia o delle macchie nere sopra una lastra fotografica. Ma non possiamo parlare degli atomi servendoci del linguaggio ordinario”.

È dunque chiaro, che Heisenberg rifiuta il mero uso tecnico del linguaggio ed esprime la valenza irriducibilmente conoscitiva della scienza, che vuole effettivamente parlare della natura e non solo costruire nuovi strumenti di misurazione. Ma è anche chiaro che egli vede tutta la problematicità dei rapporti tra matematica e linguaggio, ben al di là della loro semplice esplicazione come forme diverse, l’una simbolica, l’altra nominale, di uno stesso contenuto. Infatti, se le cose stessero così, il discorso matematico sarebbe sempre traducibile in termini linguistici, come però di fatto non avviene. Noi non possiamo parlare degli atomi, poiché se tentiamo di tradurre in termini logici le equazioni matematiche che contengono quanto sappiamo su di essi tramite i nostri esperimenti, abbiamo rappresentazioni o contraddittorie o del tutto oscure. Per esempio, abbiamo un’immagine della luce contemporaneamente ondulatoria e corpuscolare, dunque contraddittoria. Oppure, ci rappresentiamo l’evolvere di certi fenomeni secondo una dinamica che contraddice ai fondamenti logici del nostro linguaggio, per esempio al principio del terzo escluso. In certi casi, poi, la traduzione non può affatto avvenire: qual è, infatti, il significato di una probabilità negativa? O di un’energia infinita? O della radice quadrata di meno uno?

Lo schema matematico, insomma, non può avere una natura puramente logica e rimane sempre in parte impermeabile alla traduzione. Vi è dunque una differenza non del tutto colmabile tra le espressioni matematica e linguistica della teoria, come Heisenberg sostanzialmente dice, descrivendo l’uso pratico del linguaggio tra i fisici: “il concetto di complementarità introdotto da Bohr nell’interpretazione della teoria dei quanta ha incoraggiato i fisici a far uso d’un linguaggio piuttosto ambiguo, a servirsi dei concetti classici in modo alquanto vago in conformità con il principio di indeterminazione, ad applicare alternativamente diversi concetti classici che condurrebbero a delle contraddizioni se usati simultaneamente. Così si parla di orbite elettroniche, di onde di materia e di densità di carica, di energia e di momento, sempre consci del fatto che questi concetti hanno soltanto un limitatissimo campo di applicabilità. Quando questo uso vago ed asistematico del linguaggio conduce a delle difficoltà, il fisico deve ritirarsi nello schema matematico e nella sua non ambigua correlazione con i fatti sperimentali”. Ritirarsi nello schema matematico, però, giusto quanto abbiamo sinora detto, significa in qualche modo rinunciare alla comprensione del fenomeno, accontentandosi della sua producibilità e commensurabilità sperimentali.

Inoltre, giusta la tesi di Heisenberg cui prima accennavamo, ed ossia che la matematica viene introdotta originariamente nel linguaggio scientifico al fine di acquisire il rigore e l’astrattezza nella definizione dei suoi concetti elementari, bisogna allora ipotizzare che, in qualche modo, essa non abbia fatto solo questo, se il risultato storico dell’operazione ha condotto alla situazione tipica della meccanica quantistica, ossia ad una duplicità della logica della teoria scientifica: da un lato la sua logica matematica irrappresentabile, dall’altro la logica linguistica, che dà alcune possibilità di rappresentazione, ma in maniera imprecisa ed approssimativa. Come dice Heisenberg nella prima versione della conferenza: “i fisici, quando parlano di fenomeni atomici, si accontentano di una lingua imprecisa e simbolica; e cercano, come i poeti, di suscitare nella mente dell’ascoltatore, attraverso immagini e paragoni, certe impressioni che portano nella direzione voluta, senza costringerlo attraverso una formulazione univoca ad eseguire con precisione un determinato ragionamento. Il modo di parlare diviene chiaro soltanto quando si usa il linguaggio matematico, della cui correttezza, a giudicare dalle esperienze che abbiamo di fronte, non si può più dubitare”.

Ma, allora, cosa comporta effettivamente la matematizzazione del linguaggio scientifico, se questo è il suo strano risultato? La risposta che Heisenberg prova a dare impostando il discorso sul piano storico dell’evoluzione della scienza moderna, è contenuta in un denso saggio di Oltre le frontiere della scienza, intitolato L’astrazione nella scienza moderna e che riproduce il testo di una conferenza tenuta sempre nel 1960. Il saggio esordisce notando il “grado di astrattezza davvero alienante” raggiunto dalla scienza, “che è compensato solo in una certa misura dai grandi successi pratici che la scienza ha mostrato nelle sue applicazioni alla tecnologia”, tema questo dei rapporti tra scienza e tecnica che come vediamo ritorna frequentemente nelle riflessioni di Heisenberg. L’intento della conferenza, però, era quello di analizzare nei particolari il processo che ha portato a questo eccesso di astrazione, un processo che si afferma subito essere dovuto ad una “spinta interna” e rispondere alla generale tendenza della scienza moderna verso il riduzionismo.

L’astrazione, infatti, è definita come lo strumento che rende possibile “considerare un oggetto o un gruppo di oggetti da un solo punto di vista, tralasciando tutte le altre proprietà”. In tal senso, essa viene considerata anche come generalmente alla base del processo di formazione dei concetti: con un’argomentazione che dimostra chiaramente la familiarità di Heisenberg con la filosofia, ed in particolare assomiglia estremamente alle tesi che il giovane Nietzsche presentava in Su verità e menzogna in senso extramorale, si afferma infatti qui che “la formazione di un concetto presuppone la capacità di riconoscere le somiglianze. Ma siccome nei fenomeni non si dà mai in pratica un’uguaglianza completa, la somiglianza emerge soltanto attraverso il processo di astrazione, cioè prendendo in considerazione uno solo degli elementi e lasciando da parte gli altri” (Nietzsche chiamava ciò il “rendere uguale ciò che non è uguale”, al fine di ricondurre l’ignoto al noto).

Ora, questo processo di riduzione del molteplice al semplice, che implica un distacco dal mondo immediatamente percepibile verso un complesso di strutture di pensiero razionale, che, soprattutto nel caso della matematica, mostrano un singolare potere ordinativo del reale, ha una caratteristica propria che corrisponde alla sua più intima logica, al suo fenomeno originario, come dice Heisenberg parafrasando l’Urphänomen di Goethe: il “dispiegamento di strutture astratte”. Con questa espressione si intende la peculiare autonomia che assumono queste strutture razionali, distaccandosi dalla circostanza nella quale sono nate e sviluppandosi secondo una propria logica: “i concetti inizialmente formati per astrazione da situazioni particolari o da complessi di esperienze acquistano una vita propria” e nel loro ulteriore sviluppo “mostrano un potere ordinatore autonomo, dando luogo alla creazione di concetti e forme nuove”.

Vi è, insomma, una genesi endogena dei concetti, inizialmente derivati per riduzione dal mondo percepito, concetti di secondo grado che corrispondono ad un livello ulteriore dell’astrazione. Sul piano della matematica, questo tipo di sviluppo culmina nella sua forma odierna, “i cui fondamenti”, come dice Heisenberg, “possono essere discussi soltanto con concetti di estrema astrattezza, per i quali sembra aver perduto completamente ogni contatto con le cose dell’esperienza”. Ora, è proprio questo esito del processo di dispiegamento di strutture astratte che può rendere in parte conto dell’intraducibilità della matematica propria alla meccanica quantistica in un linguaggio logicamente coerente e in grado di esprimere rappresentazioni chiare e distinte dei fenomeni atomici. Ma non è solo questo carattere proprio all’evoluzione concettuale della matematica ad essere determinante, poiché insieme ad esso si svolge un processo parallelo e proprio delle scienze naturali, che non sono ovviamente riducibili al loro apparato matematico, un processo di progressiva denaturazione della pratica sperimentale e del rapporto tra matematica ed esperimento.

Se andiamo alle origini della scienza moderna, vediamo che nella sua forma cartesiana per la fisica il nome di un fenomeno ed il corrispettivo simbolo matematico erano perfettamente equivalenti, dal momento che il fenomeno naturale era scritto nell’unica lingua matematica possibile, che rappresentava un perfezionamento del linguaggio scientifico nominale. Si può dire che il processo di matematizzazione della scienza sia dunque inizialmente consistito in una traduzione dei suoi termini in simboli matematici e delle sue leggi in equazioni, formule di simboli. Ciò ha permesso una precisione quantitativa prima impossibile ed ha reso gli strumenti della comunicazione del suo sapere estremamente efficaci, dal momento che il linguaggio matematico è molto più univoco (anche se forse non perfettamente) di quello naturale. Il primum non è dunque, storicamente, la lingua matematica, ma un linguaggio naturale raffinato, che parla di cose e di eventi naturali.

Come si passa da questa concezione, per la quale gli stessi simboli matematici si riferiscono a queste cose e a questi eventi, in quanto ulteriore raffinamento della lingua, all’idea che le formule parlino di esperimenti ed i concetti linguistici siano fondamentalmente inadeguati a renderne il senso? Certamente vi è qui in gioco quel dispiegamento delle strutture astratte proprio dei linguaggi formali, che va di pari passo, però, con la sempre maggiore disponibilità dei fisici a sacrificare il rapporto sensibile con la natura in cambio di un’astrazione sempre più unificante. Questa astrazione, come dicevamo, è raggiunta grazie allo svincolarsi della matematica dalla sua origine intuitiva, dai termini dei quali rappresentava una traduzione. Tutto ciò, trasposto sul piano dei concetti propri alla fisica, significa che la varietà e ricchezza dei fenomeni deve essere soppressa a favore dell’unico punto di vista oramai pertinente, quello della quantificabilità, il che comporta ovviamente una limitazione. Come scrive Heisenberg: “dobbiamo sottolineare la limitatezza di una conoscenza fondata sull’astrazione. Se cominciamo a lasciare da parte molti aspetti importanti in favore dell’unica caratteristica con cui possiamo ordinare i fenomeni, ci limitiamo a ricavare una struttura di base, una sorta di ossatura, che soltanto con l’aggiunta di un gran numero di dettagli può dare un quadro veritiero”.

Rispetto a ciò, il problema, ovviamente, è comprendere in che misura questo intero processo tenda al “quadro veritiero” o non piuttosto a qualcos’altro. Tralasciando per il momento questa questione, sottolineiamo subito che un simile restringersi della prospettiva comporta immediatamente una specializzazione dell’esperimento: non è più possibile un’osservazione ingenua, gli esperimenti sono attentamente progettati ed i fenomeni vanno purificati, isolati, ridotti allo stato di estrema povertà di informazione che permette di prendere in considerazione solo l’aspetto particolare sulla base del quale si tenta di unificarli, cercando di neutralizzare, entro i limiti del possibile, ogni perturbazione. Ed è un procedimento al quale inerisce, anche secondo Heisenberg, non poca violenza: si tratta, infatti, di “sferrare un attacco sperimentale”, tramite il quale “estorcere” informazioni dai fenomeni. Questa logica sperimentale raggiunge un suo limite cruciale proprio negli esperimenti della fisica atomica, ove si guadagna la consapevolezza che la perturbazione, come abbiamo già detto, lungi dall’essere evitabile secondo i principi dell’oggettività empirica, è parte ineliminabile dello stesso esperimento, poiché ogni misurazione è già una perturbazione del fenomeno: “noi dobbiamo ricordare che ciò che osserviamo non è la natura in se stessa, ma la natura esposta ai nostri metodi d’indagine”.

Cerchiamo ora di riassumere quanto detto e di tentare qualche conclusione preliminare intorno al tema del rapporto tra scienza e tecnica. Molto in breve si può dire che nella scienza moderna la matematica svolge sin dall’inizio un ruolo non semplicemente strumentale, quale l’aveva supposto Kant, il quale parlava di essa come organon a priori della scienza, ma viene assunta immediatamente come una «rappresentazione oggettiva» della struttura dei fenomeni. Ciò non crea problemi finché i simboli matematici sono ancora intelligibili come traduzioni dei concetti della scienza naturale che di volta in volta li usa. In questo primo stadio, si comincia col tentativo di «comprendere», anche tramite ipotesi ed in fondo sempre in termini antropomorfici, il fenomeno naturale, comprensione che trova nella matematica solo una formulazione particolarmente esatta, seppur riduttiva. Ma a seguito di quel dispiegamento autonomo delle strutture astratte, di cui parla Heisenberg, la matematica crea concetti e forme autonome, distaccandosi dagli elementi rispetto ai quali era stata chiamata in causa dalla scienza naturale. Essa non ha più alcun rapporto diretto con la realtà, avendo raggiunto un grado di “estrema astrattezza” e formalismo: “le affermazioni matematicamente formulate della fisica, non conoscendo noi la portata dei concetti che in esse occorrono, non sono altro che pitture verbali, con le quali cerchiamo di rendere comprensibili a noi e agli altri le nostre esperienze sulla natura”, i nostri esperimenti. Assunto, però, ontologicamente, che la forma matematica ripeta la forma della realtà, e non sia meramente “isomorfa” al fenomeno, ovvero in grado di prevederlo, è stato metodologicamente possibile usare i nuovi formalismi, di per sé coerenti nell’ambito di una matematica pura, per interpretare – ovvero ridurre alla loro misurabilità e prevedibilità sperimentale – i fenomeni non descrivibili nei termini della scienza classica. E si dà il caso che ciò sia stato frequentemente coronato dal tipo di «successo» che gli compete, consolidando così indirettamente quell’assunzione.
Qual è questo successo? Quello della prevedibilità dei risultati degli esperimenti. Ricordate cosa diceva Heisenberg: il fisico è soddisfatto se possiede lo schema matematico e sa usarlo per interpretare gli esperimenti. Ora, ovviamente quello schema matematico è valido non solo se in base ad esso io so progettare ed eseguire un esperimento, ma se posso anche prevederne gli esiti. È questa concordanza che mi rassicura sulla verità di quello schema, anche se non ho la più pallida idea di cosa esso realmente significhi, ossia anche se nonostante il successo non conosco il suo contenuto fisico.

Ciò deriva dal fatto che, nell’ambito di questa situazione, che può facilmente evolvere verso una tendenza integralmente operazionistica, è passato inizialmente inosservato che molto spesso i nuovi simboli e le nuove funzioni matematiche non erano tutti «ritraducibili» in concetti sensati ed in rappresentazioni coerenti, non rappresentavano più una «comprensione» del fenomeno paragonabile a quella proposta dalle vecchie teorie. Ha contribuito a questo fraintendimento la concomitanza col processo di sempre maggiore sterilizzazione della pratica sperimentale, basata sul fondamento dell’esigenza di verificabilità oggettiva (od intersoggettiva, come suggerisce Popper) di ogni ipotesi, che deve essere messa alla prova appunto solo nella sua capacità di prevedere gli esiti delle misurazioni. Una teoria è valida, dunque, se «rende conto» degli esperimenti progettabili sulla sua base, se le soluzioni delle sue equazioni corrispondono esattamente alle misurazioni possibili. Con ciò, il rapporto del formalismo matematico col «fenomeno reale» o almeno col suo nome è quanto mai aleatorio, ma rimane saldissimo, come ripete ad nauseam Heisenberg, nei confronti dei termini che rendono possibile l’esperimento, ormai suo unico banco di prova. La teoria non comprende più il fenomeno, ma lo prevede, descrive i termini della sua riproducibilità ed è verificata dal successo nel fare ciò.

Con la matematizzazione, dunque, non si è raggiunto solo un maggiore grado di precisione e di astrazione, come si credette e desiderò in principio, ma si è essenzialmente passati da un linguaggio teorico ad un linguaggio tecnico, dal linguaggio della «comprensione» a quello del «progetto sperimentale», rappresentato nella sua forma estrema e quasi grottesca proprio dal “linguaggio operazionista” di Bridgman.

Un’eccellente comprensione e descrizione di questo stato di cose è quella che ha fornito Gaston Bachelard, un filosofo della scienza francese che ha lavorato nella prima metà del novecento ed il cui libro Il nuovo spirito scientifico è giustamente celebre. In esso egli notava che “la vera fenomenologia scientifica è essenzialmente una fenomenotecnica”: è tramite le “manipolazioni metodiche” che il fenomeno è “realizzato dall’esperienza artificiale”, ossia “occorre che il fenomeno sia smistato, filtrato, purificato, colato nello stampo degli strumenti, prodotto sul piano degli strumenti”. In funzione di tale concezione dell’esperimento come produzione strumentale del fenomeno, come tecnica sperimentale di reificazione, il mondo così come è agibile dalla “scienza tecnica” rimane solo come “la nostra verifica: al di sopra del soggetto, al di là dell’oggetto immediato, esso si fonda sul progetto”. È questo, in Bachelard, il nucleo del nuovo spirito scientifico, il suo “realismo tecnico” come “ragione sperimentata”, ossia come matematica euristica che non mostra il reale, ma lo dimostra, lo ricostruisce sui propri schemi, “costruisce un mondo a immagine della ragione”: “il vero ordine della natura è quello che introduciamo tecnicamente in essa”.

Ora, anche Heisenberg comprese e parlò chiaramente di questa circostanza, seppure non sempre in termini assolutamente critici. Egli fu molto esplicito riguardo alla connessione diretta tra matematizzazione, esperimento e tecnica nella scienza moderna, connessione della quale analizzò di frequente i diversi rapporti reciproci: il riconoscimento del carattere fondamentale della forma matematica “può essere visto come l’inizio decisivo della scienza matematica della natura e perciò essere considerato come responsabile delle successive applicazioni tecniche che hanno modificato l’intera immagine del mondo”. Ciò è dovuto, essenzialmente, alla riduzione, di cui parlavamo, dell’ideale classico di una conoscenza matematica oggettiva e del reale, a favore di una conoscenza fondata sugli esperimenti, che si limita alla “concordanza con i particolari dedotti dall’esperienza”. Ma, scrive Heisenberg, “una conoscenza esatta dei particolari è molto utile in pratica. Entro certi limiti mette l’uomo in condizione di guidare i fenomeni secondo la sua volontà. Le applicazioni tecniche della scienza moderna cominciano infatti con la conoscenza esatta dei particolari”. Lo stesso concetto di legge naturale perde, così, in universalità: “la sua importanza non consiste più nella sua generalità, ma nelle sue conseguenze rispetto al particolare. La legge diventa una direttiva per le applicazioni tecniche! La caratteristica più importante della legge di natura consiste adesso nel rendere possibile una previsione sul risultato di un dato esperimento”. Ricollegato al discorso su linguaggio e realtà, ciò non significa altro che “bisogna rinunciare a collegare direttamente col mondo sensibile i concetti fondamentali” della scienza: l’ordine descritto da essi è «provato» solo dalla “tecnica, che da quest’ordine si è sviluppata e che permette agli uomini di asservire ai loro scopi le forze della natura”. L’immagine fornita dalla scienza “si allontana sempre più dalla natura viva. La scienza non tratta più del mondo quale direttamente ci si offre, ma di un oscuro retrofondo di questo mondo, che noi portiamo alla luce con i nostri esperimenti”. Ma l’esperimento, questa chiave di volta che rende possibile la tecnicizzazione, è ad un tempo esso stesso tecnica, tecnica sperimentale, “tecnica perfezionata dell’osservazione” e pratica che necessita di un apparato strumentale tecnicamente sempre più evoluto, ma pur sempre limitante.
Notiamo che, a differenza di Heisenberg, la stragrande maggioranza degli uomini di scienza dei primi del novecento rimase legata all’ideale di una conoscenza oggettiva non solo nel senso della sua verificabilità tecnica, ma anche in quello della sua «corrispondenza» al reale oggettivo, per cui, se il formalismo matematico «funziona», i suoi simboli «devono» corrispondere a qualcosa. Esemplare è una definizione di Einstein: “Se, senza turbare in alcun modo un sistema, si può prevedere con certezza il valore di una quantità fisica, allora esiste un elemento della realtà fisica che corrisponde a questa quantità fisica”, ovvero l’essenza della realtà fisica, la “condizione sufficiente” della sua esistenza, è la quantificabilità univoca soggetta a prevedibilità: misurazione reiterabile e realtà coincidono rispecchiandosi senza residui.

Questa concezione, per cui se la matematica funziona deve avere un contenuto fisico oggettivo, è ovviamente problematica. In primo luogo, essa giustificherebbe la pratica delle «ipotesi ad hoc», quel genere di assunzioni matematicamente coerenti che la fisica classica cercava di rifiutare, nella misura in cui rimanevano al di fuori dell’empiricamente constatabile.
Si ha un’ipotesi ad hoc quando si introducono elementi non conosciuti in forma tale da poterne derivare conseguenze conosciute e non ancora spiegate nei termini noti. Giusta la tesi einsteiniana, allora, funzionando questo tipo di deduzione, quegli elementi che abbiamo introdotto devono significare qualcosa nella realtà: il problema fondamentale è che, per dedurre una serie di conseguenze, io posso formulare diversi complessi di premesse altrettanto funzionali, ma contraddittorie tra loro e non ho in questo principio della consistenza fisica della matematica alcun criterio utile per discriminare tra queste diverse premesse. Un classico caso di ipotesi ad hoc, per esempio, è il concetto di etere: qualcosa di non empiricamente constatabile, ma che consentiva un ordinamento economico delle conoscenze che si avevano nel campo dell’ottica o del magnetismo e che, valida la prospettiva suddetta, dovrebbe avere una realtà fisica, cosa cui non crede più nessuno.

Oltre a ciò, però, bisogna notare che nella scienza naturale contemporanea si va molto al di là di questo tipo di ipotesi: se, come abbiamo visto, la matematica non ha più come suo referente il fenomeno, ma solo le misurazioni e se il suo compito è considerato quello di rendere conto di queste misurazioni, di poterle dedurre da un sistema assiomatico di equazioni, è comprensibile che presto sorgano, come in effetti sono sorte, delle vere e proprie «matematiche ad hoc», ovvero formulazioni ottimizzate allo scopo dichiarato di fornire certi risultati già misurati, di “far corrispondere le nostre equazioni all’esperienza fisica sottostante”, come afferma caratteristicamente Bridgman, nella fiducia che si potesse correggere, questa volta, la matematica sulla natura e sempre grazie al presupposto dell’omogeneità della loro struttura. Comprendete come funziona questo processo? In realtà, si tratta di trovare formulazioni matematiche o geometriche tali da rendere un complesso di misurazioni, per esempio quelle della spettrografia, deducibili da un unico schema matematico: in fondo, quello che ha fatto Bohr con il suo modello dell’atomo e con le singolari assunzioni matematiche sul quale si fonda, per esempio il principio della non-commutazione di certi prodotti. Insomma, tanto certe teorie matematiche come quella degli insiemi o delle matrici, quanto le varie geometrie non euclidee, ossia formulazioni che andavamo molto al di là dell’ideale ottocentesco di perfezione e compiutezza della matematica, poterono essere usate alternativamente o insieme ai modelli precedenti, perché più utili a svolgere un lavoro di ordinamento delle esperienze. Ma se la matematica si dimostra così modificabile, in qualche modo a piacere, che senso può avere l’assunto che in essa riposi la struttura della realtà oggettiva?

In effetti, ciò che non si è rilevato inizialmente è che ormai è solo sull’esperimento, sulla misurazione tecnica, e non sulla natura, che si plasma la matematica, che così diviene uno strumento sempre più malleabile e funzionale, che va molto al di là della matematica strumentale kantiana, che conservava un carattere aprioristico. Nella forma contemporanea, infatti, la matematica viene adattata alle misurazioni a posteriori e non funge da schema stabile e dato del loro ordinamento. In un primo momento, dunque, l’evoluzione autonoma della matematica in fisica nel senso del dispiegamento delle strutture astratte, che Kant avrebbe stigmatizzato come un suo uso speculativo, favorisce la tecnicizzazione del linguaggio scientifico, ma alla fine, dal momento che il primum rimane pur sempre il linguaggio, è essa stessa a subire un’analoga tecnicizzazione. Col compimento di questo processo, la «comprensione» scientifica diviene un concetto assolutamente privo di senso, la tecnicizzazione è totale, le formule cessano di essere simboli e di avere un senso e divengono puri mezzi di calcolo, ovvero di progettazione, la matematica, da scienza pura e perfetta, diviene «macchina calcolatrice».

Cerchiamo ora di ritornare al nostro problema di partenza, che possiamo formulare qui in questo modo: se il fisico atomico, di fronte alle difficoltà proprie all’espressione del contenuto fisico della sua teoria, ha sempre disponibile la via d’uscita dello schema matematico, da un lato, e del linguaggio operazionale, dall’altro, perché invece Heisenberg insiste tanto sull’uso del linguaggio della fisica classica, che poi, in fondo, è solo un uso più specializzato del linguaggio naturale? La prima risposta, che Heisenberg ripete molto frequentemente, e che abbiamo sottolineato già diverse volte, è che i concetti della fisica classica formano il linguaggio per mezzo del quale descriviamo la preparazione dei nostri esperimenti e ne esprimiamo i risultati. Ma questa è una risposta molto vicina all’operazionismo e abbiamo già notato come sia, tutto sommato, poco in sintonia con le autentiche intenzioni di Heisenberg. Associata al principio della fuga nello schema matematico, configurerebbe una stranissima relazione tra matematica e linguaggio, anzi una sostanziale mancanza di relazione, poiché la matematica sembrerebbe parlare degli enti, mentre il linguaggio solo degli esperimenti. Ma come diceva Heisenberg, il fisico vuole parlare degli atomi e non solo dei fatti sperimentali.

A questo punto, l’unica soluzione che rimane per cercare di conciliare queste concezioni è intendere la struttura obbligatoriamente classica del linguaggio deputato a parlare degli esperimenti non come principio di limitazione ad un uso operazionistico del linguaggio scientifico tout court, ma come ciò che ci costringe ad esprimere scientificamente le nostre conoscenze sul mondo atomico in un linguaggio evidentemente indeterminato e parziale. Ed è proprio questa la singolare conclusione della scuola di Copenaghen, questo il senso delle “pitture verbali” cui si affida per esprimere i proprio risultati, o il senso del “linguaggio matematico artistico”, che in un altro luogo viene invocato da Heisenberg. Ovviamente, una posizione del genere può essere sostenuta solo sulla base di una notevole consapevolezza filosofica sui limiti, in generale, del linguaggio, ma anche sulle sue potenzialità ulteriori a quelle del rigore e della precisione quantitativa: la fuga nello schema matematico, insomma, è valida solo quando viene richiesta un’espressione rigorosamente oggettiva della teoria, ma è del tutto insufficiente, quando si cerca di comprenderne il senso. Questo non può essere fatto nei termini di un linguaggio scientifico rigoroso, delimitato com’è per sua natura da certi principi di ordine metafisico, come appunto quello dell’oggettività, che risultano contraddittori con la conoscenza che si è acquisita sulla natura dell’atomo. Scrive infatti Heisenberg: “negli esperimenti sugli eventi atomici noi abbiamo a che fare con cose e fatti, con fenomeni che sono esattamente altrettanto reali quanto i fenomeni della vita quotidiana. Ma gli atomi e le stesse particelle elementari non sono altrettanto reali; formano un mondo di possibilità e di potenzialità, piuttosto che un mondo di cose e di fatti”.

Come vedete, questo frequente rimando alla potentia, alla dynamis aristotelica, ha una funzione davvero centrale nel costrutto teorico, fisico-filosofico di Heisenberg: in un certo senso, infatti, egli può uscire dai limiti di ciò che la scienza moderna può ammettere come legittimo e rigoroso, solo tramite un’affermazione consapevolmente filosofica intorno all’ambito del reale cui si interessa come scienziato. Un’affermazione filosofica che non viene intesa come deduzione dalle acquisizioni scientifiche, che nella loro purezza, anzi, hanno del tutto perso la possibilità di predicazioni logiche coerenti e conclusive intorno al proprio oggetto. È anzi proprio il ricorso ad un diverso logos, che può salvare lo scienziato, come uomo che tende al sapere e non solo all’applicabilità tecnica di certi procedimenti sperimentali, dandogli un punto di riferimento nella sua ricerca intorno alla natura.

Ma per comprendere la portata di questo ricorso alla filosofia nella teoria dei quanta, dobbiamo tornare brevemente alla descrizione della sua struttura scientifica, quindi riprendere la descrizione che ne dà Heisenberg in quel saggio sull’interpretazione della scuola di Copenaghen, con il quale abbiamo introdotto questo lungo excursus su matematica e linguaggio. Di questo saggio avevamo presentato solo le due tesi centrali del primo paragrafo ed ossia che ogni esperimento deve essere descritto nel linguaggio della fisica classica, ma d’altra parte il principio di indeterminazione pone dei limiti all’applicabilità dei concetti della fisica classica, ossia alla loro capacità di esprimere compiutamente il contenuto fisico che gli esperimenti indagano. Eppure, per l’espressione di questo contenuto non vi è una terza via, è di fatto necessario accontentarsi dell’espressione imprecisa che ci consentono quei concetti, se non si vuole perdere il significato fisico degli esperimenti. In parole povere, se riteniamo che in effetti l’esperimento ci insegni qualcosa sulla natura, non possiamo pretendere che questo qualcosa vada espresso con una lingua, o ancor peggio una logica, sostanzialmente differente di quella che usiamo per gli esperimenti. Il che non toglie, anzi finisce per implicare, che il risultato così raggiunto non possa essere ontologicamente in contraddizione con le premesse metafisiche della moderna scienza sperimentale, come peraltro già traluce dalla rinuncia al determinismo. Comporta solamente un uso consapevolmente condizionato del linguaggio fisico classico, permettendo peraltro il ricorso legittimo ad un discorso non meramente scientifico per l’interpretazione della teoria dei quanta.

Sulla base di questi assunti, vediamo ora come si sviluppa nel suo proseguo questo importante saggio. Heisenberg ritiene utile, per la comprensione del paradosso di fondo, confrontare i procedimenti di interpretazione teoretica degli esperimenti in fisica classica e quantistica. Nella meccanica newtoniana, si parte misurando le grandezze fisiche relative a posizione e moto del corpo, per poi tradurre queste misurazioni in termini matematici, e precisamente nei valori delle variabili canoniche. Raggiunta questa definizione dello stato del sistema, si applicano le leggi del moto per derivare dalle variabili canoniche in un certo tempo i valori delle proprietà primarie del sistema in ogni tempo, acquisendo dunque la capacità di prevedere la dinamica del sistema.

Di contro a questo sviluppo ideale della conoscenza di un fenomeno nella fisica classica, nella teoria dei quanta il procedimento è differente. Qui, le grandezze fisiche dell’oggetto che si vuole studiare si possono ancora determinare, con diversi e alternativi sistemi, ma in linea di principio mai precisamente, a causa del principio di indeterminazione, che però, affianco a questo suo momento negativo, svolge la funzione costruttiva di permettere una formulazione matematicamente rigorosa della situazione sperimentale. È, infatti, proprio assumendo la limitazione di principio formalizzata nelle relazioni di incertezza, che si può sviluppare uno schema matematico, nella forma di una funzione di probabilità, che descriva la situazione sperimentale al momento della misurazione.

Ora, come si comprende, questa funzione di probabilità non contiene solo le proprietà del sistema, come avveniva in meccanica classica, ma anche considerazioni quantitative intorno alle limitazioni legate al processo di misurazione, tanto a quelle previste dal principio di indeterminazione, quanto a quelle puramente soggettive, derivanti da semplici imprecisioni nella determinazione dei valori (e quindi, in linea di principio, eliminabili). Heisenberg esprime ciò dicendo che la funzione di probabilità rappresenta in parte un dato di fatto e in parte la nostra conoscenza di un dato di fatto. E la parola «fatto», se ricordate l’accezione nella quale Heisenberg la usa, non significa l’evento atomico in sé, ma sempre e solo la sua determinazione sperimentale. Per questo qui si assume che il fatto sia la situazione iniziale dell’oggetto fisico così come essa può essere perfettamente misurata entro i limiti del principio di indeterminazione, mentre la nostra conoscenza del dato di fatto comprende le ulteriori imprecisioni nella misurazione.
È molto importante capire questa distinzione, per quanto appaia un po’ arzigogolata. In realtà, però, è  proprio su di essa che riposa la maggiore differenza tra i due tipi di formalizzazione. Ciò che è veramente determinante, è che le relazioni di incertezza derivanti dal principio di indeterminazione non siano comprese nella nostra conoscenza del dato di fatto, nella quale rientrano le normali relazioni di incertezza, quelle dovute all’imprecisione di fatto della misurazione, ma nel fatto stesso. Il fatto, dunque, ossia la determinazione sperimentalmente perfetta, in linea di principio, delle grandezze atomiche, ha in sé una necessaria indeterminazione, alla quale poi si può aggiungere, e di regola si aggiunge, quella legata all’imperfezione contingente del processo di misurazione. Conseguentemente, anche il mero fatto non descrive oggettivamente il fenomeno atomico, ma rappresenta sempre e solo l’oggetto misurato. Ammettendo di poter svolgere l’osservazione in maniera perfetta, insomma, nella fisica classica essa ci fornirebbe le grandezze oggettive del fenomeno e dunque la sua piena determinazione di fatto, valida del tutto a prescindere dall’avvenuta misurazione, mentre in fisica quantistica dovremmo accontentarci comunque della misurazione oggettiva del fenomeno, e non del fenomeno in sé, una misurazione oggettiva che, a causa del principio di indeterminazione, non può dare un’immagine perfettamente determinata dell’oggetto.

Conseguentemente, noi possiamo affermare che, laddove la fisica sia concepita come teoria dell’empiria, il principio di indeterminazione ha un contenuto fisico e non solo euristico. E ciò è dimostrato proprio dal fatto che le equazioni di tipo classico, anche laddove le si volesse esprimere in maniera ancor più rigorosa facendovi rientrare le imprecisioni della misurazione e dunque assumendo per valori iniziali non quantità precisamente date, bensì distribuzioni di probabilità, assumerebbero solo esteriormente la forma della funzione di probabilità quantistica, che però non avrebbero mai integralmente, mancando del tutto in esse la “necessaria incertezza” dovuta al principio di indeterminazione, un’incertezza che non concerne il modo in cui si svolge la misurazione, ma è intrinseco alla misurazione stessa, e dunque è intrinseco al fatto, se, come dicevamo prima per “fatto” non si intende più l’evento in sé, ma sempre il fenomeno sottoposto ai nostri mezzi di osservazione.

Ora, questa differenza sostanziale della funzione di probabilità della meccanica quantistica rispetto alle equazioni classiche del moto è in qualche modo compensata dalla profonda analogia che, nonostante tutto, permane tra le due formulazioni. Infatti, nota Heisenberg, “quando la funzione di probabilità è stata determinata al momento iniziale dell’osservazione, è possibile dalle leggi della teoria dei quanta calcolare la funzione di probabilità per ogni tempo successivo e quindi la probabilità di una misurazione che dia un valore specifico della quantità misurata”. Questo passo è molto singolare ed importante: in esso, in qualche modo, si enuncia di nuovo il determinismo nell’evoluzione della funzione di probabilità. Infatti, la sua determinazione in un certo momento è sufficiente a determinarne i valori in ogni momento successivo: la probabilità si evolve come una traiettoria. Il quadro teorico, però, è mutato completamente rispetto al determinismo classico, per il quale era il fenomeno ad essere determinato. Qui, invece, determinata è solo la probabilità di misurare certi valori dopo un certo periodo di tempo. Ciò deriva dal fatto che la determinazione della funzione di probabilità non è concepita come la determinazione di uno stato iniziale del sistema: lo stato iniziale, qui, è concepito esplicitamente come “momento iniziale dell’osservazione”. La misurazione, dunque, è pienamente assorbita all’interno del fenomeno che si vuole determinare e conseguentemente il determinismo con il quale si sviluppa matematicamente la funzione di probabilità in accordo con le leggi quantistiche del moto non è determinazione dell’evento reale, ma sempre delle misurazioni dell’evento: ciò che è determinato è la probabilità di misurare certi valori, e non una certa determinatezza quantitativa del sistema in sé. Ed infatti Heisenberg aggiunge: “bisognerebbe sottolineare che la funzione di probabilità non rappresenta di per sé un corso di eventi svolgentisi nel corso del tempo. Rappresenta soltanto una tendenza per gli eventi e per la nostra conoscenza di essi”, ove ovviamente le due cose vanno considerate insieme. E continua, con un argomento ancora più importante: “La funzione di probabilità può essere connessa con la realtà soltanto se si adempie una condizione essenziale: se vien fatta una nuova misurazione per determinare una certa proprietà del sistema. Soltanto allora la funzione di probabilità ci permette di calcolare il risultato probabile della nuova misurazione. Il risultato della misurazione sarà ancora espresso in termini di fisica classica”.

Come vedete, è presentato qui un evidente dualismo nella formulazione della teoria: la funzione di probabilità, che si evolve in termini rigorosamente legali, deterministici e reversibili, associa valori ai possibili esiti delle misurazioni, ma questi esiti stessi, nella misura in cui in essi si verifica una certa possibilità e dunque si sceglie tra tutte le possibilità espresse nella funzione di probabilità, hanno un’espressione diversa, analoga a quella della meccanica classica. Conseguentemente, Heisenberg distingue tre stadi nell’interpretazione teoretica di un esperimento:

  • la traduzione della situazione sperimentale iniziale in una funzione di probabilità: ossia, in base al tipo di osservazione prevista ed al suo oggetto, si scrive una funzione che coordina le leggi del moto quantistico, le grandezze atomiche che si considerano e le relazioni di incertezza, una formula che determina le probabilità di misurare certi valori per quelle grandezze.
  • l’accompagnamento della funzione lungo il corso del tempo: il che non significa altro che l’applicazione delle stesse leggi del moto per stadi successivi del sistema complessivo considerato, ossia il calcolo delle probabilità per momenti temporali successivi.
  • la determinazione di una nuova misurazione del sistema, il cui risultato può essere calcolato dalla funzione di probabilità.

Nel primo stadio, la grandezza fisica effettivamente misurata sarà nota entro i limiti di incertezza stabiliti dal principio di indeterminazione. Nel secondo, avremo una formulazione statistica relativa alla probabilità di rinvenire certi valori per la misura della stessa grandezza in un momento successivo. Nel terzo momento avremo la determinazione effettiva di questo valore, che dunque non è più pari a quell’ampiezza di probabilità. La cosa notevole è che, come scrive Heisenberg, “non vi è alcuna descrizione possibile di ciò che accade al sistema tra l’osservazione iniziale e la nuova misurazione. È soltanto nella terza fase che passiamo di nuovo dal «possibile» al «reale»”. E poi: “può essere certo allettante dire che l’elettrone deve essere stato in qualche posto fra le due osservazioni e che perciò deve aver descritto un certo percorso, o un’orbita, anche se può risultare impossibile sapere quale sia. Nella fisica classica questo sarebbe un argomento ragionevole. Ma nella teoria dei quanta costituirebbe un uso improprio di linguaggio, che non può essere giustificato”.

Ma cerchiamo di capire meglio, sempre sulla scorta di questo scritto, per quali motivi il tentativo di descrivere il contenuto fisico della funzione di probabilità non può essere portato a termine alla maniera della fisica classica, ossia tramite una rappresentazione oggettiva dell’evento atomico. Ricordiamo in primo luogo che la funzione di probabilità non comprende solo i caratteri determinanti l’evento, ma anche quelli costitutivi della misurazione. E la misurazione è condizionata dal principio di indeterminazione, ossia dall’impossibilità di una definizione contemporanea di tutte le grandezze che descrivono un sistema. Ciò trova espressione, peraltro, anche nella possibilità di avere immagini complementari dello stesso fenomeno: in particolare, oltre che come particella, noi possiamo considerare l’elettrone come un’onda di materia. E solo il principio di indeterminazione, questa la tesi di Heisenberg, consente questa complementarità, poiché esso assicura, in buona sostanza, la possibilità di scegliere, entro certi limiti, il modo in cui vogliamo considerare, e dunque misurare, un certo evento.

Ossia, per quanto la concezione particellare e quella ondulatoria si escludano reciprocamente, esse possono completarsi, proprio perché quando scegliamo un certo ordine di grandezze, per il principio di indeterminazione rimangono indeterminate le grandezze complementari e dunque non insorgono contraddizioni. E così Heisenberg può dire che “servendoci di entrambe le raffigurazioni, passando dall’una all’altra per ritornare poi alla prima, otteniamo infine la giusta impressione dello strano genere di realtà che si nasconde dietro gli esperimenti atomici”.

Badate bene che siamo noi a passare dall’una all’altra rappresentazione, e non l’oggetto stesso, poiché in realtà è il modo in cui intendiamo osservarlo che lo determina parzialmente secondo l’immagine corpuscolare o quella ondulatoria, o anche, secondo la posizione o la velocità. Per quanto ne possiamo sapere, però, l’evento atomico non è determinato nell’uno o nell’altro modo alternativamente o contemporaneamente, bensì rappresenta una situazione di potenzialità a venir determinato nell’un senso o nell’altro. Entrambi i modi, dunque, sono corretti ma incompleti, esclusivi ma complementari. E di questo singolare principio di complementarità Bohr ha fatto un uso estremamente vario e vasto, anche ben al di là delle questioni proprie alla meccanica quantistica. Di un simile uso allargato del principio vi è però anche in questo testo un esempio molto importante: infatti, Heisenberg si appella proprio alla complementarità per definire i rapporti tra i due tipi di formalismo matematico che trovano uso nella teoria. Egli infatti sostiene che, così come la determinazione della posizione di una particella è complementare a quella della sua velocità, tanto che conoscendo molto precisamente la prima perdiamo precisione nella conoscenza della seconda, allo stesso modo la descrizione spazio-temporale del sistema è complementare alla sua descrizione deterministica. Ossia, la determinazione precisa di uno stato del sistema non consente la precisa descrizione della sua evoluzione nel tempo e viceversa. Queste due possibilità corrispondono esattamente da un lato alla funzione d’onda o probabilistica, dall’altro al suo collasso nell’esito della misurazione. La funzione d’onda rappresenta, dal canto suo, l’evoluzione deterministica del sistema: come abbiamo infatti detto essa descrive la probabilità in termini di traiettoria, la cui evoluzione è del tutto determinata dalle leggi quantistiche del moto. Essa però non descrive una situazione istantanea determinata spazio-temporalmente, per raggiungere la quale vi è bisogno della misurazione, che però spezza la continuità della funzione d’onda poiché interviene nel sistema e lo modifica. Come nel caso precedente, però, non vi è contraddizione tra i due formalismi: lo schema matematico nel suo complesso si dimostra altamente flessibile, ammettendo tanto un’espressione analoga a quella hamiltoniana, dunque con equazioni del moto relative alle due variabili coniugate per la posizione e il momento delle particelle, tanto equazioni d’onda, formulazioni che possono essere facilmente ritrascritte tramite semplici trasformazioni matematiche.

Assodato tutto ciò, rimane il problema che la non contraddittorietà e complementarità dello schema matematico nella sua dualità non assicura comunque la descrivibilità in termini logici dell’evento fisico: noi possiamo descrivere esattamente ciò che avviene durante la misurazione, ma non l’evoluzione del sistema tra due misurazioni. E questo conferma proprio che l’osservazione ha una funzione assolutamente decisiva per l’evento che la teoria descrive, tanto che Heisenberg può dire che “la realtà varia a seconda che noi l’osserviamo o no”. Ed è per questo motivo che lo stesso Heisenberg torna spesso a sottolineare l’importanza dell’operazione sperimentale, che nel contesto di questo capitolo descrive nei particolari: in primo luogo, l’apparato sperimentale va descritto nei termini della fisica classica. Questa descrizione, poi, insieme ad un’eventuale prima misurazione, va tradotta in una funzione di probabilità, ossia in un’espressione matematica che “combina affermazioni circa possibilità o tendenze con affermazioni sulla nostra conoscenza dei fatti”, cioè appunto sulle condizioni dell’osservazione. La funzione di probabilità, a sua volta, evolve nel tempo in maniera continua e determinata, ma non rappresenta un corrispondente andamento del sistema, quanto l’andamento delle probabilità di osservare certe situazioni in ulteriori misurazioni. E questa probabilità, come abbiamo già accennato, è intesa esplicitamente da Heisenberg non come mera ricorrenza statistica, bensì come espressione di una tendenza oggettiva del reale a manifestarsi, a date condizioni, in un certo modo, tendenza oggettiva perché indipendente, in questo secondo stadio, dall’osservazione. Ma quando si passa all’effettiva osservazione, il cui esito deve essere prevedibile statisticamente dalla teoria, il sistema viene nuovamente a contatto con l’apparato sperimentale, il che comporta che “l’equazione del moto per la funzione di probabilità deve ora contenere l’influenza dell’interazione con lo strumento di misurazione” e, con essa, di nuovo tutta l’indeterminazione a ciò connessa. La prima funzione di probabilità, dunque, è mutata, ed in maniera discontinua, a seguito dell’osservazione, la quale “sceglie tra tutti gli eventi possibili quello che realmente ha avuto luogo”, ed è proprio sulla base di questa circostanza che Heisenberg ritiene giustificato il concetto di “salto quantico”, valido almeno per quanto riguarda la nostra conoscenza della natura.

A prescindere da ciò, però, è importante notare che la seconda funzione d’onda non contiene una descrizione di ciò che è avvenuto, nel frattempo, nel sistema, ma solo una rideterminazione delle grandezze fisiche e l’espressione delle nuove probabilità per un’ulteriore misurazione. Dopo l’osservazione, insomma, siamo di fronte ad un nuovo fenomeno, per il quale vale, tutto sommato, esattamente quanto valeva per il primo. È questo che intende dire Heisenberg quando parla del passaggio, tramite l’osservazione, dal possibile al reale, dalla funzione di probabilità alla descrizione della misurazione, descrizione che, però, pur mutando in maniera discontinua la funzione d’onda e determinando certe grandezze, non oggettiva il corso del fenomeno, ma può servire solo da un lato per verificare la prima funzione, dall’altro per scriverne una nuova, ossia per ripassare alla possibilità.

Questa descrizione della struttura matematica della teoria dei quanta è sufficiente a concludere il discorso sullo statuto di questa branca della scienza della natura: tramite essa, noi abbiamo un’idea del modo in cui Heisenberg e la scuola di Copenaghen cercano di salvare il contenuto fisico della teoria, pur rimanendo all’interno delle limitazioni che le sono proprie, ossia rifiutando il ricorso all’ipotesi ad hoc delle variabili nascoste.

Come si riesce a salvare il contenuto fisico di una teoria che non ammette una descrizione coerente e completa di esso? Abbiamo visto che le vie possibili sono sostanzialmente tre: la limitazione di principio al formalismo matematico, considerato come verità della natura, ma una verità del tutto irrappresentabile e dunque, latamente, sovrumana. Questa è la possibilità verso cui tende Einstein. Una possibilità che si basa sull’assunto metafisico dell’oggettività della natura per un intelletto divino. Essa salva tutte le caratteristiche fondamentali della fisica classica (principio di oggettività, di causalità, determinismo, etc.), ma in quanto postulati della ragion pura. Dio non gioca a dadi, anche se poi non sappiamo effettivamente a che gioco giochi. Almeno nella sua mente, però, esiste la verità eterna del mondo. Questa posizione, dunque, si fonda su un ideale di conoscenza pura.

La seconda possibilità è quella dell’operazionismo, per il quale il significato del linguaggio teorico si risolve nella descrizione dell’apparato tecnico e delle procedure sperimentali. Anche in questo caso, la natura viene persa di vista, per quanto non retroceda nell’enigma della struttura matematica ipercomplessa del cosmo, bensì venga sostituita dal progetto sperimentale. Questa possibilità è precisamente quella per la quale vale nella maniera più completa e precisa la definizione di Heidegger della scienza come tecnica e della matematica come espressione pura del pensiero calcolante. La verità qui non ha alcuno spazio, né la conoscenza come teoria: importa solo la riduzione, già sul piano teorico, dell’ente a fondo.

La terza possibilità è quella della scuola di Copenaghen: qui il linguaggio parla della natura, ma non riesce mai ad afferrarla pienamente, sia perché è un linguaggio storicamente condizionato; sia perché – e questo è veramente decisivo – la natura stessa resiste ad una descrizione univoca nei termini della logica umana. In quanto ente da natura, ovviamente, l’uomo ha un contatto con essa, ma questo contatto non è immediato, quindi la teoria non può mai essere pura. D’altro canto, non vi è altro accesso che quello del linguaggio, se non altro perché la scienza deve essere comunicabile. Ricordiamo le parole di von Weizsäcker, che secondo Heisenberg descrivono nel modo più preciso la situazione: “la natura è prima dell’uomo, ma l’uomo prima della scienza naturale”. E conseguentemente, Heisenberg può scrivere che: “non c’è un sicuro punto di partenza per le vie che conducono a tutti i campi dello scibile, ma ogni conoscenza è sospesa in certo modo sopra un abisso senza fondo; dobbiamo sempre cominciare da qualche punto di mezzo, parlare della realtà con termini che solo col loro uso acquistano a poco a poco un senso più preciso, e anche i sistemi concettuali più precisi, rispondenti a tutte le esigenze dell’esattezza logica e matematica, non sono che tentativi per orientarci a tastoni in limitati campi della realtà”

Tutte e tre le posizioni hanno un che di kantiano: ossia ragionano in termini di condizioni dell’esperienza possibile e presentano i criteri di una limitazione di principio: nel primo caso, l’esperienza è esprimibile solo in termini matematici, che dal canto loro non ammettono più alcuna rappresentabilità. Nel secondo caso, la matematica tende a divenire mero strumento e l’esperienza si limita alla riproducibilità tecnica. Nel terzo caso, l’esperienza è possibile solo intervenendo sulla natura, e dunque lo schema matematico contiene irrimediabilmente questo elemento di perturbazione, che ha in qualche modo un carattere aprioristico, se non altro in senso relativo come antropomorfico. Questo elemento antropomorfico, che è non solo limitazione, ma anche condizione della scienza naturale, è legato al linguaggio e alla prassi. E il linguaggio è inteso esplicitamente in senso duplice: come mezzo di comunicazione e intesa tra gli uomini, ma anche come forma del pensiero e, in quanto tale, come struttura ideale. Questo legame, insieme al linguaggio e alla prassi, è ciò che, nell’intenzione di Heisenberg salva la fisica dal divenire pura tecnica, come egli chiarisce nei suoi dialoghi con Heidegger. Una testimonianza importante di questi dialoghi, e di come Heidegger finisse per tenere conto delle posizioni di Heisenberg, c’è la può dare una lettera di Heidegger a Pöggeler, nella quale, riferendosi proprio ad una conversazione intrattenuta con Heisenberg, ammette di aver «allontanato la domanda positiva riguardo l’idea e di aver determinato negativamente anche il matematico», non rendendogli, in tal modo, giustizia. Da ciò, appare evidente che la posizione di Heisenberg si volgesse sempre più ad una determinazione del contenuto ideale, e dunque della natura linguistica, della matematica e della fisica. A conferma di ciò, ritroviamo in una lettera di Heisenberg a Heidegger del 1962, in occasione del suo ottantesimo compleanno, la affermazione che la scienza naturale, di fatto, interpreta il mondo secondo idee; la “scrittura per immagini” sarebbe solamente divenuta ancora più astratta. Bildschrift, questo è ciò cui ancora la fisica quantistica tende, almeno nelle intenzioni del suo più grande rappresentante.

Questo tipo di impostazione, fortemente filosofica, comporta dunque una collocazione della fisica moderna all’interno della tradizione occidentale differente da quella proposta da Heidegger, una posizione che, nelle riflessioni di Heisenberg, si trova definita soprattutto in relazione alla prima filosofia greca e a Platone, con una presa netta di distanza da Cartesio e dall’empirismo. Rispetto alla filosofia moderna, la posizione che, tutto sommato, risulta essere più compatibile è quella di un kantismo riformato nel senso di un’accezione debole del concetto di apriori.

 

Fonte: https://www.docenti.unina.it/downloadPub.do?tipoFile=md&id=80088

Sito web da visitare: https://www.docenti.unina.it

Autore del testo: non indicato nel documento di origine

Il testo è di proprietà dei rispettivi autori che ringraziamo per l'opportunità che ci danno di far conoscere gratuitamente i loro testi per finalità illustrative e didattiche. Se siete gli autori del testo e siete interessati a richiedere la rimozione del testo o l'inserimento di altre informazioni inviateci un e-mail dopo le opportune verifiche soddisferemo la vostra richiesta nel più breve tempo possibile.

 

Microscopio di Heisenberg

 

 

I riassunti , gli appunti i testi contenuti nel nostro sito sono messi a disposizione gratuitamente con finalità illustrative didattiche, scientifiche, a carattere sociale, civile e culturale a tutti i possibili interessati secondo il concetto del fair use e con l' obiettivo del rispetto della direttiva europea 2001/29/CE e dell' art. 70 della legge 633/1941 sul diritto d'autore

Le informazioni di medicina e salute contenute nel sito sono di natura generale ed a scopo puramente divulgativo e per questo motivo non possono sostituire in alcun caso il consiglio di un medico (ovvero un soggetto abilitato legalmente alla professione).

 

Microscopio di Heisenberg

 

"Ciò che sappiamo è una goccia, ciò che ignoriamo un oceano!" Isaac Newton. Essendo impossibile tenere a mente l'enorme quantità di informazioni, l'importante è sapere dove ritrovare l'informazione quando questa serve. U. Eco

www.riassuntini.com dove ritrovare l'informazione quando questa serve

 

Argomenti

Termini d' uso, cookies e privacy

Contatti

Cerca nel sito

 

 

Microscopio di Heisenberg