Filosofia della scienza

Filosofia della scienza

 

 

 

I riassunti , gli appunti i testi contenuti nel nostro sito sono messi a disposizione gratuitamente con finalità illustrative didattiche, scientifiche, a carattere sociale, civile e culturale a tutti i possibili interessati secondo il concetto del fair use e con l' obiettivo del rispetto della direttiva europea 2001/29/CE e dell' art. 70 della legge 633/1941 sul diritto d'autore

 

 

Le informazioni di medicina e salute contenute nel sito sono di natura generale ed a scopo puramente divulgativo e per questo motivo non possono sostituire in alcun caso il consiglio di un medico (ovvero un soggetto abilitato legalmente alla professione).

 

 

 

 

Filosofia della scienza

COMPRENDERE COS’E’ LA FILOSOFIA DELLA SCIENZA
Che cos’è la filosofia della scienza? Quali metodi d’indagine adotta, per la chiarificazione di quali oggetti? Quale è il suo compito? Che tipo di sapere può essere, un sapere che fa convivere in sé le due espressioni del pensiero umano che la tradizione ci ha consegnato come inconciliabilmente contrapposte, ossia la scienza come sapere positivo che basa la sua identità su un rapporto privilegiato con l’esperienza empirica, e la filosofia come purezza del pensiero razionale, metafisica, non-scienza?
A tutte queste domande sarebbe  possibile e lecito rispondere, dando una ‘definizione’ di filosofia della scienza. Ogni domanda essenziale, sul che cosa delle cose, sembra richiedere implicitamente la necessità di una risposta come atto definitorio. Per ‘definizione’ si intende la stabile messa in forma di un certo ambito dell’ente, la determinazione dei caratteri distintivi di una cosa, configurandone l’essere e oggettivandola come ‘questa cosa’ che ci è di fronte,  che possiamo riconoscere e differenziare da ciò che  le è diverso. Proprio della definizione come oggettivazione, è la pretesa di valere assolutamente  come quel insieme di asserzioni apofantiche, che trovano la loro origine e il loro principio nella stabile e incondizionata certezza di sé di un sapere preliminare  e ordinatore, nella misura in cui presume essere avalutativo, astorico, metaermeneutico.
Nel nostro caso, la domanda “che cos’è la filosofia della scienza?” ci pone di fronte all’urgenza di una risposta: de-finire la filosofia della scienza dovrebbe voler dire, anche in questo caso, delimitare la forma e i caratteri distintivi (nel nostro caso, gli oggetti di ricerca, i metodi di indagine, gli ambiti e i limiti di validità) di un certo ente oggettivabile, ossia la filosofia della scienza come un ambito specifico del sapere, una disciplina particolare accanto a tante altre. Vogliamo provare a seguire questa strada: la strada della definizione. Verificheremo, poi, come ogni tentativo di dare una definizione di filosofia della scienza si riveli qualcosa di estremamente problematico e del tutto insufficiente a esaurire i suoi possibili ambiti.
Una definizione possibile è quella di  filosofia della scienza come epistemologia.
La filosofia della scienza come epistemologia è discorso circa la scienza. La scienza, dal canto suo, è un sapere, e un certo tipo di sapere, un sapere caratterizzato da una certa forma (possiamo basarci sull’etimologia di questa parola, da scire, conoscere): ergo, la filosofia della scienza è un sapere intorno ad un sapere, detto in termini cari al novecento, è una metascienza. Una metascienza che, per evitare un circolo vizioso, ossia per non essere in quanto tale anch’essa nient’altro che una scienza accanto alle altre e quindi ricadere come oggetto sotto la considerazione di un’ulteriore discorso circa essa, una metametascienza, deve definirsi come una scienza formale analoga a matematica e logica. La filosofia della scienza come metascienza, dunque, è epistemologia come logica del sapere scientifico, scienza formale della scienza materiale. Possiamo, allora, costruire una definizione dell’oggetto della filosofia della scienza (cioè una definizione di scienza come un certo tipo di sapere) tramite il ricorso alla filosofia della scienza come epistemologia e alle sue definizione (metodologiche, assiologiche…).
Eppure, questa definizione, di per sé impeccabile, non comprende l’intero ambito della filosofia della scienza. Ma se non è solo epistemologia, che cos’è la filosofia della scienza? Rispondere a questa domanda è possibile solo rispondendo prima a due altre domande, che esulano completamente dal campo di applicazione dell’epistemologia:  1)Che cos’è la scienza?  2)Che cos’è la filosofia?

1) Non stupisca il fatto, che la domanda su che cos’è la scienza rimanga al di fuori dell’oggetto dell’epistemologia, nonostante che uno dei problemi fondamentali dell’epistemologia sia quello della demarcazione, ossia la determinazione preliminare del criterio che consente di distinguere tra scienza e non-scienza. In tutte le possibili declinazioni di questo problema, denominatore comune è la considerazione che la scienza, intesa come complesso di asserzioni sulla realtà, ha un qualche determinato rapporto con l’esperienza empirica; laddove la non-scienza o vi ha un rapporto alterato o nessun rapporto. Per esempio, i neopositivisti ritenevano che potesse vantare la propria scientificità solo quel sapere che deriva dall’induzione a partire da dati elementari dell’esperienza empirica, mentre Popper diceva scientifico quel sapere che si assoggetta al controllo empirico. La risposta di Popper è più sottile e profonda, ma non è ancora una risposta alla domanda: “che cos’è la scienza?”. E non lo è, per il semplice fatto che anche quando egli ci dice che la scienza è la conoscenza del nostro mondo dell’esperienza possibile, ciò di cui disponiamo è ancora una definizione, ossia la determinazione dei caratteri distintivi di qualcosa che, anche solo per poter essere definito, deve già essere compreso: detto altrimenti, noi dobbiamo già sapere che cos’è la scienza, anche solo per proporci di identificarne i caratteri che la distinguono dalla non-scienza.
Ma veramente sappiamo cos’è la scienza, per poter dire che essa si caratterizza per un qualche ricorso alla base empirica? O meglio: questo nostro sapere va al di là di un presentimento o di una familiarità con ciò che ci si presenta evidentemente come scienza?
A questa domanda bisogna avere il coraggio di rispondere negativamente.
Viene così alla luce un punto essenziale: nonostante le sue pretese di oggettivante validità e di oggettiva avalutatività, ogni definizione si basa già sempre su una precomprensione che cela, ma che solo la rende possibile e che la determina, condizionandola. Essa è, in sostanza, una ben determinata posizione, già sempre pregiudicata da una serie di ipotesi anticipatrici e di decisioni fondamentali, già prese, su che cos’è la scienza. Accettare una definizione che ci appare plausibile significa, con tutta probabilità, affidarsi a un pregiudizio.
A ben vedere, invece, noi sappiamo che la fisica è una scienza, ma non sappiamo dire precisamente, assolutamente, che cos’è la scienza. Certo, possiamo considerare la fisica scienza per eccellenza, come ha fatto l’epistemologia, e quindi astrarne le caratteristiche fondamentali, per porle come criteri di ogni definizione possibile di scienza. In tal modo, sappiamo argomentare circa la scientificità della fisica e contro la scientificità della metafisica, per esempio, ma continuiamo a rimanere perplessi circa l’essenza della scienza: come dimostra, a modo suo, proprio il fatto che non comprendiamo appieno la pretesa per lungo tempo avanzata dalla metafisica di essere una scienza.

2) Proprio questo riconoscimento del fatto che non possiamo affidarci immediatamente ad una risposta alla prima domanda, quella su cos’è la scienza, ci dà un orientamento per cercare di rispondere alla seconda domanda: che cos’è la filosofia?
In realtà si tratta di una domanda molto più complessa, che non ha una risposta univoca e vincolante, se non, ancora una volta, entro decisioni fondamentali di singole filosofie.
E’ necessario, però, prima di cercare di rispondere alla domanda sull’essenza della filosofia,
sfatare i più pericolosi pregiudizi circa il rapporto e il presunto contrasto tra filosofia e scienza:
In primo luogo, va assolutamente negata quella considerazione, che vede l’atteggiamento filosofico come originariamente estraneo all’esperienza, quindi, per usare i termini tradizionali nei quali si è definita questa posizione, come speculazione pura, ossia razionalismo, dogmatismo. Solo episodicamente, infatti, l’autorispecchiamento del pensiero è valso come il metodo della filosofia; e anche quando ciò è avvenuto, non è venuto meno il compito di rendere conto dell’esperienza. Pensiamo per esempio a Platone, che ha posto il vero essere nelle idee, che non sono oggetto di esperienza empirica possibile, ma solo accessibili nella anamnesi dell’esperienza originaria che ogni anima ha per sua natura di loro. Ciò nonostante, la filosofia di Platone si pone anche il compito, e per certi versi lo realizza bene, di spiegare e comprendere le manifestazioni imperfette delle cose reali. Così come proprio il campione della teoria pura, Aristotele, si rivela in realtà un finissimo osservatore della realtà umana. Ciò che, da questo punto di vista, contraddistingue la filosofia, dunque, non è il disprezzo per l’esperienza ma il tentativo di rendere ragione dell’esperienza, riportandola ai suoi principi, alle cause, all’origine, all’essere e così via.
In secondo luogo, e analogamente, la scienza non è mai stata, se non per i peggiori dogmatici dell’induttivismo, una mera attività comparativa e generalizzante dell’esperienza: si può anzi dire che, proprio come la filosofia, essa cerca di rendere ragione dell’esperienza, riportando i singoli accadimenti su un piano di universalità, che non è però quello dell’origine, delle cause o delle essenze, bensì quello della matematica, usando qui questo termine in maniera molto generale. Tutto sommato, questa è già la distinzione platonica tra dianoia e noesis.

Per quanto concerne, dunque, la possibilità di definire univocamente la filosofia, non vogliamo qui proporre un’altra decisione fondamentale, che sia la mia o sia presa in prestito da qualcun altro. Per quanto mi riguarda, e questo è già un modo di rispondere, filosofico è anche il pensiero che rimane libero rispetto alle decisioni fondamentali, siano esse quelle delle filosofie o delle religioni o anche delle scienze. Così come filosofico, può essere a certe condizioni un pensiero che prende delle decisioni fondamentali, come ogni grande pensiero nella storia della metafisica e non solo in essa. E una di queste condizioni, è fare proprio un atteggiamento dell’interrogazione non solamente come determinazione dei caratteri delle cose che ci circondano e di cui abbiamo già da sempre una certa comprensione, ma come messa in questione di questa comprensione, che è messa in questione dell’esser-cosa di queste cose e del che-cos’è di esse, quindi messa in questione dell’essenza delle cose in generale e di ognuna di esse in particolare senza affidarsi a nessuna autorità, come la religione o il mito o anche la scienza, ma solo all’evidenza.
A questo punto, però, bisogna fare alcune precisazioni. In primo luogo, questa non è una riproposizione della tesi aristotelica sulla filosofia prima come episteme dell’essere dell’ente in quanto ente ed in totalità, per quanto gli si approssimi in ogni punto. Infatti, io non ritengo che la filosofia possa mai essere episteme, nell’accezione greca di sostare presso un determinato ambito dell’ente, istituendovisi, che nel caso particolare della qewrhtik» ™pist»mh (che finisce per intendere la ™pist»mh nel senso più puro) è un vedere gli enti che sono per necessità o per natura, ossia che detengono in sé l’origine (¢rc») del loro venire alla presenza. Questa, infatti, è una posizione che ha già preso tutta una serie di decisioni fondamentali, che sono proprie alla filosofia di Aristotele e non alla filosofia in generale. In altri termini, l’atteggiamento di messa in questione della comprensione dell’esser-cosa delle cose, dell’essenza, e il permanere in questa interrogazione originaria, fanno in modo che  l’affidarsi all’evidenza acquisti la forma di una lucida visione che mette in crisi i presupposti stessi della filosofia Aristotelica, nei suoi contenuti teorici: una visione dell’evidenza del fatto che non  vi sia affatto un esser-cosa, un’essenza, ossia che non vi siano enti per necessità o per natura, non vi sono enti che hanno in sé l’arché, ossia non vi sono sostanze, nel senso di ciò che non ha bisogno d’altro che di se stesso per essere.
Eppure, io concordo sul fatto che, con Aristotele, si debba parlare di filosofia prima e che nel far questo si pensi ad una certa connessione di evidenza e principio, in termini aristotelici di theoria e arché. Heidegger, e non solo lui, ha stigmatizzato il carattere ottico del pensiero occidentale, il predominare in esso delle metafore visive, ed ha preteso di uscire dal dominio della theoria, della visione, per accedere anche alle altre dimensioni della consapevolezza, in primo luogo l’ascolto. In effetti, in questo modo ha fatto proprie e ha cercato di realizzare fino in fondo le intuizioni già hegeliane circa la modernità come rottura della coscienza cristiana, che è ascolto della parola di Dio, nei confronti del pensiero greco come visione delle essenze. Al termine della sua famosa conferenza “Che cos’è la filosofia?”, infatti, Heidegger parla della filosofia come “un corrispondere che porta al linguaggio l’appello dell’essere dell’ente”. In questo modo, egli rimaneva vincolato ad uno dei cardini del pensiero greco, il Logos, inteso però primariamente come parola e non come idein, vedere l’eidos. La filosofia è per lui una risposta, che si articola nelle parole originarie di ogni posizione fondamentale, alla parola che proviene dall’arché.
Anche questa, ovviamente, è una posizione che ha già preso le sue decisioni fondamentali e alla quale io non intendo vincolarmi, né in positivo, né in negativo. In effetti, quando parlo di un rapporto tra evidenza e arché non presumo di aver deciso incontestabilmente a favore della vista e contro l’udito, ma intendo solo tenermi fermo alla pretesa più antica e propria di ogni filosofia, quella di poter rifiutare ogni autorità, di poter giungere con i propri mezzi alla verità, di non doversela attendere come dono o concessione da parte di qualcuno o qualcosa. L’unico interlocutore della filosofia, insomma, per usare anche noi una metafora dialogica, è in linea di principio il tutto e l’atteggiamento della filosofia prima è la perplessità del pensiero che, entro questo tutto, si interroga sul proprio principio e tiene nell’indecisione la risposta circa l’arché, ossia non si affida a nessuna risposta che non provenga da se stessa (e non è detto che arrivi mai ad una risposta, non è detto che si passi dalla filosofia prima alla episteme).
Con evidenza (ex video, vedo a partire da: evidente è dunque ciò che si pone in vista a partire da sé e non da altro), sottoliniamo l’impregiudicatezza della testimonianza dell’arché, più che un qualche predominio della forma sulla parola. E la prima evidenza, l’unica evidenza della filosofia e non di una qualche filosofia, è che il pensiero, che pure rivendica la piena autonomia nella ricerca della verità, è consegnato già da sempre ad un’arché, ossia non è principio a se  stesso, non si dà da sé la propria realtà e non produce da sé la verità, ma la deve appunto cercare in altro, nell’alterità intramondana dell’essere in cui è posto. E ciò vale anche assolutamente per l’idealismo soggettivo, che arriva a riconoscere nel pensiero l’arché solo dopo aver attraversato e superato questo momento fondamentale, che i greci chiamavano thaumasmos, meraviglia, stupore, perplessità. Il pensiero si meraviglia del il fatto di essere, poiché nell’essere non si è posto da sé, né vi è sempre stato, non vi coincide, ma si trova ad essere, a cominciare ad essere. Ed il pensiero si meraviglia del fatto che l’essere, i cui esso è posto, è qualcosa oltre a sé, che si dà ,  che lo pervade e di cui fa parte, di cui non vede né l’inizio, né la fine. E tutte queste sono determinazioni dell’arché, il principio, l’origine, ma anche ciò che sostiene e dà sostanza al movimento del Tutto, e al Tutto come ciò in cui il movimento alla fine ritorna, secondo il detto di Anassimandro: “da dove infatti gli esseri hanno l’origine, ivi hanno anche la distruzione secondo necessità”.
Il primo moto della filosofia, dunque, non è un qualche principio, un fondamento dell’argomentazione, una certezza o una potenza del pensiero, ma tutt’al contrario, è la sua perplessità circa se stesso e il mondo, è il permanere nella perplessità senza sfuggire nella verità sancita da una qualche autorità. È quindi del tutto giusto che la celeberrima frase di Socrate: “so di non sapere”, sia stata considerata come una delle affermazioni filosofiche più profonde e universali.
A questo punto, però, si potrebbe obiettare che anche questa è una definizione, ossia che abbiamo fatto con la filosofia quello che ci siamo rifiutati di fare con la scienza: prendere per buono un criterio di demarcazione della filosofia rispetto alla religione, al mito, alla scienza, etc. In particolare, ci saremmo affidati ad una specificazione puramente negativa: la filosofia non riconosce alcuna autorità. Ma questo sarebbe vero, solo se tutto il nostro discorso non fosse altro che una teoria della filosofia, per così dire un’epistemologia della filosofia, una metafilosofia, il che non è.
Una delle maggiori pregiudiziali del pensiero moderno è precisamente ritenere che la ragione possa cominciare a lavorare, solo previa una critica della sua facoltà, della sua potenza. È il pregiudizio kantiano e già cartesiano, che il pensiero debba innanzitutto fondare se stesso, per poter pensare. Ma la nostra non era una teoria sulla filosofia, bensì già filosofia, ossia precisamente esposizione del pensiero alla propria perplessità circa se stesso, circa l’essenza della filosofia. In effetti, non esiste un’interrogazione preliminare sulla filosofia come condizione per l’inizio della filosofia, come può ed è invece opportuno che esista un’interrogazione preliminare sulla scienza come condizione per l’inizio della filosofia della scienza, che non è ovviamente una filosofia prima. Analogamente, non è condizione per l’inizio della scienza una dottrina scientifica preliminare circa la scienza, in altri termini, la scienza non inizia con l’epistemologia. Quando sopraggiunge l’epistemologia la scienza è già da lungo tempo in cammino e saldamente assicurata circa i modi del suo procedere.
Per la filosofia, seppure in maniera diversa, ciò vale radicalmente. Quando ci chiediamo: “che cos’è la filosofia?”, infatti, non affrontiamo un compito preliminare, ma siamo già completamente entro la perplessità fondante dell’interrogazione filosofica, ossia stiamo già filosofando e dobbiamo già averlo fatto a lungo, per arrivare a comprendere in che misura a quella domanda non siamo in grado di dare una risposta precisa, ma dobbiamo tornare al “so di non sapere” di Socrate. Ossia, dobbiamo già aver compiuto per la filosofia tutto il cammino che dobbiamo compiere per la scienza, al fine di comprendere cosa essa sia al di là dell’accettazione di una qualche definizione. Il che equivale a dire che abbiamo già perduto l’ingenuità con la quale la precomprensione delle cose si impone a noi priva di problematicità, come evidenza che non si interroga, come evidenza che è autorità del sentire comune e della tradizione.
Socrate fu condannato per empietà, e giustamente, perché la filosofia è sempre empia, nella misura in cui è disincantata, dubbiosa, smaliziata e facilmente maliziosa rispetto a ciò che in noi stessi non è proprio di noi stessi, ma è, come diceva Nietzsche, animale gregario, eticità della ragione, costumatezza nel riconoscimento della verità. La filosofia è scostumata, è scuola del dubbio, è sospensione del giudizio, è renitenza, indisponibilità ad accettare per vero ciò che non ci si sia manifestato come tale. La filosofia è dunque un diverso incantamento, è l’incanto della verità evidente e rimane tale anche quando evidente è che non vi è verità.
La filosofia che si chiede “cos’è la filosofia”, deve già sapere tutto questo di se stessa, deve averlo già vissuto, come ribellione verso il sapere tradizionale, come perplessità e al tempo stesso hybris, arroganza della ragione, che cancella ogni autorità e si pone da sola di fronte alle domande più radicali, presumendo di poter da sola ottenere ragione. E la filosofia deve aver già osato rispondere a quelle domande e soprattutto deve aver già veduto fallire le sue risposte ed aver vissuto questo osare e questo fallire lungo la propria storia come l’unica vera costante di un percorso che di progressivo ed evolutivo non ha niente: la storia della filosofia ci insegna proprio questo, che non vi è un contenuto positivo della filosofia, passibile di essere accresciuto e accumulato, che ogni positività della filosofia ha un senso solo sulla base della perplessità che è alla sua origine e che è il suo destino.
In ciò, ovviamente, la filosofia si distingue dalla religione e dalla scienza, ma non è dal criterio di questa distinzione che noi possiamo definirla,  perché per perché, fondamentalmente,  non possiamo accontentarci di definire la filosofia in base ad una qualche differenza specifica rispetto a religione e scienza:  sarebbe come ammettere un genere prossimo delle tre. E di che genere sarebbero individui la filosofia, la scienza e la religione?
Di una qualche cultura, del genere “fenomeno culturale”?. Ma cos’è un fenomeno culturale, cosa è essenziale alla sua definizione, il sapere che esso rappresenta o il tipo di educazione che gli è proprio, o qualcos’altro ancora? Come abbiamo appena detto, però, la filosofia è scostumata, è maleducata, empia, immorale. E non ha nel suo complesso alcun contenuto di sapere positivo. In che modo potremmo classificarla come fenomeno culturale al fianco della scienza e della religione, ammesso che queste ultime siano riducibili a qualcosa del genere? Insomma, questa via può andar bene per certe filosofie, per i cosiddetti indirizzi filosofici, ma non è sufficiente per la filosofia, che non si lascia definire, ma solo indicare, e in realtà solo a se stessa, e non come un certo sapere o una certa educazione, ma come qualcosa che precede la conoscenza e l’ethos, come un atteggiamento complessivo di fondo del pensiero, quell’atteggiamento che Nietzsche chiamava pathos della verità e di cui Platone diceva:
m£la g¦r filosÒfou toàto tÕ p£qoj, tÕ qaum£zein. oÙ g¦r ¥llh ¢rc¾ filosof…aj

A questo punto possiamo ritornare alla domanda che ponevamo all’inizio: Che cos’è la filosofia della scienza. Dicevamo che per rispondere avremmo dovuto prima rispondere alle domande: che cos’è la filosofia, e che cos’è la scienza. In effetti, però, il tipo di risposta che abbiamo dato, non sembra aiutarci granché. Abbiamo certo parlato del principio della filosofia e abbiamo accennato alla sua storia, mentre della scienza abbiamo semplicemente detto che è qualcosa di cui abbiamo una qualche idea, una precomprensione, per via della familiarità con qualcosa che dalla tradizione ci è consegnata come attività scientifica, per via del semplice fatto che possediamo nel nostro linguaggio un nome per essa, la scienza, appunto. E abbiamo notato una differenza fondamentale: nel primo caso, la filosofia non si presenta come un sapere esterno a noi, da cui possiamo prescindere, ma si presenta come quell’atteggiamento di fondo in cui già sempre ci muoviamo e sostiamo, e già da prima di porci la domanda. Riteniamo, dunque,  la stessa posizione della domanda circa l’essenza della filosofia già un atto filosofico maturo. Nel secondo caso, notiamo che la scienza è qualcosa di esterno a noi, almeno nella misura in cui si presenta come un complesso imponente di saperi positivi, sviluppatisi lungo una storia che manifesta un qualche principio evolutivo e di progresso e quindi pone qualche pretesa di autorità. Dunque la domanda circa l’essenza della scienza non è affatto un atto scientifico maturo, o se lo è, è tutt’al più esercizio preliminare di una metascienza come una particolare scienza formale, che è l’epistemologia.
La filosofia non è un sapere positivo, e ciò vuol dire che essa non può essere definita attraverso l’individuazione  di un suo proprio metodo e un suo oggetto specifici rispetto alle altre scienze. Questa è certo una possibilità che ha una lunga tradizione e un po’ tutti i filosofi hanno in qualche modo cercato di chiarire l’oggetto e il metodo del proprio sapere. Eppure, anche su questa, come su ogni altra questione particolare della filosofia, non si è mai raggiunto un accordo. Come si diceva, per Aristotele la filosofia prima si chiede circa l’essere dell’ente in quanto ente ed in totalità e nel far ciò cerca in effetti le cause e i principi primi, le essenze semplici, non composte, l’oggetto della theoria pura: definibile è per lui solo ciò che è composto, proprio perché la definizione è determinazione degli elementi componenti. Ma per ciò che è semplice non è possibile un sapere analitico, bensì solo la contemplazione della sua semplicità e perfezione: in altri termini, la conoscenza delle essenze non può essere vera o falsa, chiara o confusa; essa c’è o non c’è, le essenze si vedono o non si vedono. A modo suo vi è qui una riproposizione della distinzione eraclitea tra i dormienti e i desti:

to‹j ™grhgorÒsin ›na kaˆ koinÕn kÒsmon e|nai, tîn dû koimomšnwn ›kaston e„j ‡dion ¢postršfesqai

I desti hanno un mondo unico e comune, ma ciascuno dei dormienti si ritira in un mondo proprio

E i desti non sono coloro che hanno una maggiore abilità nel procedere logico e nell’argomentazione, non sono i retori e i sofisti, ma coloro che vedono, o sentono, puramente: ancora per sfatare il predominio delle metafore visive, ritroviamo in un frammento importantissimo di Eraclito un esempio significativo della fusione di metafore visive e auditive:

oÙk ™moà ¢ll¦ toà lÒgou ¢koÚsantaj [Ðmologe‹n] sofÒn ™stin Ÿn p£nta e„dšnai
Per chi ascolta non me, ma il logos, è saggio riconoscere (aver visto) che tutto è uno.

Ora, noi potremmo leggere queste testimonianze come un discorso circa oggetto e metodo della filosofia: il metodo è la theoria, l’esser desti, il prestare ascolto al logos, l’oggetto sono le essenze semplici, il mondo unico e comune, l’uno tutto. Ma potremmo anche dire che non è questo l’essenziale, e sottolineare come Aristotele, Eraclito, ma anche Platone e Parmenide, e poi tanti moderni, abbiano concepito la filosofia non a partire da una determinazione del suo oggetto e del suo metodo, che sopraggiunge solo dopo, ma essenzialmente come risveglio: ricordate il mito della caverna e ancora un frammento di Eraclito: “nella notte l’uomo accende una luce a se stesso…”.
O anche quello che Diels considera l’incipit del libro di Eraclito sulla natura:
“Di questo logos che è sempre, gli uomini non hanno intelligenza, sia prima di averlo ascoltato sia subito dopo averlo ascoltato; benché infatti tutte le cose sorgano secondo questo logos, essi assomigliano a chi è senza esperienza, pur provandosi in parole e in opere tali quali sono quelle che io spiego, distinguendo secondo natura (Colli meglio: secondo il suo nascimento) ciascuna cosa e dicendo com’è. Ma agli altri uomini rimane celato ciò che fanno da svegli, allo stesso modo che non sono coscienti di ciò che fanno dormendo”.

Cerchiamo in questi frammenti una risposta alla questione circa il modo della filosofia in conformità con il suo principio, che può anche portarci nella vicinanza di una discussione circa oggetto e metodo: La filosofia si comprende come un venire alla luce, un ridestarsi, farsi luce da sé, nella notte o nella caverna, e poi incedere nella luce del giorno, che sovrasta e domina la propria luce.

Questo venire alla luce, porsi nella luce, però, non è analogo all’illuminazione, che è pure termine centrale di tutta la mistica, dalle sue forme antiche, a partire dall’orfismo fino ai misteri eleusini, passando per la mania della pizia, della veggente, per sfociare nella gnosi e poi nella mistica cristiana e così via. Infatti, ciò che è comune all’illuminazione che possiamo dire generalmente religiosa, è che l’illuminato acquisisce l’accesso ad un mondo segreto, aperto solo a lui, un mondo segreto che è sempre una dimensione eminente del reale e per lo più trascendente: la luce si contrappone alla tenebra come una diversa e somma regione dell’essere e l’illuminato, colui che possiede la gnosi, la sapienza, si allontana e addirittura esce in tal modo dal mondo unico e comune, per dimorare nel mondo vero, posto come vi ho detto per lo più al di là. E invece in Eraclito leggiamo:
di fronte a ciò che mai tramonta, come potrebbe nascondersi qualcuno?

Come vedete, la prospettiva è completamente diversa: qui non è la luce a celarsi, a tenersi segreta, conquista dei pochi illuminati, mistero che gli iniziati si impegnano a custodire, realtà somma superiore a tutte le miserie del mondo. Qui la luce è ciò che mai tramonta, l’uno tutto, il mondo unico e comune, ciò a cui, una volta aperti gli occhi, nessuno può sottrarsi, ciò che appare a chiunque apra gli occhi e non ha bisogno di venir rivelato come conoscenza occulta.
Sempre Eraclito:
Bisogna dunque seguire ciò che è comune. Ma pur essendo questo logos comune, la maggior parte degli uomini vivono come se avessero una loro propria e particolare saggezza.
E perché avviene questo?:
“riguardo alla cose massime non dobbiamo precipitarci azzardosamente a raccogliere i nostri presentimenti”.

Ora, se vogliamo tradurre questo discorso nei termini di una determinazione di oggetto e metodo dobbiamo dire
1) che l’oggetto della filosofia non è affatto un oggetto, ma è il soggetto della filosofia, che non è il filosofo, ma il logos (oÙk ™moà ¢ll¦ toà lÒgou ¢koÚsantaj…), ossia il tutto come ciò che mai tramonta, nella cui luce nascono e periscono le singole cose. La filosofia non si ritaglia un singolo campo di indagine, la filosofia è incedere nella luce del mondo, senza alcun sostegno che non sia il mondo stesso.
2) ma così in realtà abbiamo anche già determinato il metodo, ossia la via, la strada sulla quale essa procede, e sulla quale trova poi tutti i singoli oggetti di cui si occupa, compresa la scienza: ponendosi nell’ascolto del tutto, la filosofia è in primo luogo epoché, sospensione dei pregiudizi, indugio a precipitarsi azzardosamente nell’espressione dei propri presentimenti, di quel che chiamavo precomprensione delle cose. Ancora una volta: oÙk ™moà, non me, non ciò che parla in me senza che io sappia da dove viene, non l’abitudine, non l’automatismo di chi, pur desto, non è cosciente di quel che fa e pensa e vive dormendo.
I desti hanno un mondo unico e comune, ma ciascuno dei dormienti si ritira in un mondo proprio.
La via della filosofia, il suo metodo, è l’uscita dal mondo proprio, nient’affatto la sua espressione. È il superamento di ogni idioktisia, di ogni acquisizione di proprietà, di ogni idiotropia, modo proprio, idiosincrasia, di ogni idiotis, particolarità, che è anche sempre idiosis, espressione con la quale i greci indicavano il divenir proprietà privata di un bene comune e che intendevano, più ampiamente, come sinonimo di separazione.
Il metodo della filosofia non è la separazione, non è la particolarità, ma, come si sarebbe poi detto successivamente, l’universalità, ciò che è generale, ciò che è ovunque e sempre, ciò che non tramonta mai, ciò da cui sorge ogni idiotis, ogni cosa particolare. E quindi il metodo della filosofia è prestare ascolto o aprire gli occhi al sorgere di ogni singola cosa entro il tutto, all’uno tutto come fÚsij, nascimento, “distinguendo secondo natura (kat¦ fÚsin) ciascuna cosa e dicendo com’è”.
Secondo natura, secondo il nascimento, il venire alla luce entro la totalità: il metodo della filosofia è volgersi all’arché delle cose, al loro principio, per poter dire cosa sono le cose. E questo vale in Platone, ove l’arché sono le idee, che sole rendono ragione delle cose che nascono nel mondo, e vale per Aristotele, che vuole cogliere le essenze, l’essere delle cose, indagandone le cause e i principi primi, e continua a valere per tutta la storia della metafisica, per la teologia cristiana, che parla di Dio e del creato, fino a Cartesio e a Kant, per i quali il principio dell’esser cose delle cose si ritrae dal mondo entro il pensiero, e oltre, ancora fino a Nietzsche, Dioniso e la parvenza, e Heidegger, l’evento e il disvelamento.
Ogni filosofia, che non si sia specializzata e ridotta a disciplina particolare, a sapere positivo di un oggetto particolare, che quindi non abbia perso il suo carattere originario di apertura al tutto e a ogni singola cosa, è lo sguardo spregiudicato sul che cos’è delle cose a partire dal loro essere nella luce, manifestarsi, dalla loro evidenza, dalla loro natura, che è la loro storia, l’originarsi e il perire, quello che abbiamo imparato a conoscere come il divenire eracliteo, espressione che sottolinea in realtà non il mutamento, ma l’accadere e il compiersi.
Come vedete, anche se parliamo di oggetto e metodo, non lo facciamo riducendo la filosofia ad un sapere in un certo modo qualcosa, ma continuando a considerarla come un atteggiamento verso il mondo e verso se stessi, un atteggiamento che riconoscevamo coincidente con un pathos. Ma quel che vorrei evitare, è che si intendesse ciò nel senso di un patetico abbandonarsi all’essere, quasi come se quel oÙk ™moà di Eraclito, non me, indicasse un altro tipo di spersonalizzazione mistica, l’indiamento, il dissolvimento di sé nel dio. La filosofia ha certo un elemento estatico, ma mai come perdita dell’individuazione: il risveglio, il venire alla luce, vuole essere sempre anche un acutizzarsi dello sguardo e proprio alla filosofia è sempre il rigore e una certa ascesi della conoscenza, non abbandonarsi azzardosamente, ma procedere con gli occhi ben aperti.
E se questo pathos non precede solo il logos, determinandolo in questo modo, ma anche l’ethos, allora ci può essere anche una determinazione analoga di questo, un ethos filosofico, che è poi nient’altro che il principio della libertà espresso nel detto delfico: conosci te stesso, che non intende solo “indaga la tua natura”, ma anche “prendi coscienza delle sue facoltà e dei suoi limiti e vivi entro la misura di questi”.


Per comprendere cosa può essere una filosofia della scienza abbiamo cercato innanzitutto di dire cos’è la scienza, ma ci siamo resi conto che non potevamo accontentarci di una definizione, poiché ogni definizione si basa su una comprensione preliminare, che cela: accettare immediatamente una definizione che ci appaia plausibile significa con tutta probabilità affidarsi ad un pregiudizio, quindi, seppure in maniera occulta, cedere ad un’autorità. La filosofia, però, ci si è mostrata precisamente come la passione per la verità che osa porsi al di fuori di ogni autorità, che osa la propria libertà. Un atteggiamento, cui è propria un’ascesi del conoscere, un esercizio e una disciplina della ricerca, come sospensione della idiotis e penetrazione dello sguardo verso l’evidenza delle cose entro il tutto da cui sorgono.
Abbiamo anche menzionato il fatto, che la scienza, ogni singola scienza, come sapere positivo di un oggetto determinato, sapere assicurato metodologicamente al suo oggetto, non può mai e in realtà non vuole indicare la propria essenza, se non ponendola come oggetto di una ricerca metascientifica, quale la conosciamo nella scienza formale dell’epistemologia, uno dei cui compiti primari è la definizione della scienza come demarcazione dalla metafisica. Già questo, però, suscita delle perplessità, poiché sappiamo che la più antica pretesa della metafisica è quella di essere una scienza, anzi la scienza per eccellenza.
Ma come sappiamo che la scienza è sapere positivo assicurato metodologicamente ad un oggetto determinato? In effetti, è proprio l’epistemologia che ce lo dice, ma la sua testimonianza, per quanto preziosa da moltissimi punti di vista, non può essere presa per buona per una determinazione dell’essenza della scienza. Con questo non voglio dire, che la scienza non è di fatto metodologicamente vincolata a procedimenti e oggetti determinati, ma intendo suscitare un dubbio, soprattutto circa l’opposizione radicale che in tal modo viene presentata tra scienza e filosofia. Infatti, è facile vedere, che se la filosofia che ha finito per valere come filosofia prima, ossia la metafisica, ha sempre preteso di essere scienza, e se la scienza ha sempre più preteso di essere l’unica interprete della natura, ossia precisamente di ciò che, col nome di physis, ci appariva come il soggetto della filosofia, tra questa e la scienza vi deve essere una relazione molto più profonda di quanto non si creda, forse una vera e propria parentela.
Anche rispetto a questo dubbio, però, non voglio affidarmi immediatamente all’autorità di Heidegger, per esempio, che parlava della filosofia come scienza ontologica e della scienza come scienza ontica, sottolineando in tal modo l’unità e la differenza. Voglio piuttosto affidarmi ad uno sguardo filosofico in atto, ossia cercare di seguire quella via che dicevamo, “distinguendo secondo natura (kat¦ fÚsin) ciascuna cosa e dicendo com’è”. In che modo possiamo distinguere secondo natura la scienza? Tramite un’indagine genealogica, un’indagine circa la genesi, la nascita, il venire alla luce. Che quindi ricerca l’origine, non come ciò che si limita semplicemente a dare inizio, per poi rimanere estraneo al divenire, bensì lo sostiene e pervade. Con il che, ovviamente, non vogliamo affatto presumere che la nostra ricerca debba fornirci uno sviluppo unitario e coerente delle scienze, poiché non è affatto escluso che ciò che noi indichiamo con questo nome generico si dimostri in realtà come un’eterogeneità di fenomeni differenti, che condividono solo alcuni tratti esteriori. Vogliamo solo dire, che il primo atto di una filosofia della scienza che voglia rimanere radicata entro la corrente fondamentale del pensiero filosofico e non cedere alla via più facile e professionale della specializzazione, non è porsi la scienza di fronte, costituendola come proprio oggetto in quanto contenuto di sapere determinato da una forma, con l’intenzione di descrivere, o definire, o produrre norme circa i suoi elementi, ma è il compito incomparabilmente più lungo e complesso di indagare il prodursi e mutare di quei contenuti e di quelle forme. Insomma, la filosofia della scienza deve essere innanzitutto storia filosofica della scienza, storia filosofica, ossia una particolare forma della genealogia. È evidente, infatti, che l’unica testimonianza di cui disponiamo circa la genesi della scienza è precisamente la storia. Rispetto al procedimento definitorio (proprio dell’epistemologia, che abbiamo ampiamente criticato), il percorso genealogico che decidiamo di adottare si distingue per due punti essenziali:

  1. La definizione pretende di ostendere l’essere di una cosa, oggettivarlo, fissando una volta per tutte il suo cos’è in una identità descritta nei suoi momenti caratteristici. La cosa diventa oggetto (Gegendstand) di una visione che si pretende vincolante, definitiva, assoluta. La genealogia, invece, considera la cosa sempre come soggetto del suo manifestarsi.
  2. Conseguentemente, la definizione presuppone l’essere come idiotis della cosa; la genealogia tende invece ad assumere che l’essere della cosa non è nient’altro che la sua storia, non identità ma il suo stesso divenire come sorgere e perire.Possiamo allora porre una sorta di equivalenza tra essere della cosa e il suo divenire, tra ontologia e genealogia come fenomenologia dell’origine

Sunto:
Sulla base di uno sguardo sull’essenza della filosofia si è individuato nella storia filosofica o genealogia della scienza il primo compito della filosofia della scienza. Quindi, si è rifiutato che l’oggetto della filosofia della scienza sia costituibile tramite il ricorso all’epistemologia e alle sue definizioni (metodologiche o assiologiche) di scienza. Questo perché:

  1. ogni definizione risulta pregiudicata dalla precomprensione che solo la rende possibile;
  2. abbiamo constatato che la filosofia non ha un oggetto: il che vuol dire, che in ogni sua forma non procede dalla determinazione preliminare dell’ambito di validità, dalla costruzione dell’oggetto, volendo essere piuttosto il tramite attraverso cui il mondo diviene soggetto del logos (oÙk ™moà…).
  3. E il mondo diviene soggetto del logos, ossia la verità trova espressione, ponendosi in luce: come fenomeno, manifestazione, parvenza.
  4. Ogni singola cosa è fenomeno come sorgere e perire entro il tutto.
  5. Di conseguenza, la filosofia guarda il tutto come principio del sorgere e del perire e ogni singola cosa in relazione a questo principio, ossia al proprio sorgere e perire.

Come dicevamo, peraltro, proprio nella misura in cui non è il filosofo il soggetto del logos filosofico, la verità di questo logos si pretende spregiudicata, pura, immacolata da ogni pregiudizio e presupposto: essa parla del mondo unico e comune, non del mondo proprio.
A questo punto, dobbiamo fare i conti con una in aggirabile perplessità, connaturata alla filosofia in generale, e alla filosofia della scienza come genealogia in particolare. Tale perplessità si basa su di un’osservazione piuttosto immediata: se la filosofia è almeno in parte genealogia come interrogazione sull’arché delle cose, interrogazione che in tal modo pone le cose nella loro verità in quanto enti nel tutto, dal tutto e per il tutto; se la filosofia, detto in altri termini, guarda al tutto come accadere e divenire di ogni singola cosa, essa sembra non potersi mai liberare dall’ipoteca della precomprensione. Come è possibile, infatti, una genealogia, se ciò di cui si indagano le origini non è già manifesto a noi come “questa cosa qui”. In altri termini, siamo di fronte alla stessa difficoltà che inficiava il ricorso alla definizione: se per definire una cosa dobbiamo già sapere in qualche modo di che si tratta, anche per indagarne l’origine dobbiamo saperlo. Come si può fare una storia filosofica della scienza, se non si ha alcuna idea di cos’è la scienza?
Ciò con cui abbiamo a che fare, quando affrontiamo questa perplessità, cui ci riferiamo parlando di precomprensione, e che è poi la radice problematica da cui sorge tutta l’ermeneutica novecentesca, non è altro che la vecchissima alternativa tra essere come identità e essere come divenire: la precomprensione, in effetti, non è molto di più che una sorta di assicurazione che qualcosa sia, che ciò che nominiamo abbia in effetti una propria essenza, che quando diciamo scienza parliamo di un ente. Ma se  la filosofia della scienza si lascia determinare da tali semplici presunzioni, e  se d’altra parte la scienza si riduce ad essere oggettivato come un ente, come una certa identità, l’id esse, stessità, idiotis, qualcosa di unitario e definitivamente conchiuso una volta per tutte; la genealogia non potrà aggiungere nulla  al nostro sapere, inteso come ontologia della scienza. Se però non ha senso parlare dell’identità dell’ente “scienza”,  se la scienza non è qualcosa di unitario e definito, se non è affatto “qualcosa”, la genealogia potrà  ripercorrerne la storia. Ma se, insomma, non vi sono esseri, come si può parlare del loro divenire? E se vi sono, in che modo il loro divenire può essere determinante circa il loro essere?
Più praticamente: se non sappiamo cos’è l’ente ‘scienza’, come facciamo a cominciare la storia del suo sorgere? E se lo sappiamo, a che ci serve questa storia?
In altri termini: se dal punto di vista teorico non siamo affatto vincolati a ritenere gli enti in generale e l’ente scienza in particolare nei termini dell’identità, con la conseguenza che possiamo ben porre una sorta di equivalenza tra ontologia e genealogia come fenomenologia dell’origine e dell’intero divenire, da un punto di vista euristico ciò non ci dà alcuna indicazione precisa sul modo in cui possiamo esercitare l’indagine genealogica circa un qualsiasi ente particolare.
Ma questo è precisamente il destino della filosofia, ciò che la rende necessariamente e sempre incompiuta e revocabile come sapere positivo: non vi è alcun metodo come assicurazione dello sguardo genealogico, non vi è alcuna fondazione possibile dell’ontologia, alcuna determinazione univoca della strada da percorrersi, ogni volta che ci si volge a qualcosa lo si fa come un tentativo. Più concretamente, ciò significa che la presunzione della filosofia di rifiutare ogni autorità e porsi come sguardo spregiudicato, impregiudicato, come luogo della verità oggettiva, questa presunzione, se non è la mera pretesa di un’impossibile conoscenza assoluta, è la consapevolezza di procedere a tentoni, di procedere sempre entro un orizzonte che precede e sopravanza lo sguardo. Un orizzonte mutevole, che non è altro che la controparte della nostra essenziale condizionatezza, ossia del fatto che anche noi siamo divenienti entro, dal e per il tutto.
Insomma, ogni tentativo filosofico si muove entro un mondo che non può trascendere, dal quale non può tirarsi fuori, e così ogni ente determinato cui si rivolge la filosofia. Ente determinato, che è sempre già iniziato, sorto: l’origine è sempre già avvenuta. Così come il pensiero filosofico è sempre già iniziato quando si rivolge a qualcosa di determinato, è sempre già in cammino da un tempo che, a prescindere dalla sua brevità o lunghezza cronologica, separa radicalmente ogni tentativo filosofico dalla propria origine nello stupore. In altri termini: non vi è affatto un’interrogazione filosofica originaria, ogni volta che la filosofia passa dal pathos al logos si immerge nella propria condizionatezza umana e storica.
Il che significa, che l’indagine circa le origini non può mai veramente partire dalle origini, ma deve sempre affidarsi ad un qualche punto mediano, deve sempre assumere il rischio del pregiudizio, che però conosce come tale. La precomprensione, insomma, è assolutamente ineludibile, non vi è alcun metodo di fondazione che assicuri il sapere e la ricerca del sapere a qualcosa di dato una volta per tutte e incontrovertibilmente: il sapere si muove sempre già entro un complesso del saputo, che non è in nessun senso assicurato.
Cosa significa tutto ciò per la nostra questione? Semplicemente, che in effetti la storia della scienza non può che partire da qualche ipotesi anticipatrice di ciò che possiamo provare a considerare come prima manifestazione della scienza e quindi da un’ipotesi anticipatrice circa l’essenza della scienza. Un’ipotesi anticipatrice, che non ha bisogno di esprimersi in una definizione e che conserva, per tutto il corso della storia, un carattere non impegnativo: essa è sempre revocabile o correggibile, a partire da ciò che la genealogia fa emergere. Un’ipotesi anticipatrice, che è necessariamente condizionata da tutto ciò che comunque sappiamo, in maniera più o meno strutturata e presente, da tutto ciò che abbiamo imparato e da quanto abbiamo ereditato dalla nostra cultura e dal nostro linguaggio.

 

GENEALOGIA E STORIA FILOSOFICA  DELLA SCIENZA
Compito di questo nostro tentativo di  avanzare una genealogia della scienza, è prima di tutto quello di esplicitare come le principali decisioni fondamentali  circa  la determinazione dei tratti distintivi e dei rispettivi compiti della  scienza rispetto  alla filosofia e,  in particolare, la determinazione  della loro  inconciliabile contrapposizione, sono in realtà concezioni molto tarde, sono il frutto di un divenire storico che si propaga fino a noi, tanto da condizionare  le teorie dei neopositivisti e epistemologi contemporanei. In quanto tali, dunque, esse non possono avanzare pretese di assolutezza meta-ermeneutica e di incondizionata validità definitoria. Sulla base di questa genealogia,  il  carattere puramente storico e divenuto di tali pregiudizi, da cui già sempre siamo condizionati, sarà portato alla luce attraverso la chiarificazione di quelle condizioni storico-epocali che hanno determinato il  progressivo allontanarsi di scienza e filosofia, fino a risalire al luogo del loro archè, della origine comune di scienza e filosofia,  nella grecia antica.

Come è sorta dunque quella tesi che ci è così familiare ( e che ha dominato fino al neopositivismo), la quale  contrappone il riferimento fondante alla ragione pura della filosofia al riferimento fondante all’empiria della scienza?
Dicevamo che l’origine è tarda, si presenta in un periodo di crisi tanto della filosofia, quanto della scienza, e si propaga fino a noi per diverse vicende, legate all’autorità dottrinale della chiesa nel medioevo e poi alle assunzioni fondamentali della metodologia baconiana della scienza, nel rinascimento.
Tale origine è certamente successiva sia al periodo di maggior fioritura della filosofia greca (dal VI-V al III secolo a.C.) sia a quello di maggior fioritura della scienza greca (dal III al I secolo a.C.). Troviamo, infatti, la definizione che in qualche modo ha dato il la a tutta questa concezione in un commento alla fisica di Aristotele, scritto da Simplicio nel VI secolo dopo Cristo, quindi due secoli dopo Costantino il grande, che aveva reso il cristianesimo religione di stato dell’impero romano d’Oriente, avviando quel processo che proprio nel VI secolo (529) porterà Giustiniano a chiudere le scuole filosofiche: sono due secoli durante i quali la cultura greca è sempre più schiacciata ed assediata dall’imporsi, entro le strutture di potere dell’impero romano, del cristianesimo: ricordiamo, solo per fare un esempio, il saccheggio del 391 d.C. della biblioteca di Alessandria, voluto dal vescovo Teofilo. Cito questi fatti, perché Simplicio era un membro della Scuola di Atene, fondata da Plutarco e di cui ricordiamo Proclo come maggiore rappresentante, scuola che fu chiusa appunto nel 529.
Ebbene, già dopo la chiusura della scuola, Simplicio (che, tenete presente, era neoplatonico e non aristotelico) scrive nel suo commento alla fisica di Aristotele (riportando un’asserzione di Gemino – I sec. d.C. –, che conosceva per il tramite di Alessandro di Afrodisia – II/III secolo d.C.):
“L’astronomia spiega unicamente le cose che può stabilire per mezzo dell’aritmetica e della geometria. In molti casi, l’astronomo e il fisico si proporranno di provare lo stesso punto, per esempio che il Sole è molto grande o che la Terra è sferica; ma non procederanno per la medesima strada. Il fisico dimostrerà ogni fatto con considerazioni di essenza o sostanza, di forza, di come sia bene che le cose siano così come sono, o di generazione e di cambiamento. L’astronomo dimostrerà le cose in base alle proprietà delle figure o delle grandezze o attraverso la quantità del movimento e del tempo ad esso appropriato. In molti casi, un fisico può giungere inoltre alla causa, osservando la forza creativa; ma l’astronomo, quando dimostra fatti da condizioni esterne, non è qualificato a giudicare della causa, come quando per esempio afferma che la Terra o le stelle sono sferiche. E talvolta egli non desidera nemmeno accertare la causa, come quando ragiona di un’eclissi, e a volte inventa, per via d’ipotesi, e afferma certi espedienti postulando i quali i fenomeni saranno salvati”.
Salvare i fenomeni: che vuol dire Simplicio?
“Poiché non fa parte del lavoro dell’astronomo conoscere che cosa sia per sua natura adatto a una condizione di quiete, e quali tipi di corpi siano atti a muoversi, così egli introduce ipotesi secondo le quali alcuni corpi rimangono fissi mentre altri si muovono, e quindi considera quali ipotesi corrispondano ai fenomeni effettivamente osservati nei cieli. Ma deve andare dal fisico per i suoi principi primi – e cioè che i moti delle stelle sono semplici e uniformi e ordinati – e per mezzo di questi principi poi dimostrare che il moto ritmico di tutto questo avviene in cerchi, alcuni dei quali sono paralleli e altri obliqui”.
Qui il riferimento è a Eudosso e alla sua teoria delle sfere omocentriche, che Aristotele aveva adottato nel De Coelo e che divenne il modello interpretativo dei moti celesti più diffuso, per il tramite di Tolomeo, fino a tutto il medioevo.
In sostanza, in questa pagina in questione è una sorta di divisione delle pertinenze tra l’astronomo e il fisico, una divisione che è valsa come modello di compromesso per tutto il medioevo, quando però i protagonisti erano differenti: non più l’astronomo e il fisico, ma chiunque fosse esperto delle cose del mondo e delle loro proprietà, da un lato, e i detentori dell’autorità dottrinaria, dall’altro. Ed è un compromesso che veniva ancora accettato da Copernico, che infatti riteneva (o almeno fingeva di ritenere) il suo sistema cosmologico come un artifizio matematico, un compromesso che fu proposto anche a Galilei dal celebre cardinale Bellarmino e che Galilei, almeno in un primo momento, accettò.
Nel passaggio, però, dalla posizione di Simplicio a quella di Bellarmino, cambia qualcosa di essenziale, come possiamo comprendere solo cercando di leggere attentamente la prima testimonianza:
di chi parla esattamente Simplicio? Chi era l’astronomo? Spesso si trattava di un vero e proprio funzionario pubblico, il cui compito più importante era la stesura e continua correzione del calendario, che determinava tutta una serie di attività, dalle festività alle pratiche agricole. Inoltre, e questo in maniera sempre più significativa a partire dalla talassocrazia ateniese e nel periodo alessandrino, era l’inventore e il costruttore dei sistemi di rivelamento sempre più indispensabili per la navigazione. E il suo metodo era matematico, per un motivo molto semplice: perché sin dalle origini la matematica si era sviluppata esattamente per tener dietro alle esigenze dell’astronomia.
In base a ciò è evidente che l’interesse primario dell’astronomo, fosse proprio quello di riuscire a prevedere con una buona approssimazione i fenomeni celesti, oltre che di sviluppare sistemi di calcolo sempre più rapidi ed efficienti per le varie applicazioni pratiche. Il che però non vuole ancora dire che egli non fosse uno scienziato: almeno durante il periodo alessandrino, infatti, l’astronomia si sviluppò come autentica scienza.
Dall’altro lato c’è il fisico, ed è evidente che qui questa parola è intesa precisamente nel senso del titolo della Fisica di Aristotele, che ha poco a che vedere con ciò che noi chiamiamo fisica, essendo in sostanza un’ontologia degli enti naturali, ossia degli enti che hanno in sé il principio del proprio movimento.
Simplicio, o la sua fonte, ammettono che il fisico e l’astronomo possono prendere in considerazione le stesse cose, ma precisa:
“il fisico dimostrerà ogni fatto con considerazioni di essenza o sostanza, di forza, di come sia bene che le cose siano così come sono, o di generazione e di cambiamento. L’astronomo dimostrerà le cose in base alle proprietà delle figure o delle grandezze o attraverso la quantità del movimento e del tempo ad esso appropriato”.
Nella prima parte, abbiamo una serie di determinazioni, come si erano storicamente date, dell’arché:

  1. Essenza: precisamente in Aristotele, in parte anche in Platone
  2. sostanza: negli ilozoisti, in parte anche in Empedocle e Anassagora
  3. forza: in Empedocle e in Democrito
  4. di come sia bene che le cose siano così come sono, ossia di razionalità e armonia: in Anassagora e in Platone
  5. di generazione e di cambiamento, in particolare in Eraclito, ma in effetti un po’ in tutti i filosofi greci che si sono occupati di natura.

Nella seconda parte, abbiamo una determinazione del metodo astronomico, che sfata anche completamente il pregiudizio sulla mancanza di una considerazione dinamica nell’antica Grecia: infatti, Simplicio parla di due vie, quella geometrica (“in base alle proprietà delle figure o delle grandezze”), e quella meccanica (“attraverso la quantità del movimento e del tempo ad esso appropriato”).
Ora, l’assunto di Simplicio è che l’astronomo, seguendo la via geometrica o quella meccanica, non è qualificato a trarre deduzioni circa la causa dei moti celesti e, aggiunge non a torto: “talvolta egli non desidera nemmeno accertare la causa, come quando ragiona di un’eclissi, e a volte inventa, per via d’ipotesi, e afferma certi espedienti postulando i quali i fenomeni saranno salvati”.
Come vedete, qui Simplicio non afferma che l’intera astronomia è artifizio matematico, come si è poi voluto intendere, come ha certamente voluto intendere il cardinale Bellarmino. Simplicio descrive una pratica del tutto usuale e comune, chiarendo come agli occhi degli stessi astronomi spesso l’introduzione di innovazioni nel calcolo, basate su grandezze fisiche ipotizzate, come gli epicicli di Tolomeo, non fossero altro che trucchi per far tornare i conti.
Ma Simplicio ammette anche, che l’astronomo cerca in altri casi di “provare” qualcosa, addirittura di provare uno stesso punto di interesse del fisico: solo che, evidentemente, approcciando la prova nei termini della certificazione del “così è” (“quando dimostra fatti da condizioni esterne”), non può giungere alla determinazione del “perché” è così, della causa.
Ora, questa lettura è certo riduttiva, ma tutto sommato coerente con l’effettività di gran parte della ricerca fisica, almeno fino ad Einstein e alla meccanica quantistica, con le quali, secondo l’espressione di un noto storico della fisica, si passa dalla fisica del cosa a quella del perché. Quel che vorrei però sottolineare, è che anche in questa testimonianza così tarda, non si afferma affatto che la scienza, al contrario della filosofia, è fondata sull’osservazione, ma solo che l’impostazione geometrico-meccanica deve essere integrata da un’inchiesta sui principi affinché dall’astronomia si possa passare alla cosmologia: “Ma deve andare dal fisico per i suoi principi primi – e cioè che i moti delle stelle sono semplici e uniformi e ordinati – e per mezzo di questi principi poi dimostrare che il moto ritmico di tutto questo avviene in cerchi, alcuni dei quali sono paralleli e altri obliqui”.
Qui, come notavamo, è già deciso, che i principi primi sono quelli stabiliti da Aristotele e consolidati dalla sua scuola, e in questa misura l’intero passo è in effetti non-filosofico, poiché sancisce una sorta di principio di autorità, sanzione che possiamo comprendere anche storicamente, rimandando alle vicende della scuola di Atene. Ma si tratta comunque di un principio di autorità, che non tende ad una separazione completa dei compiti, ma alla loro integrazione e che è quindi molto differente da quello che si imporrà successivamente (che in realtà si andava già imponendo proprio nel momento in cui l’autorità imperiale ed ecclesiastica riteneva pernicioso l’insegnamento della filosofia).
E ciò che distingue l’autorità di Aristotele da quella degli aristotelici cristiani medievali è precisamente il fatto, che la prima riteneva di potersi basare sull’evidenza teorica e quindi era in linea di principio sempre revocabile (come in effetti avvenne di frequente, per esempio nell’astronomia scientifica di Ipparco, che non dovette per questo sottoporsi ad alcun processo), mentre la seconda si basava su una fonte eminente della conoscenza, trascendente e indiscutibile, la rivelazione. È solo a partire da questo riferimento fondante alle scritture, che si poté imporre una concezione della filosofia puramente razionale, non immischiata nel mondo. E che si impose un disprezzo per ogni conoscenza mondana, considerata sempre sostanzialmente falsa, nella misura in cui il mondo stesso non era che una dimensione inferiore dell’essere, rispetto alla dimensione spirituale umana e divina. Insomma, è nel creazionismo e nel dualismo che si imposero alla fine dell’antichità, il motivo per il quale la filosofia, ridotta a pura ancella della teologia, poteva pretendere di ottenere ragione in dispregio dell’esperienza e così ridurre tutta la scienza ad un lavorio volgare con finzioni matematiche. Un lavorio, al quale gli stessi scienziati ritennero spesso saggio limitare le proprie pretese, per evitare accuse di eresia: al termine della prima disputa di Galileo con la chiesa, nel 1616, non vennero condannate le opere di Galileo, né quelle di Copernico, ma solo un’operetta di un teologo carmelitano, che cercava di conciliare il copernicanesimo con passi della bibbia: come vedete, ciò che veniva ora rifiutato era precisamente ogni possibilità di integrazione reciproca e completamento delle due prospettive: finché Copernico accettava il compromesso di Simplicio, così come si era modificato nel tempo, la sua posizione non era problematica per la chiesa. E questo compromesso fu in qualche modo rispettato, con l’eccezione eclatante di Giordano Bruno, fino alla pubblicazione dei Principia di Newton, che nei suoi assunti metodologici lo mise definitivamente in mora, tramite il famoso asserto: hypoteses non fingo, che significa appunto il rifiuto di intendere i concetti della fisica come semplici artifici ai fini del calcolo che deve prevedere certi fenomeni, salvare i fenomeni.
Ora, da tutto questo discorso non traiamo solo la correzione di un luogo comune, quello della separazione tra filosofia e scienza come l’una metodo razionalistico e dogmatico del sapere e l’altra metodo empirico, ma acquisiamo anche elementi in positivo, per la determinazione del loro rapporto reale: in linea di principio, si tratta di approcci che possono condividere tanto l’oggetto quanto il metodo. La filosofia, infatti, almeno in parte si occupa dei fenomeni naturali, così come l’astronomia non si limita alla descrizione, ma può cercare di provare, di dimostrare, quindi di argomentare circa i propri risultati. Più fondamentalmente, pur essendo entrambe aperte al mondo, pur volgendosi entrambe ai fenomeni, lo fanno entrambe, e addirittura la scienza più nettamente, a partire da un logos universale, che non vale per questo o per quel fenomeno, ma per ogni cosa che può apparire nel mondo. Ed è precisamente questo che differenzia la scienza greca da ogni scienza precedente, ciò che contraddistingue, di fatto, la scienza dalla somma di conoscenze empiriche e pratiche alle quali possiamo ridurre quelle che vengono chiamate le scienze babilonese, egiziana, indiana, cinese e così via.
Così arriviamo al punto, l’origine greca della scienza, ancor meglio, l’origine comune nella Grecia antica di scienza e filosofia e il loro progressivo allontanarsi. E vi arriviamo non partendo da una concezione della scienza come conoscenza, come dicevamo, concezione che infatti ci porterebbe a parlare legittimamente delle conoscenze pregreche circa la natura come scienze e di una distinzione in linea di principio e sin dall’inizio tra filosofia e scienza. La scienza non è la somma di certe conoscenze estratte dall’esperienza del mondo, la scienza è prima di questo un modo di avere a che fare con i fenomeni, un atteggiamento dell’uomo verso il mondo, che è certo legato a tutti i fattori più eclatanti della rivoluzione neolitica, ma che si distingue e specifica in maniera del tutto determinante per la successiva evoluzione della nostra civiltà solo nella Grecia antica.

Come sapete, la rivoluzione neolitica è legata al passaggio dal nomadismo alla vita sedentaria, che si impose insieme alla scoperta dell’agricoltura. Questo cambiava del tutto le coordinate dell’esistenza umana precedente, sin nelle strutture più profonde della percezione, quindi nelle categorie spazio-temporali.
Si passa, in effetti, da una percezione itinerante dello spazio ad una radiante: nelle testimonianze del paleolitico è evidente, che lo spazio era organizzato non a partire da punti di riferimento universali (come i punti cardinali), ma individuali, da luoghi di interesse particolare, come un certo pascolo o una certa fonte: lo spazio veniva descritto e percepito in maniera dinamica, come un percorso definito e sensato dalle sue tappe. Con la sedentarizzazione, invece, si impone una percezione statica: a partire dal nucleo abitato, lo spazio si amplia in cerchi concentrici entro la dimensione circolare definita dall’incontro nell’orizzonte del cielo e della terra (queste due percezioni, in realtà, convivono: animale cittadino).
E un cambiamento analogo avviene nella percezione del tempo: dalla consapevolezza già nomade della ritmicità naturale, legata soprattutto alle fasi lunari e alle migrazioni animali, si passa ad un’organizzazione sempre più astratta e cittadina del tempo, ad un tempo astratto, scandito dalle cerimonie religiose e politiche. Ma soprattutto, all’integrazione nei tempi zoologici si sostituisce l’organizzazione dei tempi agricoli, la determinazione del momento dell’aratura, della semina, della potatura, del raccolto e così via.
Entrambi i mutamenti comportano un modo diverso di guardare il cielo, anzi in un certo senso si comincia solo ora ad osservarlo veramente, se è vero che è con il neolitico che nascono le divinità uraniche: ad ogni modo, era solo tramite il riferimento agli astri che diveniva possibile un orientamento spaziale rigoroso sui punti cardinali e la misura delle stagioni ai fini dell’economia agricola, con il passaggio dal mese lunare all’anno solare, che corrispondeva al passaggio dalla religione della grande madre a quella del dio re, del dio pluviale e fecondatore.
E’ nel  contesto di tali eventi che nascono la matematica e la geometria, inizialmente e a lungo strettamente connesse all’economia e al culto (in effetti, questi elementi rappresentano un unico complesso): la matematica deriva dal mero conteggio degli elementi dei ritmi stagionali, in primo luogo del numero dei giorni che ci vogliono affinché si ripresenti una stessa posizione del sole, del numero dei giorni dell’anno. E i grandi maestri antichi della matematica e dell’astronomia furono i babilonesi, che proprio dal numero dei giorni di un anno, approssimato a 360, svilupparono un’aritmetica posizionale su base sessagesimale, che aveva una potenza di calcolo molto superiore a quella che l’aritmetica greca avrebbe mai sviluppato.
I babilonesi svilupparono anche molte conoscenze di geometria: possediamo, infatti, oltre a molte tavolette che elencano e contano i fenomeni celesti, tavolette che riportano la “lista completa dei cosiddetti triangoli rettangoli pitagorici con la lunghezza dei loro lati, cosicché se ne poteva sapere il valore anche nel caso che non si trattasse di numeri interi. Vi era una lista completa di tutti i lati di lunghezza intera e tabelle per le radici quadrate e cubiche”. Fu però in Egitto che la geometria acquisì uno statuto sacrale, politico ed economico del tutto privilegiato, il che è dovuto alle condizioni particolari dell’agricoltura egiziana, dipendenti dalle inondazioni periodiche del Nilo: dopo ogni inondazione era necessario ripartire nuovamente le terre coltivabili e farlo in maniera proporzionale all’intensità dell’inondazione, compito questo degli arpedonapti. E questa ripartizione assumeva un vero e proprio carattere di ricreazione del cosmos, dell’ordine, dopo il caos che era la reimmersione nell’elemento liquido originario. La geometria degli arpedonapti, insomma, si manifestava come un’autentica potenza dell’origine e non stupisce, dunque, che fosse gravata di un pesante apparato sacrale, che tendeva a cristallizzarla in senso rituale. Inoltre, essa era una potenza del diritto, della giustizia: il suo scopo era l’equa ripartizione delle terre, che poneva fine ai dissidi e consentiva la convivenza pacifica nella società: il cosmos naturale ricreato dall’economia agricola era anche il cosmos sociale e politico, umano. Tutta la giurisprudenza prende inizio da due forme di contratto: quello appena descritto e il diritto di guerra, che era esso stesso legato a questioni geometriche, di confine e territorio.
E in questo contesto di connessioni reciproche tra diritto, agricoltura e religione, nasce un concetto fondamentale quasi come quello di numero, il concetto di misura e di unità di misura. Dobbiamo ritenere, ovviamente, che anche nel paleolitico esistesse una comprensione della divisibilità regolata di quantità: se è vero che gli uomini della prima età della pietra erano organizzati in gruppi di persone che praticavano insieme la caccia e la raccolta di frutti selvatici, indubbiamente dobbiamo pensare a qualche regolamentazione nella suddivisione della preda. Ma è più che probabile che essa avesse luogo in maniera qualitativa: in altre parole, mancava l’idea dell’equivalenza delle parti e di una molteplicità qualitativamente indifferenziata di elementi, mancava un sistema per determinare equivalenze, al di là dell’identità di parti determinate: si trattava, insomma, di una suddivisione analoga a quella che avviene nei branchi animali di predatori.
Nel neolitico, però, in concomitanza con il diffondersi dell’agricoltura nacque anche la ceramica, ed entrambe le cose comportarono immediatamente, insieme all’organizzazione statale della produzione e al sistema fiscale, la determinazione precisa di unità di misura standard, la più importante delle quali era la quantità di grano contenuta in un recipiente di dimensioni determinate. Direttamente legata a questa era la misura della lunghezza, che veniva usata per stimare il numero di vasi di grano che poteva produrre un certo terreno: questa correlazione era talmente forte, che in alcuni casi, come in Cina, l’unità di misura dell’estensione dei campi variava a seconda dell’annata, in modo che rimanesse costante il suo rapporto con l’unità di produzione.
Questa determinazione volumetrica dell’unità di misura della produzione si perfezionò presto come determinazione in base al peso, non appena ci si accorse che due contenitori uguali, fissati su un supporto rigido e posti alla stessa distanza da un asse tendevano a rimanere in equilibrio: si era scoperta la bilancia e con essa una forma elementare della leva, ossia della macchina semplice più importante per tutta la tecnica antica e poi, con Archimede, anche per la scienza. Ed è superfluo sottolineare come questa macchina, la bilancia, sia stata da subito percepita come simbolo dell’equità, della giustizia, quindi in termini di diritto.
Vediamo dunque, come la rivoluzione neolitica abbia comportato lo sviluppo di tutta una serie di pratiche e conoscenze, che certamente appartengono, almeno come presupposti, a ciò che noi chiamiamo scienza: dall’astronomia abbiamo l’aritmetica, dall’agricoltura la geometria, e con il concetto di misura si apre la strada ad una considerazione quantitativa del continuo, così come le innovazioni tecniche introducono elementi che saranno poi determinanti per la meccanica. E tutto ciò avviene e si compie ad un alto livello già nelle civiltà fluviali, la babilonese e l’egiziana, prima dei greci, ma anche l’indiana e la cinese, dopo i greci: queste civiltà, rispetto alle prime, si distinsero solo in termini quantitativi, rimanendo per il resto perfettamente analoghe: la scienza cinese, in altri termini, non è sostanzialmente diversa da quella egiziana, per quanto possa avere un contenuto di conoscenza maggiore o minore in ambiti particolari. In sostanza, però, è la stessa decantazione di saperi positivi a partire dalle esigenze complesse ed intrecciate di economia, tecnica agricola ed amministrazione centralizzata.
L’essenziale in tutto questo sviluppo, però, non è né la potenza di calcolo dell’aritmetica babilonese, né la funzione sacrale, economica, etc. della geometria egiziana, ma l’appercezione di una correlazione tra i numeri, le misure e le regolarità temporali e spaziali: il sole impiega lo stesso numero di giorni per ritrovarsi nella stessa posizione; ad un uguale volume di grano corrisponde un uguale peso di grano, e così via: le conseguenze ultime di questa percezione, però, non le trassero i babilonesi o gli egiziani e neanche gli indiani e i cinesi, ma paradossalmente coloro che erano meno attrezzati da tutti i punti di vista: i greci, presso cui  aritmetica e geometria erano molto meno sviluppate, perché meno sviluppate erano l’agricoltura e la tecnica, per non parlare della centralizzazione dell’economia, che in Grecia si verificò parzialmente solo con i macedoni e poi con i romani.
Tutti i cambiamenti apportati dalla rivoluzione neolitica, però, sono solo un presupposto per la nascita della scienza, poiché, affinché si passasse dalla sapienza babilonese ed egiziana alla scienza greca, doveva svilupparsi una concezione del tutto nuova della potenza universalizzante della matematica. Questo avvenne in Grecia, ove  non esisteva uno stato unitario, né un’economia centralizzata: dopo la dissoluzione dei reami achei, le invasioni doriche imposero un’economia agricola molto frammentata: ogni oikos fondava la sua autonomia sul possesso della terra sufficiente al proprio sostentamento e soprattutto degli schiavi che la lavorassero, in modo che i loro signori fossero liberi di esercitare le armi e la politica. A seguito dei processi di integrazione delle popolazioni autoctone originarie e di incremento demografico, però, inizia il movimento assolutamente decisivo della colonizzazione greca, a partire dall’VIII secolo a.C., movimento che comporterà il progressivo spostamento del baricentro dell’economia dall’agricoltura al commercio. La colonizzazione significò un primo contatto sistematico con altre popolazioni, oltre allo svilupparsi di un sistema monetario più evoluto: e non pochi storici hanno sottolineato come proprio nelle colonie si siano sviluppati i primi germi della filosofia e della scienza greca.
La chiave di volta per lo sviluppo greco della scienza, però, è solo in parte di carattere strutturale e storico: certo, l’incontro di civiltà è frequentemente all’origine di sviluppi di un qualche tipo, ma generalmente avviene che le culture meno evolute e potenti vengano più o meno assimilate o si chiudano in se stesse. Nel caso della Grecia, invece, abbiamo uno straordinario caso di apertura e recezione delle altre culture, i cui elementi vengono però radicalmente ellenizzati, digeriti, fatti propri, e questo vale per tutto, a partire dai culti di derivazione orientale, di cui l’esempio principale è la trasfigurazione in senso apollineo delle celebrazioni orgiastiche.
È difficile comprendere il motivo di questa specie di miracolo. Forse la spiegazione più convincente rimane quella che fa riferimento al carattere greco, che è definito dalla sua volontà fondamentale di libertà e gloria, che è anche ciò che determina la natura schiettamente filosofica del popolo greco, almeno nella misura in cui la filosofia è legata all’individualismo e alla pretesa di piena autonomia.
Un indizio in questa direzione può fornirlo quella che è la figura più caratteristica in questo periodo aurorale della filosofia nelle colonie greche, la figura certamente decisiva di Pitagora, commerciante, appassionato studioso della matematica persiana ed egiziana, che conosceva di prima mano proprio durante i suoi viaggi d’affari, uomo dotato del carisma del fondatore di religioni, scolarca che spinse i suoi discepoli a tributargli una vera e propria venerazione: ebbene, Pitagora rimase sempre un dilettante, ma ebbe due intuizioni fondamentali: il carattere ontologico dei numeri, ossia la consustanzialità di matematica e natura, matematica ed essere, e conseguentemente l’idea della dignità assoluta del sapere: cosa che comporta il capovolgimento delle gerarchie sin lì valide: non è la religione che si fa garante della conoscenza, non è l’economia, il fisco, la tecnica o la guerra che producono il sapere ai propri fini, ma è la scienza che si pone come immediatamente sacra e superiore ad ogni sua concretizzazione e utilizzazione pratica.
Per quanto sia completamente un falso storico, quindi, l’attribuzione a Pitagora del famoso teorema sul triangolo rettangolo è in fondo giusta: è vero che già i babilonesi conoscevano le relazioni tra le misure dei lati del triangolo rettangolo, così come è vero che la dimostrazione rigorosa del teorema avvenne solo alcuni secoli dopo Pitagora, ma è legittimo ritenere che senza la sua concezione della matematica quella dimostrazione sarebbe giunta molto più tardi.
Una concezione della matematica, che emerge nella sua forma più pura e consona al genio greco, che era un genio musicale, proprio nella teoria pitagorica dell’armonia: l’individuazione della relazione tra suono e lunghezza della corda, la scoperta della progressione armonica, è la prima applicazione veramente rigorosa della matematica alla fisica.
Certo, l’ontologia dei numeri avrebbe anche avuto conseguenze paradossali: per esempio, Pitagora pare conoscesse solo 4 dei 5 solidi regolari: tetraedro, cubo, ottaedro e dodecaedro. Ed egli è stato, probabilmente, all’origine della geometrizzazione dei 4 elementi fisici: la terra, l’acqua, l’aria e il fuoco. Per quanto con un argomento per pura analogia, quindi, egli aveva in effetti inaugurato una vera e propria scienza matematica e geometrica della natura. Quando però geometri più sottili scoprirono il V solido regolare, l’icosaedro, che già Platone conosceva, si dovette inventare un altro elemento: il famoso etere, che è sopravvissuto praticamente fino alla fine dell’ottocento.
Quel che però è caratteristico, al di là di questi incidenti, è che, a differenza di ciò che conosciamo dai testi babilonesi ed egiziani, nei quali manca qualsiasi accenno anche indiretto, che essi abbiano sviluppato l’idea di prova, di dimostrazione (in questi testi sono contenute solo regole e tabelle), l’approccio di Pitagora dimostra come per i greci proprio la regola era stupefacente e poneva un problema: di fronte alle regolarità il greco non si accontentava di una presa d’atto, né cedeva facilmente alla tentazione di una spiegazione religiosa o mitica, ma si chiedeva il motivo e imbastiva un vero e proprio processo, per accertare la verità o meglio la giustizia, il diritto, di quelle misure regolari. E si riteneva soddisfatto solo quando riusciva a riportare la realtà effettiva ad un ordine intelligibile perfetto, che riteneva poi spesso la vera e propria causa genetica di tutta la realtà.
In Pitagora questo ordine perfetto era immediatamente quello dei numeri e delle forme geometriche e ancora in Platone si farà valere qualcosa di simile. Solo Aristotele svilupperà una critica approfondita di questa concezione, contestando l’esistenza degli enti matematici (numeri ed elementi geometrici) sia entro i corpi, sia separata dai corpi: gli enti matematici, in altri termini, non sono né enti fisici, né essenze semplici, bensì enti noetici, mentali, hanno un’esistenza solo nel pensiero. A prescindere da ciò, però, l’impostazione di fondo rimane la stessa: ciò che è oggetto di esperienza è conoscibile realmente solo trovandone i principi primi entro un ordine intelligibile superiore.

Riassumiamo ancora:
La scienza non è una somma di conoscenze tratte dall’esperienza, ma un modo di avere a che fare con i fenomeni, le cui condizioni di possibilità sono i profondi mutamenti antropologici della rivoluzione neolitica, legati all’urbanizzazione, alla nascita di un diritto codificato e di una tecnica agricola e marittima evoluta. Affinché, però, da ciò si sviluppasse un’autentica scienza e non solo una saggezza innestata entro le funzioni politico-amministrative del ceto sacerdotale; affinché la matematica, aritmetica e geometria, potesse divenire oggetto di una riflessione autonoma e non più dipendente dal culto e dall’economia; affinché il concetto di misura potesse trovare una trattazione puramente matematica e non rimanere radicato nell’amministrazione e nel diritto; e affinché le macchine potessero essere considerate a prescindere dalla loro utilità, come exempla semplificati del moto dei corpi; affinché, insomma, nascesse la scienza greca, tutti questi elementi originariamente eterogenei dovevano confluire entro lo sguardo unificante della filosofia, che interroga il tutto circa il proprio principio, che è la sua unità. Nella misura in cui, insomma, la scienza rimane consustanziale a questo atteggiamento, e in qualche misura vi rimane sempre, essa è una possibilità della filosofia e non è comprensibile al di là di ciò. Dunque, la scienza è una possibilità della filosofia, come passaggio dall’esperienza al pensiero universalizzante e dal riconoscimento collettivo di una autorità cultuale, politica, economica o giudiziaria o cos’altro all’impregiudicatezza della teoria.
Questo passaggio è implicitamente compiuto nei fisiocratici e trova già un’espressione del tutto esplicita in Aristotele, anche se la scienza in senso stretto sarà quella alessandrina e potrà essere solo quella alessandrina, per una serie di motivi struttrali cui accenneremo tra poco. Ma prima è necessario presentare la  concezione della scienza che Aristotele espone proprio nel primo libro della Metafisica, in cui si riassumono molti dei punti centrali esposti sinora:
“Tutti gli uomini sono protesi per natura alla conoscenza: ne è un segno evidente la gioia che essi provano per le sensazioni, giacché queste, anche se si metta da parte l’utilità che ne deriva, sono amate di per sé…”. Come vedete, qui Aristotele riconosce il carattere di pathos della stessa apertura, già animale, al tutto sensibile, e individua subito la relazione tra questo amore del sensibile e la tensione alla conoscenza: “è un fatto naturale, d’altronde, che tutti gli animali siano dotati di sensibilità, ma da tale sensibilità in alcuni di essi non nasce la memoria, in altri sì. E appunto perciò questi ultimi sono più intelligenti e hanno maggiore capacità di imparare rispetto a quelli che sono privi di facoltà mnemoniche…”. Alla sensibilità si aggiunge qui la memoria: un passaggio, che equivale a quello dall’apertura, sempre in atto della certezza sensibile, al possesso del già sentito nella memoria. Quindi, quello dal sentire al sapere di aver già sentito, è un passaggio analogo a quello dal conoscere al conosciuto, alla conoscenza, un passaggio che però avviene solo nell’uomo, grazie all’esperienza. “Negli uomini l’esperienza trae origine dalla memoria, giacché la molteplicità dei ricordi di un medesimo oggetto offre la possibilità di compiere un’unica esperienza. Anzi, pare quasi che l’esperienza sia qualcosa di simile alla scienza e all’arte, ma in realtà l’esperienza è per gli uomini solo il punto di partenza da cui derivano scienza e arte…”. L’esperienza si forma apparentemente per induzione mnemonica, ma qui in realtà si parla della collezione delle singole percezioni come condizione di possibilità, non come fondamento: compiere un’unica esperienza non è atto d’astrazione e induzione, ma facoltà positiva dell’immaginazione, che è il primo passo verso l’ulteriore sintesi operata da scienza e arte. “L’arte nasce quando da una molteplicità di nozioni empiriche venga prodotto un unico giudizio universale che abbracci tutte le cose simili tra loro…”.
Arte, techne: qui è evidente che techne è sinonimo di episteme, scienza: in tutto questo libro Aristotele usa i termini insieme, senza preoccuparsi di distinguerli, come farà poi nell’Etica Nicomachea. E può ben farlo, poiché essi condividono il nucleo concettuale. Insomma, in greco episteme e techne non indicano affatto il lato teorico e quello pratico della conoscenza, ma si distinguono innanzitutto per l’oggetto di cui trattano, e di cui trattano in maniera entro certi limiti analoga. Di conseguenza, la techne è un tipo di episteme, così come singole forme dell’episteme possono essere dette technai. Questo perché ™pist»mh in greco non vuol dire immediatamente scienza nel senso di un determinato contenuto di sapere concettuale, ma prima di tutto l’intendersi di qualcosa, che significa sia l’esperienza conoscitiva della cosa, che la perizia nel produrla. E nell’Etica nicomachea questa vicinanza dei termini è chiarita molto bene: qui Aristotele chiama la scienza disposizione dimostrativa, Exis apodeiktiké: “infatti si conosce per scienza, quando si ha una convinzione acquisita in un modo ben determinato, e cioè quando ci sono noti i principi”. Inoltre, definisce  la techne “disposizione accompagnata da un ragionamento che dirige il produrre” exis metà logou alitous poietike. Almeno quest’ultima definizione deriva direttamente da Platone, che nel Cratilo presenta una curiosa, ma indicativa, etimologia di techne da exis nou (atteggiamento dell’intelligenza).
Ora, a prescindere dalle differenze, ciò che accomuna episteme e techne, ove sia nell’una che nell’altra comprendiamo cose che noi oggi intendiamo sia come filosofia che come scienza, è il fatto che si tratta di Exeis psychis, disposizioni dell’anima, atteggiamenti del pensiero. Exis è una delle parole abissali del greco: viene da echo, avere, e indica il contrario dell’acquisto, ktisis, di ciò che si acquisisce a partire dalla sua mancanza: exis è ciò che già da sempre ci è proprio, è il nostro habitus (habere), in un senso di questo verbo, avere, che è molto diverso dall’odierno: noi distinguiamo e quasi contrapponiamo essere e avere, mentre nell’antichità avere è un modo dell’essere. Exis significa dunque il possesso, l’habitus, e poi per estensione l’attitudine, il talento, la facoltà, addirittura l’esperienza. Come vedete, questi termini rimangono sempre strettamente intrecciati, in un contesto che non conosce le distinzioni radicali tra teoria e pratica e tra teoria ed esperienza. Ma andiamo avanti con la lettura della Metafisica:
“Orbene, sotto il profilo strettamente pratico, sembra che l’esperienza non differisca affatto dall’arte… ciò nonostante, però, noi siamo del parere che il conoscere e l’intendere siano proprietà piuttosto dell’arte che dell’esperienza e consideriamo quelli che sono tecnicamente preparati più sapienti di quelli che seguono la sola esperienza, giacché reputiamo che, in ogni caso, la sapienza si accompagna alla conoscenza: e ciò è dovuto al fatto che gli uni conoscono la causa, gli altri no. Gli empirici, infatti, sanno il che, ma non il perché; quegli altri, invece, sanno discernere il perché e la causa”. Come vedete, dunque, la techne, l’arte, è vera sapienza, e non solo esperienza, poiché essa è conoscenza per cause: è un atteggiamento dell’anima, dell’intelletto, che supera la mera raccolta di nozioni, l’accumulamento mnemonico di dati, verso l’unificazione di essi. Ripetiamo:
“L’arte nasce quando da una molteplicità di nozioni empiriche venga prodotto un unico giudizio universale che abbracci tutte le cose simili tra loro”.
Ebbene, questa è precisamente la concezione determinante, per tutto lo sviluppo della scienza occidentale, ben al di là del mondo greco. E in essa sono riuniti tutti gli elementi, che poi daranno vita alle varie scansioni che la teoria della conoscenza e della scienza ha conosciuto (citiamo solo le fondamentali: razionalismo empirismo e idealismo realismo).

Oltre a ciò, nella concezione aristotelica vi è anche la prima espressione rigorosa del metodo che permette di produrre il giudizio universale: tutto l’apparato logico degli analitici e dei topici. E questa operazione realmente immensa di organizzazione del sapere e dell’argomentare è un presupposto fondamentale, per tutti gli sviluppi ulteriori. Come già vi dicevo, quindi, la funzione della filosofia aristotelica all’origine è propulsiva e nient’affatto un impedimento, come sarà poi nel medioevo, quando Aristotele sarà divenuto un’autorità.
Ed è una funzione propulsiva, anche dal punto di vista pedagogico: a differenza dell’Accademia di Platone, infatti, che era una scuola in senso classico, ossia volta all’educazione armonica delle virtù dei giovani aristocratici ateniesi, il Liceo aristotelico era un vero e proprio istituto di ricerca, soprattutto nelle scienze biologiche e politiche. Ed è proprio sul modello del liceo, che si svilupperà quella comunità di filosofi e scienziati che fu il Museo di Alessandria, racconto intorno alla famosa biblioteca.
In breve: Aristotele è figura di confine, non autentico scienziato, ma colui che, in vari modi, ha posto le basi, sulle quali si sarebbe sviluppata, anche contro Aristotele, la scienza alessandrina. E queste basi sono: la concezione della scienza come teoria e non come raccolta di esperienze, la pratica della ricerca scientifica come processo metodologicamente rigoroso di analisi della natura, dell’empiria; lo sviluppo di un metodo deduttivo, come impianto dimostrativo del sapere scientifico, come tramite del passaggio dal fatto al perché.
Perché, però, si passasse dalla scienza ancora del tutto unita alla filosofia del periodo classico alla scienza alessandrina, dovevano avvenire altre due cose, legate a due nomi: uno è Euclide e l’altro è proprio Alessandro, che non esercitò questo suo ruolo decisivo come discepolo di Aristotele, ma come erede e dissipatore della politica di suo padre Filippo il Macedone. L’impresa di Alessandro, infatti, al di là della durata effimera del suo impero, è un momento di rottura radicale nella storia antica, che a noi interessa soprattutto per ciò che rese possibile: l’incontro sistematico della filosofia greca con le culture persiana (erede di quella babilonese) ed egiziana. Questo incontro non era più quello episodico proprio delle colonie, per il motivo fondamentale, che la conquista macedone, anche dopo lo spaccarsi in vari regni dell’impero, significò l’amministrazione greca di quei territori e della loro economia.
Questo comportò il contatto del pensiero greco con un’accumulazione enorme, per l’epoca, di conoscenze, che soprattutto per quanto riguarda la matematica, la geometria, l’astronomia, l’architettura e la tecnica erano di molto superiori a quelle della grecità. I greci, però, portarono con sé una teoria del sapere e quindi furono in grado di compiere un salto di qualità metodologico. Costretti, in qualche modo, ad amministrare un’economia ed una politica di dimensioni mai conosciute a loro, ed a farlo al di fuori degli organismi che tradizionalmente avevano svolto queste funzioni, quindi privi di ogni tradizione al riguardo, ai greci non restò altro che trasformare radicalmente il modo, importando e traducendo l’intero complesso che si trovarono di fronte entro le proprie coordinate, che sono poi, in linea di massima, quelle che abbiamo ritrovato nella Metafisica di Aristotele: “L’arte nasce quando da una molteplicità di nozioni empiriche venga prodotto un unico giudizio universale che abbracci tutte le cose simili tra loro”.
Questo fu lo sforzo dei greci alessandrini: in qualche modo, semplificare e rendersi accessibile il mondo che incontrarono, cercando di ordinarlo entro un unico giudizio universale, che era il loro ingrediente. Ma questo unico giudizio universale non fu la filosofia prima di Aristotele, bensì la matematica prima di Euclide.
Euclide può ben valere come l’Aristotele della matematica: in effetti, la funzione degli Elementi è paragonabile, per la matematica, a quella dell’organon aristotelico per la logica e, in fondo, segue lo stesso principio della dimostrazione: dimostrazione compiuta si dà per deduzione da principi primi, non ulteriormente deducibili: quindi è la via deduttiva il metodo fondamentale della dimostrazione e non l’astrazione da una molteplicità di nozioni. Un teorema, a prescindere dal modo in cui sia stato trovato, vale come provato, solo se è deducibile da principi primi, universali.
In realtà, gli Elementi di Euclide sono la traduzione sul piano matematico dei principi aristotelici della dimostrazione: Euclide elenca nelle definizioni e negli assiomi i termini universali, dai quali derivare per via rigorosamente deduttiva tutto il complesso della geometria, tutti i teoremi, che a differenza degli assiomi sono le asserzioni dedotte: di fatto, solo con questa definizione nasce l’idea stessa di teorema e quindi diviene pienamente legittimo parlare anche del teorema di Pitagora e di tutti gli altri teoremi che le civiltà babilonese ed egiziana avrebbero già conosciuto: invero, esse avevano trovato certe relazioni tra misure, ma non avevano mai prodotto nessun teorema.
Altro elemento fondamentale della matematica di Euclide, è che tramite il suo apparato definitorio ed assiomatico essa si costituisce in maniera del tutto autonoma, come matematica pura. Questo vuol dire, che rispetto all’ontologia pitagorica dei numeri, la matematica euclidea ha imparato la lezione aristotelica e non considera i numeri come enti fisici o ideali, ma puramente teorici. Questo assicura al logos matematico la piena facoltà di svilupparsi giusti i propri principi e senza pretendere immediatamente che i propri oggetti abbiano un contenuto fisico, come avveniva per i solidi regolari ancora in Platone. Il che comporta una posizione molto più mediata, riflessa e anche meditata circa le relazioni tra matematica e fisica: l’esposizione rigorosamente matematica della fisica a partire da Archimede, insomma, non cadrà più nelle ingenuità del pitagorismo.
Un ultimo elemento è per noi molto importante: la matematica di Euclide è matematica del continuo, non del discreto. In altri termini, essa ragiona a partire dal concetto di misura  come segmento di un continuo. E costruisce le sue applicazioni lavorando con unità geometriche di misura: il calcolo avveniva poi misurando di fatto la lunghezza degli oggetti disegnati. E la grande flessibilità e semplicità di questo metodo ha frenato lo sviluppo dell’algebra, che avverrà nel medioevo, quando il capitolo fondamentale sulle proporzioni degli Elementi di Euclide era talmente corrotto da non essere più comprensibile: si dovette allora trovare altri modi, mancando la capacità di sviluppare una teoria geometrica di quel livello. A questo è dovuto ciò che a noi appare così singolare: che la matematica greca ignorasse i decimali, poiché lavorava solo con interi e frazioni di interi, e soprattutto che ignorasse lo zero e addirittura non ritenesse l’uno un numero.
Perché questo è importante, per noi? Perché in realtà, la differenza tra matematica del continuo e del discreto è fondamentale per comprendere Galileo e anche Newton e soprattutto finisce per corrispondere, in qualche modo, alla differenza tra le due grandi teorie post-classiche, la relatività e la meccanica quantistica.
Per quanto riguarda Galileo voglio solo accennare al fatto che egli non usava l’algebra, che non scrisse mai un’equazione, nemmeno negli appunti, e questo certo non perché non conoscesse i recenti sviluppi dell’algebra, ma poiché li riteneva artifizi matematici, poco rigorosi, e in fondo aveva ragione, se consideriamo che solo nell’ottocento, con Dedekind, l’algebra raggiunse il rigore della geometria euclidea. Quindi l’adesione di Galileo alla teoria euclidea dei rapporti e della proporzionalità tra grandezze matematiche continue fu l’esito di una scelta: egli lavorava soltanto con numeri interi e frazioni di numeri interi, così come fece anche Newton: il risultato più notevole di ciò, è che nella loro fisica non possono esserci costanti, ma solo relazioni date.
Ma passiamo direttamente a Newton. La meccanica newtoniana, nella sua espressione matura, formalizza le leggi relative ai movimenti dei corpi nello spazio ed alle forze che si esercitano su questi movimenti. Il corpo è concepito come una certa quantità di massa dotata di inerzia, col che si vuol dire che la quiete e il moto rettilineo uniforme di un corpo si mantengono di per sé, in assenza di influssi esterni, ossia se non intervengono forze a turbare il corpo. Questa è precisamente la prima legge della dinamica, che deriva dalla definizione della conservazione del moto di Galilei integrata con il concetto di forza: non c’è bisogno di nessuna forza per mantenere il moto rettilineo uniforme o la quiete di un corpo, le forze intervengono solo per mutare la velocità o la direzione del moto, che di per sé si conserva.
Questa legge è ovviamente dipendente dalle qualità dello spazio euclideo all’interno del quale la meccanica classica concepisce i suoi fenomeni, spazio del quale la quiete e il moto rettilineo uniforme definiscono gli elementi fondamentali: ossia la posizione e la direzione, il punto e la retta. In un certo senso, dunque, la meccanica classica può essere vista come un tentativo di generalizzazione ai fenomeni fisici dell’analisi geometrica dello spazio. Con un’importante correzione, però, relativamente alla concezione analoga degli antichi: rispetto, infatti, all’idea aristotelica che i corpi tendono ad occupare il loro luogo naturale, ossia che il loro moto sia del tutto dipendente dallo spazio in cui si trovano, si sostituisce qui la tesi che un corpo è di fatto una data quantità di moto, di per sé uniforme, tanto che si potrebbero concepire le stesse dimensioni dello spazio euclideo come dipendenti dal principio di inerzia, piuttosto che il contrario. Di fatto, è proprio per questo che una mutata concezione delle caratteristiche della massa inerziale, soprattutto a partire da Einstein, ha comportato anche un cambiamento nella concezione dello spazio (per esempio, quando si assume che certe masse siano in grado di “curvare” lo spazio).
A prescindere da questo, è comunque evidente sin dal principio, che il vero problema della fisica, a partire dall’impostazione galileiana, non è più quello aristotelico della kinisis, del moto, che è presupposto e per il quale non si richiedono cause, se ogni corpo persiste di per sé nella propria situazione cinetica, bensì quello del mutamento del moto, ossia dell’accelerazione (positiva o negativa). Ciò che la fisica deve poter calcolare e prevedere è la dinamica non certo della quiete o del moto rettilineo uniforme, bensì delle variazioni del moto (relativamente a velocità e direzione) in sistemi dinamici ove intervengano più corpi e forze. È questo precisamente l’oggetto della seconda legge della dinamica, espressa per lo più con la formula
F = ma
ove F è la forza, m è la massa inerziale ed a il vettore di accelerazione. Questa formula corrisponde alla tesi che l’accelerazione di un corpo è proporzionale alla forza che si esercita sulla sua massa inerziale. A parità di forza, dunque, ad una massa maggiore viene impressa un’accelerazione minore.
Da queste due prime leggi, ed ossia dalla definizione del corpo come quantum di massa inerziale, la cui misura determina anche il valore dell’incidenza di una data forza sul moto di quello stesso corpo, comportandone una maggiore o minore accelerazione, possiamo subito derivare anche una conseguenza molto notevole, e cioè che, in qualche misura, in questa concezione della dinamica propria dei corpi è già compresa l’idea di una sostanziale equivalenza tra corpo e forza: non solo nel senso generico che forza e corpo devono pur condividere qualcosa, affinché la prima possa applicarsi al secondo, ma nel senso che, ogniqualvolta si parla dell’incidenza di una data forza su di un corpo, il corpo stesso esprime una misura di forza, resistendole solo impropriamente “per inerzia”, nel senso comune che diamo a questo termine. Questa concezione troverà infine un’espressione compiuta nell’equivalenza einsteiniana tra massa ed energia, ma è in realtà già intima alla meccanica classica: basti pensare alle due forze che, in maniera eminente, saranno considerate come rappresentative per un sistema dinamico, la forza cinetica e quella potenziale, che corrispondono alle due possibilità essenziali di un corpo, quella del moto e quella della quiete.
Ma di fatto già nella terza legge della dinamica noi ritroviamo questa enunciazione relativamente all’interazione tra due corpi. La terza legge, nella dizione newtoniana, recita: “ad ogni azione corrisponde una reazione uguale e contraria”, il che di solito si traduce dicendo che se un corpo esercita una forza F su un altro corpo, quest’ultimo esercita una forza –F sul primo. Cosa che, se non concepissimo la variazione di accelerazione come derivata degli stati cinetici dei due corpi, sarebbe un’assunzione del tutto metafisica e incomprensibile. Perché, infatti, il secondo corpo, il corpo che subisce la forza in questa descrizione diacronica e causale, dovrebbe reagire all’attacco proprio con una forza identica e contraria alla prima? Il problema è che quella descrizione è molto antropomorfica e tiene artificialmente separati proprio i concetti di forza e corpo. Il primo corpo non è portatore di una forza, come potremmo immaginare seguendo le solite rappresentazioni esemplificative: diciamo la classica palla da biliardo, ferma, alla quale io imprimo una forza, che poi essa cede alla palla sulla quale urta, subendo in questa cessione una forza identica e contraria che, in teoria, dovrebbe riportarla ad uno stato di quiete. Ma rimanendo fedeli a questa concezione che distingue tra attori e portatori e tra causa ed effetto, non comprendiamo veramente il senso delle equazioni della meccanica classica, né una delle loro caratteristiche essenziali, ossia l’invarianza rispetto al tempo.
Infatti, un corpo che, relativamente ad un osservatore, si muove con una certa velocità in una data direzione è un certo quantum di forza, così come lo è il corpo in quiete (per lo stesso osservatore) e la terza legge della dinamica non dice niente altro che la loro interrelazione è quella data dal prodotto delle due quantità di moto e non un’altra, e che lo è indipendentemente dalla sequenza temporale nella quale si svolge il fenomeno. F = ma, appunto, ove ovviamente, qualora le masse da considerarsi siano più di una ed in interrelazione, la forza risulta appunto come una funzione della relazione tra le masse e i loro vettori di accelerazione. È, dunque, solo per l’abitudine di associare al corpo in moto o a quello dotato di maggiore massa la causa e a quello in quiete o di massa minore l’effetto, che descriviamo in maniera diacronica l’urto e dunque associamo un valore positivo o negativo alla forza a seconda del lato dal quale la consideriamo. Formalmente, e anche fenomenologicamente, però, le due direzioni coincidono.
Questa invariabilità relativamente alla direzione del tempo, che cominciamo qui a incontrare, dipende sostanzialmente dal fatto che, per la meccanica classica, ogni sistema dinamico è definibile, in linea di principio, istantaneamente, ossia come somma, in un dato tempo, delle diverse grandezze che caratterizzano i suoi elementi: posizione, velocità e accelerazione di ogni corpo. Ma come è possibile descrivere matematicamente lo stato istantaneo di un corpo relativamente alle coordinate del suo movimento? Da un punto di vista concettuale, ovviamente, siamo qui di fronte ad un ossimoro molto stridente, nella misura in cui solo la posizione appare definibile, in un dato istante, in termini esclusivamente spaziali. Ma il variare della posizione, sia esso uniforme o accelerato, coinvolge sempre un concetto di divenire temporale. Di fatto, anche in fisica la velocità è espressa come intervallo di spazio percorso in un tempo dato (metri al secondo, per esempio), e l’accelerazione come indice dell’aumento di velocità in un tempo dato. Ora, come è possibile coinvolgere queste quantità in una definizione istantanea del corpo in movimento? Ossia: com’è possibile concepire il movimento in un suo istante dato? È il vecchio problema di Zenone, che egli sollevava per sostenere la concezione parmenidea dell’atemporalità dell’essere. Ed anche la meccanica classica, compreso Einstein, ha creduto in una qualche atemporalità dell’essere di un sistema dinamico, quantomeno come determinabilità istantanea dei parametri sufficienti ad una sua descrizione completa.
La soluzione newtoniana, e ancor prima leibniziana, a questo problema fu di carattere matematico e consistette nell’introduzione del calcolo infinitesimale come descrizione adeguata della variazione al limite di una grandezza continua fra due istanti successivi, quando l’intervallo di questi due istanti tende a zero (notiamo che Galilei, invece, non ammise il concetto di velocità istantanea: egli considerava sempre intervalli misurabili di tempo, per quanto piccoli). Tramite ciò, lo stato del corpo in ogni istante viene descritto non soltanto dalla sua posizione, bensì anche dalla sua “tendenza istantanea”, qualunque cosa si voglia intendere con ciò, a cambiare posizione (velocità) ed a modificare il trend di questo cambiamento (accelerazione). Nell’ambito di questa teoria, velocità ed accelerazione si definiscono come “derivate rispetto al tempo” (limite al rapporto incrementale di una funzione).
Ora, come dicevamo prima, il vero compito della meccanica newtoniana è quello di calcolare la derivata al tempo dell’accelerazione di ogni punto di un sistema dinamico, che è una “derivata seconda”, poiché è espressa come derivata al tempo della velocità (e, ovviamente, anche di calcolare le ulteriori derivate, come la variazione nel tempo dell’accelerazione e così via). E l’accelerazione è funzione delle forze che si esercitano sul movimento dei corpi. Ma, coerentemente con la sua impostazione matematica, neanche questa formulazione riesce ad assicurare alla forza un diritto di cittadinanza forte nel cosmo meccanicistico, rispetto a quello della massa, e ciò anche in netto contrasto con l’intenzione dei fondatori di questa teoria. Infatti, nei termini del calcolo infinitesimale, il movimento di ogni punto in un certo intervallo di tempo è quantificato tramite l’integrazione dei suoi stati istantanei, ossia la somma delle variazioni infinitesime di velocità. In questo senso, per quanto tenda a darsi un’uguaglianza in ogni istante fra la forza applicata ad un punto e l’accelerazione che essa genera, proporzionale alla massa, e per quanto questa sorta di equivalenza tra forza e accelerazione costituisca l’incarnazione matematica, in conformità con la seconda legge della dinamica, della struttura causale proprio al mondo fisico meccanicistico, tutto ciò rimane definibile in termini di stato dei corpi in ogni singolo momento del loro moto. In certo qual modo, dunque, le forze studiate dalla fisica newtoniana sono funzione della configurazione spaziale del sistema di corpi fra i quali esse agiscono.
Ma a quale condizione possiamo fare una generalizzazione simile, considerando che la meccanica classica rimane l’esempio più tipico dell’uso del concetto di forza in fisica? In un certo senso, infatti, anche nella descrizione istantanea delle relazioni tra i corpi nello spazio del sistema considerato, noi inseriamo certe ipotesi sulla natura delle forze dinamiche, ossia sul modo in cui le accelerazioni istantanee che esse generano possono essere dedotte dallo stato istantaneo del sistema. Ciò significa, da Galileo in poi, che assumiamo che vi siano certe relazioni matematiche calcolabili tra le misure delle posizioni e delle velocità di ogni punto di un sistema in un due istanti scelti arbitrariamente, relazioni che devono essere confermate empiricamente. Ora, ciò che la fisica newtoniana ha stabilito, per un grande ambito di fenomeni, è che l’unica forza effettivamente in gioco, ossia la relazione matematica tra grandezze fisiche sufficiente a rendere conto delle posizioni successive dei corpi di un sistema dato, è precisamente una funzione tra la massa e la posizione reciproca di questi corpi. Infatti, la forza di attrazione gravitazionale, come ricorderete dal liceo, è proporzionale al prodotto delle masse e inversamente proporzionale al quadrato della distanza che le separa.
Ma che la forza venga definita come una certa relazione matematica tra le grandezze che descrivono i corpi nello spazio, significa in definitiva che ad essa è stato sottratto, già alle origini della fisica moderna, ogni carattere sostanziale: la forza non è un vero agente, un ente fisico dotato di una propria oggettività, bensì esprime la regolarità del comportamento dei corpi. La seconda legge della dinamica, associata al postulato galileiano che il libro della natura sia scritto in lingua matematica, non significa nient’altro che questo: che esiste una relazione tra massa ed accelerazione, tale da rendere conto della uniformità dei fenomeni fisici.
È in questo senso che essa è incarnazione matematica della struttura causale, come dicevamo prima: ossia non esprime nient’altro che la legalità della natura, la legge dei movimenti, una legge che è integralmente esprimibile come funzione matematica delle grandezze proprie ai corpi. E ciò vale indipendentemente da quale sia la forza: dopo Newton, infatti, alla forza di gravità si sono aggiunte tutta una serie di altre forze, che non rappresentano appunto nient’altro che diverse relazioni matematiche tra i corpi nello spazio. Che in natura si mostri una simile molteplicità delle relazioni dinamiche, è certamente qualcosa di antipatico per la fisica, la cui aspirazione ultima è formalizzare l’equazione che valga per ogni sistema dinamico possibile, la cosiddetta “formula del mondo”. Ma, nonostante questo programma non sia riuscito, neanche nei suoi tentativi più recenti, come la teoria del campo unificato, rimane valida e regolativa per ogni dominio di validità l’impostazione della meccanica newtoniana, ed ossia la richiesta che, quale che sia il contenuto empirico delle leggi del moto, ossia il modo in cui vengono quantificate in accordo con l’esperienza, la loro forma rimanga invariata: F = ma. È per questo che, all’aprirsi di nuovi campi di indagine, la fisica ha risposto con una serie di variazioni sul tema centrale della dinamica classica, intendendo i diversi ambiti fenomenici come espressioni di particolari sistemi dinamici: abbiamo così, per esempio, la termodinamica, l’elettrodinamica, etc.
Che cosa è dunque comune a tutti questi settori di ricerca, risultando riconducibile all’impostazione della meccanica classica? Possiamo cercare di riassumere in tre parole chiave, intimamente interconnesse, il significato dell’impresa che la fisica moderna ha affrontato nel segno della matematizzazione della natura. Queste parole sono: legalità, determinismo, reversibilità.
Che cosa intendiamo dire, assumendo che la meccanica classica sia caratterizzabile da questi tre concetti: legalità, determinismo e reversibilità? Prima di tutto, che essa esprime i propri enunciati generali in forma di leggi della natura, ossia che fissa matematicamente le relazioni universali tra le grandezze fisiche che pone come sufficienti a descrivere i sistemi dinamici. Con legalità, dunque, intendiamo dire che la natura viene considerata come omogenea ed uniforme relativamente a certe regolarità, definibili matematicamente, nelle interazioni tra i suoi elementi.
Per esempio: se abbiamo assunto, come è nel caso della meccanica classica, che le grandezze fisiche sufficienti a descrivere un sistema, ossia quelle caratteristiche degli enti di natura che risultano misurabili e che dovrebbero fornirci tutti gli elementi essenziali per spiegare la dinamica di qualsivoglia sistema, siano la massa inerziale e la posizione dei corpi, una legge naturale consisterà nella formulazione di una relazione quantitativa generale tra queste grandezze. A prescindere dunque da ogni realizzazione singola in un sistema dato, la legge ci dirà, per tornare all’esempio fondamentale, che le masse si attraggono con una forza proporzionale al loro prodotto e inversamente proporzionale al quadrato della distanza che le separa. Questa è una legge naturale: un’equazione matematica tra grandezze fisiche.
Se le cose stanno così, è ovvio che le leggi di natura di per sé non sono sufficienti a descrivere le dinamiche singolari di sistemi dinamici dati, ma solamente a definire le regole di tutte le evoluzioni possibili. Per prevedere il comportamento di un sistema particolare, alla legge del moto bisogna aggiungere la conoscenza empirica di uno stato istantaneo qualunque del sistema. È così possibile dedurre, applicando la legge universale, la successione degli stati del sistema, idealmente per qualsiasi suo momento, nel futuro e nel passato.
Facciamo ancora un esempio del tipo classico, newtoniano, che ci servirà anche per capire cosa cambia poi nella matematica della fisica a partire dall’ottocento. Se vogliamo descrivere matematicamente la caduta di un grave usando la legge del moto di Newton, noi dobbiamo conoscere la massa e la velocità del corpo, quella della terra e la distanza tra i due baricentri. Successivamente, imposteremo le equazioni in questi termini: al tempo t, un grave di massa m e velocità x alla distanza y da un grave di massa m1, subisce un’attrazione pari a F. Data questa conoscenza, noi possiamo definire, tramite il calcolo infinitesimale, qualsiasi configurazione tra questi due corpi in un tempo t1 a piacere, ossia, possiamo stabilire, per esempio, quale fosse la distanza tra i due corpi, sempre in assenza di perturbazioni, tanto precedentemente, quanto successivamente all’istante iniziale. Ciò non toglie, però, che in questa forma ogni nostra descrizione è parziale e legata ad un punto di vista, per quanto contenga implicitamente in sé la totalità sincronica del sistema. Parziale, poiché ad ogni istante considerato la forza di attrazione, per quanto rispondente ad una stessa relazione, risulta differente, col cambiare delle dimensioni delle grandezze considerate, nel nostro caso della distanza. In effetti, quanto più sono vicini i corpi, tanto più forte sarà la loro attrazione reciproca. Ed è proprio poiché a rigori dobbiamo parlare di attrazione reciproca anche nel caso in cui uno dei due corpi abbia massa enormemente inferiore all’altro e dunque eserciti su di esso una forza minima, che la nostra descrizione è legata ad un punto di vista: nella forma newtoniana delle equazioni, infatti, ragioniamo sempre in termini di forze legate a corpi singoli, mai di energia totale del sistema. Conseguentemente, di uno stesso fenomeno sono sempre possibili più descrizioni, legate a quelli che si chiamano i suoi gradi di libertà, ossia, semplificando, le variabili in gioco: nel nostro esempio, assumendo per semplicità che le masse siano stabili, due, ossia velocità e distanza. Di fatto, noi parliamo della velocità di un grave, che cade sulla terra, che viene considerata ferma rispetto ad esso: ma sarebbe altrettanto possibile e del tutto rispondente al principio galileiano dell’equivalenza di causa ed effetto ed alla concezione che egli ne derivava della relatività del moto, considerare il grave in situazione di quiete e la terra in movimento verso di esso. La descrizione del sistema sarebbe equivalente, ma la forma delle equazioni differente. Come si vede, dunque, in base alla stessa legge di natura noi possiamo avere descrizioni diverse di un fenomeno, addirittura opposte nel nostro esempio, che condividono però la caratteristica di rappresentare una conoscenza compiuta delle relazioni tra le grandezze del sistema in qualsiasi istante.
Si suol parlare di ciò, dicendo che in ogni istante è tutto assegnato. Ed è esattamente questo che intendiamo, quando parliamo di determinismo: ossia che la dinamica definisce tutti gli stati come equivalenti, poiché ciascuno di essi permette di determinare tutti gli altri. In tal senso, la legalità della natura, insieme alla conoscenza completa di un unico stato del sistema, permette la previsione degli stati futuri, così come la ricostruzione di quelli passati. Come ben sapete, questo principio, coniugato con alcune assunzioni di carattere ontologico universale, ha costituito il nucleo di una visione del mondo globale, che ancora Kant riteneva insuperabile da un punto di vista speculativo, costituendo esattamente l’antitesi della terza antinomia della dialettica trascendentale: “non c’è nessuna libertà, ma tutto nel mondo accade unicamente secondo leggi della natura”. Considerata da un punto di vista metafisico, cosa che Kant ovviamente non faceva, ma Cartesio e la scienza cartesiana sì, ciò significa definire la totalità degli enti (almeno della res extensa) come sistema globale descritto completamente dalle grandezze fisiche valide per la meccanica classica, e dunque tale che conoscendone integralmente un qualsiasi istante, se ne avrebbe la conoscenza di tutta l’evoluzione. Questa tesi è passata alla storia tramite la metafora del demone di Laplace, ossia di quell’entità sovrannaturale in grado di osservare dall’esterno compiutamente il mondo e dunque conoscere l’intera verità oggettiva del suo dispiegamento in avanti e all’indietro. Questa metafora esprime un punto fermo della teoria classica: ossia che ogni sistema è osservabile dall’esterno in maniera puramente oggettiva e, in linea di principio, completa. Precisamente quanto contesterà la meccanica quantistica.

Abbiamo detto che la meccanica classica formalizza le leggi relative ai movimenti dei corpi nello spazio e alle forze. La prima legge dei Principia di Newton afferma che ogni corpo persevera nel suo stato di quiete o di moto rettilineo uniforme, se nessuna forza influenza il suo movimento: il che equivale a dire che i corpi sono masse dotate di inerzia, ossia corpi cui è immediatamente connesso un certo tipo di movimento. Questo tipo di movimento è definito dalle dimensioni fondamentali della geometria euclidea: il punto e la retta, la posizione e la direzione, la quiete e il moto rettilineo uniforme. In considerazione del fatto, che la teoria aristotelica dei luoghi naturali era stata sostituita con una teoria dell’omogeneità dello spazio, per la quale nessun punto è privilegiato rispetto agli altri, e dunque in considerazione del fatto che la definizione di una posizione è sempre relativa all’osservatore ed al suo stato di quiete o di moto relativo al corpo osservato, non vi è alcuna differenza di principio tra la quiete e il moto: conseguentemente, possiamo generalizzare dicendo che nella meccanica classica non vi è più il problema del movimento, poiché ogni corpo è immediatamente e sempre in una certa situazione di movimento. In altri termini, il problema non è più spiegare come si passa dalla quiete al moto come dall’assenza di movimento alla presenza di movimento, ma come si passa da un tipo di moto ad un altro: la meccanica classica si occupa, fondamentalmente, dell’accelerazione, ossia di ogni mutamento del movimento.
Dicevamo ancora, in relazione alla geometria euclidea, che la meccanica classica può essere vista come un tentativo di generalizzazione ai fenomeni fisici dell’analisi geometrica dello spazio. Questo è certamente vero e in Newton è assicurato dalla sua concezione metafisica dello spazio assoluto. In termini strettamente fisici, però, si presenta in maniera ancipite: in effetti vale anche il contrario: la geometria dello spazio fisico è definita dal tipo di moto naturale dei corpi che lo abitano. Possiamo esprimere questa situazione, asserendo che non si dà, almeno sino ad Einstein, una risposta univoca alla domanda: sono le caratteristiche dello spazio che determinano i movimenti possibili dei corpi o sono i movimenti dei corpi che determinano le caratteristiche dello spazio?
Con la prima legge della meccanica, dunque, sono definiti: l’oggetto della meccanica, i corpi in movimento, e il suo ambito problematico, il mutamento del moto.
Nella seconda legge della meccanica si dà la formula generale di risoluzione del problema: F=mα, la forza è uguale ad un certo prodotto tra massa e accelerazione: ossia, il moto dei corpi varia in funzione delle loro masse e dei moti reciproci entro un sistema. In realtà, come notavamo, l’espressione della seconda legge è unilaterale: considera solo l’influenza di una certa forza sul moto di un corpo. Ed è precisamente grazie a questa unilateralità che si può sintetizzare il concetto di forza, che scompare quando la formulazione si riferisce alla totalità dei corpi implicati nell’interazione, ove ogni influenza sul moto è definita in funzione di un altro corpo e non di una forza. Nella formulazione della caduta dei gravi sulla terra, per esempio, noi possiamo ignorare la forza e scrivere: mα  = G (m M)/R2. Ossia, l’accelerazione di un grave che cade verso la terra è proporzionale al rapporto tra la sua massa e quella terrestre e alla sua distanza dal baricentro della terra. Dal punto di vista matematico, possiamo dividere entrambi i membri di questa equazione per m e così riscriverla: α = G M/R2. E dal punto di vista fisico possiamo considerare le differenza della distanza di ogni grave sulla superficie terrestre dal baricentro della terra come irrilevanti e quindi porre R come costante. E da ciò deriva che l’accelerazione gravitazionale sulla terra è sempre la stessa, per ogni corpo. In questa formulazione non facciamo riferimento ad alcun concetto di forza.
Che la forza non sia qualcosa di esterno al corpo, ma esprima semplicemente l’interazione tra gli stati cinetici delle masse, è espresso nella terza legge della dinamica: “ad ogni azione corrisponde una reazione uguale e contraria”. Il che vuol dire semplicemente che, ciò che in una descrizione diacronica  si presenta ciò che chiamiamo  forza, ossia la causa del mutamento del moto di un corpo, in una descrizione sincronica è nient’altro che l’interazione di tutti gli elementi del sistema: non vi è distinzione tra causa ed effetto, tra forza e corpo in moto. Questa considerazione sincronica del sistema, cui è legata l’invarianza rispetto al tempo delle equazioni fondamentali della dinamica,  si configura come modo principale della descrizione fisica: ossia, come la definizione dello stato istantaneo di un sistema, come espressione matematica, tramite il calcolo infinitesimale, delle qualità primarie dei suoi elementi in un istante dato, ove le qualità primarie, ossia le cosiddette grandezze fisiche, finiscono per essere semplicemente quegli aspetti del reale esprimibili in termini matematici.
Ora, dal momento che le leggi della dinamica non sono altro che la formalizzazione di relazioni invarianti tra grandezze fisiche, è evidente che la pretesa della fisica newtoniana è spiegare ogni evento fisico a partire dalla configurazione di un unico stato istantaneo del sistema. Ed a questo ci riferivamo parlando di legalità, determinismo e reversibilità.
Con legalità intendiamo l’uniformità e universalità di certe relazioni tra grandezze fisiche, ossia l’assunto dell’esistenza di regolarità in natura, esprimibili matematicamente. Una legge di natura, dunque, esprime un rapporto matematico, un’equazione, tra grandezze fisiche e nel far ciò delimita l’ambito del possibile. Per la conoscenza di un sistema dato, però, ossia per la definizione di una dinamica reale, è necessaria la descrizione sincronica degli elementi primari costitutivi il sistema, che vale come premessa minore in un sillogismo dal quale è possibile dedurre dalla legge di natura tutti gli stati singolari del sistema considerato, nel futuro e nel passato.
In altri termini, la dinamica di ogni sistema descritto integralmente è deterministica, poiché tutti i suoi stati sono equivalenti e da ciascuno di essi è deducibile ogni altro. Estesa all’intero universo, questa concezione della causalità deterministica della natura (ricordiamo il demone di Laplace) comporta due conseguenze sul piano ontologico:
1) la neutralizzazione del tempo a favore di una completa spazializzazione dell’essere, dal momento che la descrizione dello stato istantaneo di un sistema rappresenta una prospettiva su una situazione dinamica già completamente e irrevocabilmente, immutabilmente data, alla quale il succedersi degli stati non aggiunge nulla.
2) la riduzione dell’essere dell’ente alle grandezze fisiche primarie, ossia alle dimensioni matematizzabili della situazione spaziale, alle quantità geometriche.
Rimaneva, però, da analizzare la terza parola d’ordine, la “reversibilità”, il cui senso si è venuto chiarendo in parte già da quanto detto sinora. Da un punto di vista matematico, possiamo parlare di ciò, notando che ogni formalizzazione della dinamica di un sistema è tale, che risulta perfettamente indifferente il senso in cui esso effettivamente evolve, essendo sempre possibile immaginare un’inversione delle forze che costringa il sistema a ripercorrerebbe a ritroso gli stati che ha già attraversato. Ciò significa che ogni evoluzione dinamica è, in linea di principio, reversibile, poiché le trasformazioni matematiche che portano dall’una all’altra descrizione del suo senso sono equivalenti e lineari. Con questo si dice qualcosa di più della semplice determinabilità anche degli stati passati, poiché in realtà non si assume semplicemente che dall’effetto si può risalire alla conoscenza della causa, bensì che causa ed effetto hanno la stessa natura e dimensione. Ciò che è causa di un certo fenomeno, può essere, in circostanze adeguate, effetto di quello stesso fenomeno, laddove le forze agiscano in senso inverso. Ciò comporta una concezione molto particolare del concetto di causa, che in realtà è la sua dissoluzione: la causa è solo l’antecedente temporale in una sequenza scelta arbitrariamente per l’evoluzione di una dinamica, non ciò che innesca e determina, bensì solo una prospettiva della sua descrizione. E, dal momento che le relazioni matematiche che esprimono quella dinamica sono di tipo lineare, ossia prevedono rapporti matematici proporzionali alle grandezze, anche il rapporto tra causa ed effetto sarà lineare. Cosa si vuol dire esattamente che esercitando una forza x, si avrà un effetto x, e non maggiore o minore. Ciò potrebbe sembrare del tutto ovvio e naturale, ma non è affatto così: anche in natura, infatti, e su ciò si fonda l’attuale teoria del caos, una causa minima è in grado di determinare effetti macroscopici, dunque per niente lineari e conseguentemente neanche reversibili. In realtà, però, non c’è neanche bisogno di scomodare questo cosiddetto “effetto farfalla” – nome che gli viene dalla metafora utilizzata per descrivere il concetto, quella di una farfalla il cui batter d’ali in un punto qualsiasi della terra può causare un uragano anche a migliaia di chilometri di distanza – non c’è bisogno di arrivare a questo estremo, poiché a confutare la presunta reversibilità di ogni fenomeno naturale ci basta la semplice considerazione del secondo principio della termodinamica: che l’entropia necessariamente cresca in qualsiasi sistema chiuso non significa altro che una forza x non ha mai un effetto x, ma sempre inferiore, poiché nel processo di causazione, se così vogliamo dire, una parte di energia è sempre degradata.
Già da questi pochi accenni vediamo che, durante lo sviluppo ulteriore della scienza moderna, lo scenario descritto tramite questi tre termini – legalità, determinismo e reversibilità – sarà destinato a subire molteplici sconvolgimenti, a partire appunto dall’enunciazione dei principi della termodinamica, per arrivare alle tesi della teoria dei quanta, conservando come suo unico difensore di spicco proprio lo scienziato che sembrerebbe più rivoluzionario, ossia Albert Einstein. Ma prima di arrivare a ciò, dobbiamo descrivere brevemente in che modo, tramite l’opera di grandi matematici come Poincaré, Hamilton e Lagrange, la meccanica newtoniana divenne un vero e proprio linguaggio formale, coerente e astratto, di straordinaria potenza applicativa. E dobbiamo farlo, poiché proprio questa trasformazione dell’intera impostazione matematica non ha solo assicurato alla dinamica classica un’estrema flessibilità di applicazione, al punto che in questa forma essa risulta ancora indispensabile alla meccanica quantistica, ma poiché ha anche contribuito alla chiarificazione e sintesi degli elementi fondamentali del meccanicismo, in primo luogo del concetto di energia.
Trattiamo insomma del processo di simbolizzazione matematica della meccanica newtoniana nel senso di un linguaggio formale coerente e completo, almeno nelle pretese, un processo nel quale viene in luce l’essenza propria della teoria di Newton. Oggi, discutendo i particolari di questi temi vi potrà sembrare che dedichiamo troppo tempo a problemi apparentemente molto specifici e forse non eccessivamente pertinenti da un punto di vista filosofico, oltre che molto astrusi, ma vi assicuro che questa attenzione è ben spesa, poiché nella descrizione del linguaggio scientifico classico noi avremo il paradigma di ciò che vale come forma della teoria scientifica per tutta la modernità, comprese le teorie meno ortodosse.
Cominciamo col chiederci su quale circostanza si fondava l’esigenza di formalizzazione del linguaggio della meccanica classica, cui contribuirono soprattutto, come accennavamo, Poincaré, Hamilton e Lagrange. Dicevamo che la legalità della natura corrisponde alla regolarità e linearità delle relazioni sussistenti tra le grandezze fisiche che descrivono un sistema. Queste relazioni sono rappresentate da enti matematici, la loro regolarità da certe funzioni tra questi enti, la linearità e reversibilità dai principi di commutabilità e simmetria di queste funzioni.
Per esempio, prendiamo di nuovo la legge del moto di Newton: F = ma, ossia uguale ad m per a. Qui abbiamo dei simboli matematici, come m per la massa ed alfa per l’accelerazione, che rappresentano le grandezze fisiche che prendiamo in considerazione. Abbiamo inoltre, l’operazione che definisce la regolarità della legge: la forza è uguale ad un certo tipo di prodotto tra quelle grandezze. Questa operazione è, dal canto suo, soggetta alle normali regole aritmetiche di commutazione: m x alfa corrisponde ad alfa x m (per quanto sembri banale, questa regola è in realtà determinante: si pensi che in meccanica quantistica non vale più, relativamente a certe equazioni!).
Questa, però, è un’espressione universale, non immediatamente sufficiente per descrivere un sistema particolare, che anzi è descrivibile in più maniere, tutte coerenti con la legge, ma diverse da essa. In effetti, affinché l’ideale di matematizzazione delle leggi della natura si traducesse in atto, vi era l’esigenza di trovare un insieme di variabili tali, da definire ogni sistema dinamico nel modo più semplice ed economico, riuscendo al contempo a dare la massima evidenza ai principi universali della dinamica.
Questo significa che l’espressione di relazioni generali tra grandezze misurabili deve trasformarsi in sistemi di equazioni tra variabili, che esprimano i valori possibili di quelle grandezze.
Un compito che, evidentemente, non è esaurito dalla enunciazione della legge del moto di Newton, che si limita a quantificare una relazione generale tra grandezze e va tradotta di volta in volta, di fronte a singoli sistemi dinamici, in espressioni particolari. Ciò che si cercava, in fondo, era un’espressione matematica che tenesse conto non solo della legge universale, ma anche dei principi generali di descrizione completa dello stato iniziale di un qualsivoglia sistema dinamico, dimodoché la formula comprendesse non solo le relazioni generali, ma anche tutte le possibili soluzioni di un problema particolare.
In qualche modo, dunque, la formalizzazione della meccanica classica persegue un incremento di astrazione rispetto alle sue leggi, poiché ricerca equazioni del moto, che abbiano in sé non solo l’espressione della legge, ma anche della sua applicabilità universale: ossia, che non esprimano solo il contenuto matematico della legge, ma anche la forma della sua legalità. Per azzardare un esempio: è come se avessimo una formulazione altrettanto universale del codice civile, che però comprenda in sé anche il codice di procedura, cioè che mi dica di fronte ad ogni caso particolare come devo applicare la legge.
Ma come è possibile raggiungere questo grado di astrazione? Dal punto di vista simbolico, è ovvio che un’espressione formale di questo tipo debba comprendere al suo interno tanto la legge, quanto i parametri della sua applicazione, dunque sia variabili che esprimono grandezze fisiche in grado di definire ogni sistema istantaneamente, sia funzioni che rendano possibile calcolare i valori di queste variabili nel tempo. Comprendete la differenza rispetto ad un’espressione pura delle leggi? La legge di Newton è del tutto priva di ogni riferimento al tempo e si riferisce direttamente alle grandezze oggettive ultime che costituiscono un sistema. Le equazioni del moto di Hamilton, invece, per quanto egualmente atemporali, nel senso che ammettono una descrizione sincronica completa del sistema, comprendono al loro interno la variabile temporale, e in tal modo sono utilizzabili per descrivere diversi istanti di un unico sistema. Inoltre, tali equazioni fanno riferimento non direttamente a grandezze fisiche (m, a, ecc.), bensì a variabili (dette variabili canoniche) il cui contenuto non è dato immediatamente, ma può essere scelto di volta in volta a seconda delle caratteristiche del sistema particolare che si studia. Con ciò, ovviamente, non si vuol dire che queste variabili siano del tutto arbitrarie, ma solo che hanno un maggior grado di indefinitezza e dunque anche di astrazione. Rappresentano solamente i quantificatori delle grandezze che descrivono un sistema, senza specificare immediatamente quali siano queste grandezze, e dunque permettendo di volta in volta di scegliere i fattori che risulta più comodo misurare.
Nonostante ciò, è ovvio che, almeno inizialmente, queste variabili sono concepite come del tutto coerenti con l’impostazione di fondo della meccanica classica. In che senso intendiamo ciò? Come dicevamo, per la dinamica classica le grandezze fisiche di riferimento sono quelle legate ai corpi e allo spazio, e conseguentemente la legge del moto è una certa relazione tra questi due ordini di grandezze. In questo senso, arguivamo, la forza, che in qualche modo esprime il principio del movimento, e dunque sta per la sua legge, si riduce esattamente ad una certa regolarità nelle relazioni tra corpi nello spazio. Questa regolarità risultava, per la prima legge della dinamica, essere riducibile ad una qualche funzione omogenea della massa inerziale in movimento nello spazio. Il che significa, relativamente a sistemi dinamici, che essi sono determinati dalla somma della quantità di moto dei corpi che li costituiscono, somma che, come ci assicura la terza legge della dinamica, è invariante: ad ogni azione, corrisponde una reazione identica e contraria.
Tutto ciò comporta che, secondo i principi della dinamica classica, dovrebbe essere possibile identificare un’espressione matematica definita per la forza complessiva di un sistema, che sia funzione dei due ordini di grandezze fisiche che lo definiscono, ossia in ultima istanza delle masse inerziali dei corpi che si muovono nello spazio che essi stessi costituiscono. Quindi che sia possibile parlare non della forza che si applica ad un corpo o ad una posizione particolari del sistema, forza che quantitativamente, come dicevamo ieri, cambia con il cambiamento delle configurazioni tra i corpi, ma della somma di queste forze del sistema, un’entità matematica che deve risultare dunque invariabile nel tempo, se è vero che la causa corrisponde all’effetto, ossia che il sistema è unico in qualsiasi suo istante. Questa funzione viene detta, da un certo punto in poi, energia.
Comprendete che cosa significa ciò? In effetti, qui si passa dalla molteplicità di forze che agiscono in un sistema a seconda del punto di vista che si adotta nel descriverlo, ad un unico quantificatore invariante della quantità di moto complessiva nello spazio del sistema, quantificatore che esprime anche la regolarità di ogni relazione singolare, ossia la legalità del sistema.
La forza di Newton poteva essere la forza cinetica del corpo in movimento, ma anche quella potenziale del corpo in quiete relativamente all’osservatore. Nel nuovo tipo di impostazione, invece, un sistema dinamico ha un’unica energia definita, che è data dalla somma delle forze cinetiche e potenziali dei corpi che lo compongono. Una somma che è matematicamente configurata in modo tale da essere anche espressione delle leggi del mutamento del moto dei singoli corpi. Ciò significa esattamente, però, che al di là delle singole forze e della loro determinazione matematica come relazioni tra grandezze fisiche, esiste un livello ulteriore di legalità della natura, che sancisce null’altro del principio di conservazione dell’energia.

Quali sono i caratteri di una possibile formalizzazione talmente astratta, da comprendere in sé tanto l’espressione della legge, quanto i parametri delle complete descrivibilità sincronica e determinabilità diacronica di un sistema: da quanto detto, dobbiamo dedurre che essa deve enunciare, al tempo stesso, il principio universale di conservazione dell’energia. E ciò è precisamente quanto accade nelle equazioni del moto di Hamilton, che non sono più eguaglianze tra la forza e certe relazioni tra grandezze fisiche, bensì tra l’energia complessiva e le variabili spazio-temporali sufficienti a descrivere ogni sistema.
Comprendete la differenza radicale che vi è tra le due concezioni, nonostante la seconda derivi direttamente dalla prima? Molto all’ingrosso potremmo dire che solo tramite la formalizzazione matematica della meccanica in fisica nasce e si chiarifica il concetto stesso di sistema dinamico chiuso, ossia di composizione in un’unica unità di tutti gli elementi che partecipano ad un certo fenomeno. Rispetto alla teoria di Newton, infatti, che era configurata in modo tale che l’osservatore, per così dire, entrava nel sistema e lo definiva dall’interno come relazione di un suo elemento con gli altri elementi, le equazioni hamiltoniane guardano il fenomeno dall’esterno e nella sua interezza, fornendo solo le regole di osservazione del comportamento di un qualsiasi sistema dinamico in quanto tale.
Da un punto di vista strettamente matematico, ciò comporta il passaggio dal calcolo differenziale a quello integrale. Per comprendere il senso di questo passaggio è necessario soffermarsi, molto brevemente, su tale argomento: possiamo dire che si dà integrazione di un insieme di equazioni differenziali quando possiamo considerare una serie di derivate pari a 0, ossia invariabili e quindi non significative: ciò consente di esprimere le equazioni solo rispetto ad uno dei due termini, che risulta così del tutto determinato. Ovviamente ciò non è sempre possibile. Conseguentemente, le equazioni hamiltoniane, pur derivando dalla meccanica classica, sono più astratte e vaste delle leggi del moto newtoniane, rendendo così possibile la descrizione di qualsiasi sistema definibile in termini di variabili canoniche e dunque di energia totale conservativa del sistema rispetto a due paramentri.  In questo modo, la meccanica hamiltoniana risulta essere, per la sua generalità e astrattezza formale,  più “libertaria” di quella newtoniana: mentre F=ma determina le traiettorie di un corpo, la meccanica hamiltoniana “sceglie” fra tutte le traiettorie possibili di tutti i punti di un sistema quelle più economiche, ossia quelle che soddisfano meglio certe funzioni matematiche. Cosa si vuol dire: che in effetti, posta la quantità complessiva di energia del sistema, che è espressa dalla cosiddetta funzione hamiltoniana H, le variabili delle equazioni possono, teoricamente, descrivere qualsiasi situazione coerente del moto, anche quelle che non si danno di fatto, ma rimangono possibili data quella certa quantità di energia. Astrattamente, dunque, l’equazione rappresenta tutte le possibilità, all’interno delle quali si scelgono quelle di volta in volta quelle effettive (metodo variazionale).
Più in generale, però, possiamo dire che le equazioni del moto di Hamilton stabiliscono certe relazioni tra l’energia totale del sistema e variabili scelte in modo da rendere il sistema particolare in esame più facilmente descrivibile. Queste variabili hanno la caratteristica fondamentale di essere coniugate: ossia calcolabili l’una come derivata dell’altra, conoscendo l’energia totale del sistema. Ma forse è meglio esemplificare quanto diciamo proprio con le equazioni generali hamiltoniane, che hanno questa forma:
dq/dt = dH/dp
dp/dt = -dH/dq
ove p e q sono le variabili coniugate, espressione la prima di caratteristiche spaziali (generalmente si chiama posizione, per quanto possa esprimere anche grandezze più complesse), e la seconda di caratteristiche del moto (generalmente si chiama momento o quantità di moto, ma anche in questo caso può corrispondere a espressioni più complesse). Quello che è evidente nelle formule, è che la variazione di q nel tempo è calcolata in base ad una certa relazione tra la variazione di p e l’energia totale del sistema o viceversa, ossia che la definizione degli stati possibili delle grandezze del sistema è funzionale della sua energia totale espressa nei termini delle due variabili. Infatti, l’hamiltoniana è sempre simboleggiata in questo modo:
H (p, q)
ossia è funzione contemporaneamente di entrambe le variabili. Praticamente ciò vuol dire che, una volta che si conosca l’hamiltoniana espressa in termini delle variabili scelte, si può calcolare per ogni punto del sistema la derivata di questa funzione rispetto all’una o all’altra variabile:
H (p, q)/dp      e
H (p, q)/dq
che, come formalizzato appunto nelle equazioni del moto, esprimono la prima la variazione nel tempo di q e la seconda la variazione nel tempo di p.
Il fatto che le variabili siano proprio due è connesso con le due dimensioni eminenti della meccanica, quella dello spazio e quella delle masse. E che queste variabili, che per questo motivo si chiamano “canoniche”, siano coniugabili, ossia che sia possibile esprimere completamente l’energia totale unica del sistema grazie a loro, deriva dal fatto che lo stesso spazio è funzione delle masse inerziali e viceversa. In questo modo, ovviamente, non c’è più il problema legato all’espressione newtoniana della legge, ossia quello di aver a che fare con un’espressione matematica della legge tramite la forza che comporta valori diversi di F nel tempo, poiché l’energia propria del sistema non cambia, pur variando la sua derivata rispetto alle singole canoniche. Tuttavia, è evidente che anche qui nel complesso la variabile del tempo diviene del tutto irrilevante per la comprensione del sistema, e risulta pertinente solo laddove si vogliano fare delle previsioni. La verità del sistema, comprese tutte le possibilità anche mai realizzabili, ma comunque coerenti con la sua costituzione, è espressa integralmente da H (p, q), tanto che le diverse raffigurazioni possibili del sistema in momenti del tempo diversi non rappresentano alcuna modificazione di H: a variare sono solo le derivate delle canoniche, ossia, in un certo senso, i punti di vista dai quali si osservano gli elementi del sistema. In qualche modo, dunque, si può dire che le equazioni del moto di Hamilton hanno un carattere tautologico: ogni loro applicazione singola non fa altro che dire la stessa cosa, ossia che il sistema, in tutte le sue possibili configurazioni parziali, è una determinata quantità di energia che si conserva. E ciò conferma, dunque, il carattere statico, deterministico e reversibile della meccanica, anche nei gradi più astratti della sua formulazione.
Teniamo però presente una cosa, ed ossia che le leggi newtoniane del moto, come abbiamo già accennato, sono solo una parte delle possibili soluzioni delle equazioni di Hamilton, ed esattamente quella parte che soddisfa certe relazioni particolari tra le variabili, ed in modo tale che le equazioni risultino integrate rispetto al tempo, ossia che siano indifferenti rispetto ad esso. Ossia, le leggi del moto sono solo una classe di equazioni hamiltoniane molto particolari, quelle che descrivono il sistema integrabile. È precisamente questo, il motivo della loro generalità per la formalizzazione di qualsiasi problema dinamico, anche laddove ciò avvenga in teorie che contraddicono la meccanica classica: in ogni caso, si farà riferimento all’energia ed alle quantità relative allo spazio e al moto, cercando di minimizzare, se non neutralizzare del tutto la variabile temporale, ossia di integrare le equazioni in modo che tale parametro risulti invariabile. Si cercano dunque, in linea di principio, equazioni conservative (dell’energia) e reversibili (ossia tali che l’inversione del tempo sia equivalente alle inversioni di velocità: il che significa che il tempo è ridotto alle caratteristiche di una variabile canonica, e se questa è coniugata all’altra variabile in maniera che le equazioni differenziali siano integrabili, anche il parametro tempo è solo espressione di un punto di vista atemporale sulla dinamica complessiva del sistema, del tutto ridotta alla hamiltoniana rispetto alle variabili canoniche).
Ovviamente, alla base di tutto è presupposto:
1)  che sia lecito parlare di energia totale,
2) che sia legittima l’idea di stato iniziale,  determinabile nell’istante: che sia pensabile non   non solo l’effettiva osservazione completa delle condizioni iniziali, ma l’esistenza stessa di qualcosa  come delle condizioni iniziali.
3) che nelle condizioni iniziali di un sistema chiuso sia presente il principio dell’unità  atemporale del sistema, l’energia appunto, come ciò che non varia, ossia come la vera sostanza del sistema, verità permanente del suo divenire.

In definitiva, è presupposta la legittimità dell’idea stessa di sistema chiuso, cioè di qualcosa di cui non abbiamo esempi in natura: e questo è uno dei motivi fondamentali per i quali la scienza moderna non è mai stata, neanche nei suoi primi inizi, basata sull’osservazione dei fenomeni naturali, come era invece per Aristotele, ma solo sulla misurazione sperimentale. L’esperimento, infatti, può essere visto precisamente come un’operazione di chiusura del sistema: si inscena una situazione, nella quale rimangano pertinenti solo i parametri scelti come significativi, escludendo, entro i limiti del possibile, qualsiasi perturbazione esterna.
Cerchiamo adesso di descrivere in estrema sintesi il significato generale della trasformazione avvenuta: con la formalizzazione della meccanica classica si è passati dall’espressione matematica di leggi della natura alla simbolizzazione logico-matematica del modo di considerare qualsiasi sistema dinamico. Ciò è stato possibile sulla base di un assunzione di grado superiore ad ogni singola legge, consistente precisamente nel principio di conservazione dell’energia. E l’energia, come somma delle forze di un sistema, è considerata nell’ambito della teoria classica come perfettamente determinabile secondo un sistema metrico continuo. Il che, tutto sommato, non significa altro che affermare la compiuta matematizzazione a priori di ogni problema fisico. La tesi di Galileo, per cui “la natura è scritta in lingua matematica”, giustificava la formulazione delle leggi di natura come determinate relazioni tra grandezze. Ma qui si va oltre: oramai, ogni ente fisico è immediatamente immerso in un contesto logico-matematico che esprime solo il principio ideale della sua perfetta determinabilità quantitativa, un contesto che diciamo logico-matematico, poiché in esso non compaiono immediatamente le relazioni specifiche tra le grandezze, ma solo la forma della relazionalità matematicamente costante tra esse. Questo contesto è considerato universale, ossia tale da comprendere tutte le possibilità singole di espressione di leggi particolari. Se riguardiamo, infatti, le equazioni di Hamilton, vediamo che in esse non compare alcun numero, né alcuna grandezza specifica: sono del tutto simboliche ed esprimono l’assunto metodologico di fondo della scienza moderna. E ciò continuerà a valere fino alla meccanica quantistica, che esprimerà le sue concezioni fondamentali tramite lo stesso linguaggio formale, distinguendosi però radicalmente dalla meccanica classica, poiché farà rientrare nelle equazioni del moto espressioni matematiche invariabili, ossia grandezze specifiche discrete, rompendo la continuità del cosmo newtoniano.

Riassumiamo quanto detto sinora sulle caratteristiche fondamentali della meccanica classica, che è la disciplina che ha dato avvio alla rivoluzione moderna della scienza, fornendo ad essa non solo il paradigma del metodo sperimentale, ma anche la forma più matura di linguaggio formale matematico.
Da Newton in poi, di fatto, la tendenza generale di sviluppo delle scienze è verso una sempre più marcata fisicizzazione: con questa espressione intendiamo diverse cose insieme:

  1. Fisicizzazione come processo riduzionistico di progressiva esclusione degli aspetti qualitativamente differenziati del reale: gli enti dei quali si interessa la scienza vengono sempre più definiti solo da quantità fisiche misurabili: si rifiuta, dunque, ogni approccio qualitativo e si preferisce non prendere in considerazione le caratteristiche non riducibili a grandezze misurabili. L’esclusione delle qualità, a sua volta, avviene in vari modi e su vari piani:
      1. Prima di tutto teoreticamente, attraverso la distinzione tra caratteristiche primarie e secondarie, una distinzione che, se ricordate, era già stata fatta da Democrito: le caratteristiche primarie sono le autentiche grandezze fisiche, le secondarie sono solo epifenomeni delle primarie, aspetti concomitanti e inessenziali, dati dalla configurazione particolare reciproca delle grandezze primarie. Ovviamente, nonostante lo schema concettuale risalga all’atomismo antico, questa distinzione acquista un senso differente da quello democriteo nella fisica moderna: per il filosofo di Abdera, primarie erano le forme geometriche degli atomi, determinabili come armonia delle relazioni; per la fisica moderna sono la massa e la posizione, misurabili empiricamente; per il primo, le qualità secondarie avevano un carattere casuale e non rigorosamente deducibile dalla configurazione delle primarie, mentre la meccanica moderna ritiene che siano sempre riducibili causalmente, almeno in linea di principio, alle caratteristiche complessive del sistema. Tenete presente che questo tipo di contrapposizione troverà e trova ancora espressione anche nella modernità: all’indomani del trionfo dei Principia newtoniani nella polemica di Goethe contro il riduzionismo proprio a questo approccio; durante l’ottocento nella critica prima romantica e poi storicistica contro l’approccio meccanico ed in favore di una visione organica della natura; ancora negli ultimi anni, nella crescente attenzione alla dimensione sintetica, cosiddetta olistica, ossia globale, dei fenomeni, contro la loro riduzione analitica alle grandezze elementari.
      2. L’esclusione delle qualità avviene anche praticamente, attraverso la purificazione sperimentale del fenomeno. E infatti, il primo momento della fisicizzazione, tramite la considerazione teorica delle sole quantità misurabili, trova immediatamente riscontro,  nella pratica sperimentale della scienza moderna, che viene sempre più concepita come isolamento delle grandezze misurabili del fenomeno al fine della loro misurazione. In questo modo è del tutto trasformata l’antica concezione dell’empiria, tanto che oggi siamo addirittura propensi a ritenere la scienza antica del tutto non empirica. Questo, però, è un errore gravissimo, poiché sin dai presocratici e ancor più con la fondazione della fisica in Aristotele l’empiria è elemento centrale della filosofia della natura, solo che non ha carattere sperimentale. Come osservazione diretta della natura, anzi, l’empiria degli antichi era molto più accurata e fedele ai fenomeni, dei quali cercava di vedere la forma pura. In qualche modo, dunque, l’empiria era una disciplina della teoria, ossia un’educazione al guardare, il cui fine era la contemplazione della forma, dello eidos. L’esperimento moderno, invece, è sin dall’inizio contro la visione immediata: la famosa frase di Galileo “eppur si muove” non viene affatto compresa se si intende con essa un’esaltazione dell’esperimento come manifestazione di un’evidenza empirica. In effetti, è tutt’altro: la visione ingenua vede la terra ferma eppure essa si muove.
  1. Fisicizzazione come progressiva riduzione, per la considerazione di ogni fenomeno, a un unico sistema di calcolo, quello espresso nei termini di traiettorie di corpi, privi di materia, nello spazio vuoto: la fisicizzazione non comporta solo la preminenza del dato quantitativo  ma anche una scelta di ciò che deve essere considerato l’elemento chiave della spiegazione scientifica, che è poi ciò che risulta maggiormente conoscibile matematicamente: come risultava anche dal formalismo hamiltoniano, il vero oggetto della dinamica moderna sono i movimenti dei corpi nello spazio, ossia le loro “traiettorie”. Anche i corpi, dunque, in quanto mera quantità di massa in movimento, non sono considerati allo scopo di conoscere la loro natura, concetto sempre più privo di senso, ma solo la dinamica dei loro movimenti: conseguentemente, non solo la forza, come dicevamo nelle prime lezioni, perde ogni carattere sostanziale, ma anche la materia: le sostanze materiali non vanno considerate in funzione delle loro caratteristiche proprie, ma solo in considerazione del principio di quantificazione universale dell’energia. Si è dunque trovato un metodo per considerare qualsiasi fenomeno, ossia qualsiasi forza e qualsiasi materia, tramite un unico sistema di calcolo, che è quello espresso nei termini delle traiettorie dei corpi nello spazio.

 

In questo modo, è evidente che la fisica moderna nasce in immediata e insanabile contraddizione con un’altra scienza di lunga tradizione, che cerca costantemente di riassorbire in sé: la chimica, che studia proprio le caratteristiche proprie alle diverse sostanze. In funzione di ciò, si può addirittura fare il tentativo di leggere l’intero sviluppo della scienza moderna come il progresso nella sintesi delle istanze proprie alla fisica ed alla chimica, sintesi – mai del tutto compiuta – che è avvenuta per lo più nel segno dei presupposti della fisica, che però si sono dovuti in qualche modo adattare agli oggetti propri della chimica. Di fatto, le grandi rivoluzioni della scienza moderna, così come il definitivo abbandono del progetto espresso nelle tre parole chiave che richiamavamo precedentemente – “legalità, determinismo, reversibilità” – dipendono proprio dagli elementi irriducibili alla riduzione meccanicistica che la scienza della materia, la chimica nell’accezione più vasta del termine, ha finito per importare nella fisica.
Forse ricorderete una definizione scolastica che si usava dare della differenza tra fisica e chimica: la prima si occuperebbe delle trasformazioni reversibili, la seconda di quelle irreversibili: le reazioni chimiche rappresentano comportamenti della natura almeno apparentemente a senso unico. Caso esemplare di ciò è la combustione: non vi è alcuna evidenza empirica che ci possa far ritenere che un corpo combusto possa ritornare al suo stato precedente attraverso qualsivoglia trasformazione fisica immaginabile. La chimica, dunque, come scienza delle sostanze e del fuoco, contrappone al regno silenzioso delle traiettorie l’esteso campo dei fenomeni impuri della materia. Ed il primo grande tentativo di interpretare questi fenomeni tramite le regole della meccanica classica, un tentativo solo in parte riuscito, è proprio la termodinamica.
In un certo senso, infatti, si può dire che la termodinamica rappresenti lo sforzo di interpretazione dei fenomeni legati al calore nei termini delle equazioni hamiltoniane del moto, ossia come processi descrivibili grazie ad un quantificatore unico dell’energia del sistema espresso mediante le variabili relative a grandezze misurabili nel sistema stesso. È anzi proprio in termodinamica che si impone l’idea che il principio di conservazione dell’energia non enunci solo la convertibilità meccanica di forza cinetica e potenziale, ma di qualunque tipo di forza: fu Joule nel XIX secolo a dare la prima definizione di un equivalente generale per le trasformazioni fisico-chimiche, tale da rendere possibile la misura della quantità che si conserva. Se ricordate, questa unità di misura dell’energia, che si chiama appunto Joule, corrisponde al lavoro meccanico necessario per fare alzare di un grado la temperatura di una data quantità di acqua.
Ora, se consideriamo che questa assunzione rese possibile affrontare in maniera unitaria e – tanto metodologicamente, quanto concettualmente – coerente una vastissima varietà di fenomeni apparentemente diversi, non possiamo stupirci del fatto che il principio di conservazione dell’energia sia stato visto come il vero nucleo della natura, come il principio generale della sua legalità e omogeneità, addirittura come principio di causalità unica. O, quantomeno, come autentico a priori della scienza: al riguardo è molto interessante il testo in cui il celebre fisico tedesco Helmholtz parla appunto della conservazione dell’energia, che lui chiamava ancora forza (il titolo del libro è Über die Erhaltung der Kraft). Per Helmholtz, infatti, il principio di conservazione non era nient’altro che l’incarnazione, nel campo della fisica, dell’esigenza a priori su cui si basa ogni scienza: la natura deve essere intelligibile; pertanto bisogna postulare che essa abbia un’invarianza fondamentale, soggiacente alle trasformazioni naturali.
In questo corso non svilupperemo i particolari della sintesi termodinamica del principio di conservazione dell’energia, ma ci limiteremo a notare come in questo ambito sorga il primo importante problema, che apparirà a lungo come una confutazione delle pretese del meccanicismo: anche assumendo, infatti, che ogni sistema è portatore di una data e invariante quantità di energia, la termodinamica scopre che le trasformazioni tra le varie forme di questa energia non sono perfettamente reversibili ed in particolare che ogni conversione di forza cinetica comporta una dissipazione di energia nella forma di calore che si propaga nel sistema e risulta inutilizzabile per ulteriori trasformazioni. Il moto perpetuo, che ancora valeva come ideale per le macchine classiche, è quindi dimostrato come impossibile in linea di principio. Il fenomeno universale della propagazione irreversibile del calore comporta la degradazione universale dell’energia meccanica.
A questa tendenza dell’energia alla degradazione, come abbiamo ripetuto più volte, si è dato il nome di entropia, fenomeno che avrebbe invero un carattere del tutto universale, pur esprimendosi paradigmaticamente nell’ambito dei fenomeni legati al calore. Ciò è dovuto al fatto, che il calore è la forma più degradata di energia e dunque quella che maggiormente evidenzia l’impossibilità di procedere indefinitamente a sempre ulteriori trasformazioni: una sola fonte di calore è, infatti, incapace di fornire lavoro, ossia non può essere trasformata in forme diverse di energia. In realtà, però, in qualsiasi fenomeno noi dovremmo potere indicare la tendenza entropica, che si manifesta perlopiù in un’evoluzione verso il disordine, ossia verso configurazioni delle parti del sistema sempre meno discrete e definite.
Esempio classico: Produzione di calore a causa dell’attrito nelle macchine. Un altro esempio, interamente sul piano delle reazioni chimiche, è quello della goccia di inchiostro fatta cadere in un bicchiere d’acqua: all’inizio abbiamo le particelle di inchiostro e quelle d’acqua del tutto separate, e dunque il sistema è discreto; ma, con lo sciogliersi dell’inchiostro, la situazione diviene sempre più omogenea ed alla fine il sistema è disordinato, ossia un miscuglio omogeneo e indistinto.
A questo tipo di argomento si può e deve obiettare che il fenomeno è legato alle caratteristiche chimiche dei due liquidi: se infatti invece di inchiostro versiamo olio, l’evoluzione è differente. Per ovviare a questo tipo di obiezione, ed in fondo per estromettere la chimica dalle spiegazioni fisiche, si fa un altro esempio tipico (ed importantissimo, come vedremo tra poco), basato su un cosiddetto esperimento mentale, pratica questa molto significativa e diffusa (per esempio, in Einstein): l’esperimento mentale, infatti, permette di immaginare situazioni astratte che rappresentino nel modo più puro le esigenze teoriche che un esperimento reale quasi mai soddisfa (ammesso che, per le dimensioni in gioco, sia praticabile). Da un punto di vista gnoseologico dovrebbe essere però ovvio che un simile esperimento non può avere valore euristico, essendo di fatto una tautologia: da esso non può derivare niente di più di ciò che vi era già stato presupposto, poiché non contiene nessun riferimento alla realtà e dunque non incontra nessuna resistenza da parte di un’alterità. Ora, il classico esperimento mentale che dovrebbe rendere conto dell’entropia sul piano puramente dinamico è il seguente: invece di considerare due sostanze reali, assumiamo di avere a che fare con due miscele ideali di particelle, che hanno interamente lo stesso comportamento dinamico, ma si differenziano per una o più qualità secondarie.  In fisica questo tipo di sostanze chimeriche sono state chiamate “gas ideali” (ricordate la teoria cinetica dei gas). Ora, se immaginiamo di mettere in contatto due gas ideali di colori diversi, ossia composti entrambi di particelle della stessa massa, che si comportano secondo le stesse leggi del moto, ma dotate appunto di un aspetto differente, ossia di una qualità che non ha alcun significato per la descrizione del loro moto, noi avremmo un’evoluzione paragonabile a quella dello sciogliersi dell’inchiostro nell’acqua, ma senza implicazioni di carattere chimico. Lo stato iniziale del sistema sarà ordinato, nel senso che il due colori occupano posizioni distinte, mentre lo stato finale sarà un miscuglio disordinato e, anche dinamicamente, di fatto irreversibile. È singolare, però, notare come in questa descrizione dinamica l’ordine e il disordine siano predicati di qualità secondarie e non primarie, ossia di caratteristiche che non hanno pertinenza per la spiegazione: questo è un indizio importante del fatto che l’entropia rimane sostanzialmente inspiegata meccanicamente.

I due primi principi della termodinamica hanno trovato una celebre formulazione in Clausius, “l’energia del mondo è costante, l’entropia del mondo tende ad un massimo”. Il che significa che, pur tenendo fede al principio di conservazione dell’energia, da questo momento in poi viene meno la fiducia nella terza legge della dinamica: causa ed effetto, nonostante abbiano lo stesso contenuto energetico, non coincidono più, poiché ad ogni azione corrisponde una reazione uguale, ma non più del tutto contraria. Delle tre parole d’ordine della meccanica classica – legalità, determinismo, reversibilità – è dunque inizialmente solo la terza a non essere più valida, per quanto l’ulteriore sviluppo della termodinamica contemporanea, soprattutto nelle teoria degli stati lontani dall’equilibrio, metta in fortemente in discussione anche il determinismo.
A ben vedere, però, questa critica del determinismo è già implicita nella termodinamica: se ricordate, infatti, noi esprimevamo la tesi deterministica dicendo che nell’istante iniziale è già tutto assegnato, ossia è determinata ogni evoluzione successiva del sistema ed in maniera necessaria. Si può esprimere ciò anche dicendo che il sistema conserva costantemente la memoria di quello stato, il quale continua a sempre a determinarlo. Nei termini del formalismo hamiltoniano, data una certa quantità energetica complessiva ed una certa configurazione iniziale, le variabili canoniche del sistema assumono valori continui precisamente prevedibili, che rappresentano traiettorie definite e singolari (e vedremo poi l’importanza della continuità di questi valori, legata a ciò che chiamavamo linearità della causalità). In termodinamica, invece, data una certa quantità di energia, quale che sia lo stato iniziale il sistema chiuso tenderà all’equilibrio, ossia ad una situazione disordinata in cui non è più possibile alcuna trasformazione di energia, ossia alcun moto: la morte termica è precisamente l’assenza di qualsiasi traiettoria definita, il meccanismo si deve necessariamente fermare. In tal senso, esso non è determinato precisamente dal suo stato iniziale, del quale non si conserva alcuna memoria nello stato finale dell’equilibrio: ogni sistema in equilibrio è equivalente a tutti gli altri che contengano la stessa quantità di energia, per quanto essi possano essere evoluti verso l’equilibrio tramite dinamiche del tutto diverse.
Come vi renderete facilmente conto, la situazione era insostenibile in questa forma, rappresentando una disarmonia all’interno delle dinamiche naturali, una disomogeneità nel quadro che dovrebbe ovunque manifestare un unico tipo di evoluzione, quella meccanica: in termodinamica, invece, si distingue la dinamica dei sistemi lontani dall’equilibrio da quella dei sistemi vicino all’equilibrio, e questa da quella dell’equilibrio vero e proprio, che è in qualche modo assenza di dinamismo, poiché in questo stato sono possibili solo fluttuazioni e non traiettorie vere e proprie. E quindi è comprensibile che l’imporsi della termodinamica abbia inaugurato un periodo di forte agitazione negli ambienti scientifici ed abbia in qualche modo imposto una difficile sfida ai difensori della prospettiva meccanicistica, una sfida cui ha risposto nel modo migliore Ludwig Boltzmann, quando ha esposto la sua interpretazione probabilistica delle leggi della termodinamica. La tesi di Boltzmann si sviluppa sostanzialmente grazie ad un procedimento analogo a quello di cui parlavamo prima della distinzione tra qualità primarie e secondarie: infatti, egli considerò la termodinamica valida nelle sue formulazioni solo a livello macroscopico, ossia considerando nel loro complesso sistemi costituiti da un numero grandissimo di parti elementari. Ciò che su questo livello verrebbe all’evidenza in coerenza con il principio dell’entropia non sarebbe, però, che epifenomeno delle dinamiche elementari sottostanti, tutte rigorosamente meccaniche e dunque ancora deterministiche e reversibili.
S=k ln w, ossia l’entropia è una funzione di stato pari ad una certa funzione logaritmica dei microstati compatibili con i vincoli macroscopici. In parole povere, proprio riferendosi ad una situazione ideale paragonabile a quella descritta con l’esempio dei gas ideali, Boltzmann constata che tra tutti i microstati possibili in un certo sistema quelli che corrispondono ad un macrostato in equilibrio sono – tanto più è complesso il sistema – la stragrande maggioranza e dunque sono i più probabili: conseguentemente, l’entropia non rappresenta una tendenza dei sistemi all’equilibrio, ma semplicemente il fatto che è probabile in maniera preponderantemente schiacciante che ogni sistema complesso, tramite la sua dinamica meccanica deterministica microscopica, evolva dal punto di vista macroscopico, e dunque in senso esclusivamente qualitativo, verso l’equilibrio. (Maxwell, del quale parleremo tra poco in un altro contesto, espresse questa posizione dicendo che un ipotetico osservatore di dimensioni microscopiche, del quale si parla da allora come del diavoletto di Maxwell, non vedrebbe il colore uniforme del miscuglio dei gas, ma sempre e solo particelle di uno o dell’altro colore, le cui traiettorie rimangono del tutto coerenti con la legge del moto di Newton).
In questo modo, un po’ artificioso, ma matematicamente ineccepibile, Boltzmann aveva salvato l’unicità delle leggi dinamiche, sacrificando però la possibilità di un calcolo preciso dei macrostati, trattabili solo statisticamente dal punto di vista meccanico. In qualche modo, però, con la sua argomentazione la probabilità non era più solo espressione di un’ignoranza, poiché assumeva in effetti il valore di una vera e propria spiegazione.
E non solo: di fatto, nell’argomento di Boltzmann vi era un’importantissima concessione all’approccio tipicamente chimico alla realtà: contro la fisica, che aveva puntato tutto sulla matematica delle traiettorie, nelle tesi di Boltzmann rispunta il vecchio atomo democriteo, ossia la dimensione microscopica caratterizzata non dall’armonia dei movimenti celesti che avevano fornito il paradigma della meccanica newtoniana, bensì dal caos delle collisioni tra particelle, dell’agitazione molecolare, che costituisce peraltro proprio il fondamento dinamico del calore. Ricorderete dal liceo, infatti, che il calore di un corpo è definito come l’energia cinetica media delle particelle che lo compongono: è ovvio che una simile descrizione è tesa precisamente a leggere l’energia del fuoco come parvenza di un’energia legata al moto.
Ora, questo tipo di lettura costituì immediatamente il vero e proprio programma della scienza tardo-ottocentesca e degli inizi del novecento: infatti, nonostante la semplicità dell’argomento utilizzato da Boltzmann e il sollievo che suscitò tra i fisici la sua soluzione dell’enigma dell’entropia, questa soluzione era in realtà altamente problematica ed impegnava la teoria fisica a rendere conto anche dei fenomeni microscopici e atomici in termini di dinamica classica, cosa che fino ad allora aveva evitato accuratamente di fare, accampando a motivo l’indescrivibilità precisa di stati così complessi.


II MODULO

-LA FISICA DEL XX SECOLO: GLI ESITI APORETICI DEL PROCESSO DI           
FISICIZZAZIONE
-EINSTEIN E LA TEORIA DELLA RELATIVITA’:
IL RITORNO      ALL’OGGETTIVITA’  LEGGE E ALLA LEGALITA DELLA NATURA

 Il processo di fisicizzazione delle scienze deriva dal primato della fisica relativamente al metodo sperimentale e al linguaggio formale matematico. La fisica prende in considerazione sempre più rigorosamente solo le grandezze misurabili e approccia i sistemi fisici con quell’atteggiamento cui si da il nome di riduzionismo, ossia cerca di costruire la loro complessità a partire dai singoli elementi semplici, cercando, per quanto possibile, ovunque le stesse relazioni fondamentali tra corpi e movimento. Ogni fenomeno va letto, in linea di principio, a partire dal concetto di traiettoria, ossia come costruzione geometrica del moto continuo di punti massa in uno spazio euclideo. Ricordiamo quanto dicevamo all’inizio: se gli elementi definitori della scienza moderna sono immediatamente tratti dagli elementi definitori dello spazio euclideo, il punto e la retta, e se la fisica a partire da Galilei non pone più la questione del movimento, ma quella delle mutazioni del moto, è evidente che dal punto di vista geometrico i suoi oggetti sono le curve: e questo è talmente vero, che nello sviluppo successivo della geometria la retta stessa verrà concepita come un tipo di curva. E vedremo poi il ruolo fondamentale che certi tipi di curve, introdotte da Gauss, giocheranno nella formulazione della relatività generale.
Ad ogni modo, già con la meccanica analitica la traiettoria diviene il cardine della spiegazione scientifica e, legata com’è al principio di conservazione dell’energia, rappresenta il dissolversi e fondersi dei concetti di forza e materia: la fisica non si occupa della natura delle forze o dei corpi, ma solo delle regolarità quantitative dei moti possibili data una certa quantità iniziale di energia, quelli definiti dalle equazioni hamiltoniane.
Conseguentemente, il processo di fisicizzazione ha significato da subito un contrasto con l’atteggiamento opposto, quello della chimica come scienza della materia e delle sue forze proprie: la linea di tendenza della scienza moderna è la spiegazione anche di questo ambito dei fenomeni in termini di traiettorie, spiegazione che, però, anche quando riesce comporta una serie di mutamenti fondamentali nell’impianto della fisica. Il primo esempio, come abbiamo visto, ci viene dalla termodinamica, ossia dalla spiegazione fisica dei fenomeni legati al calore. Con essa avvengono due cose di importanza fondamentale:

  1. in positivo, viene confermato e universalizzato il principio di conservazione dell’energia, che vale come primo principio della termodinamica;
  2. in negativo, si scopre una seconda funzione di stato, affianco all’energia, l’entropia, che comporta evidentemente una crisi dell’ideale di reversibilità della meccanica classica.

La soluzione di questo dilemma, come dicevamo, fu trovata nell’interpretazione statistica dell’entropia fornita da Boltzmann, un’interpretazione che riducendo l’entropia ad epifenomeno macroscopico di fenomeni microscopici del tutto meccanici, ossia conservativi, deterministici e reversibili, pareva eliminare il problema, ma ne creava uno nuovo: la necessità di una spiegazione fisica degli elementi ultimi sul piano microscopico, ossia la concessione dello status di ente fisico fondamentale all’atomo, che sino ad allora era rimasto escluso dal regno della fisica. In effetti, nel concetto di massa non si fa inizialmente alcun riferimento ai costituenti elementari della materia, poiché la massa rappresenta la materialità astratta dei corpi come la loro unica grandezza che entra nelle equazioni del moto. In altri termini, la massa è sempre riducibile alle relazioni tra traiettorie ed è sempre considerabile come grandezza continua, mentre l’atomo si definisce come grandezza discreta, indivisibile, dotata di una propria materialità concreta, apparentemente irriducibile al moto (ma vedremo che questa riduzione sarà effettuata, in modi diversi, sia nella teoria della relatività che nella meccanica quantistica delle particelle elementari).
Dalla spiegazione di Boltzmann dell’entropia, dunque, che voleva salvare il principio della reversibilità, nasce direttamente la fisica atomica, che si terrà saldamente stretta a questo principio, dovendo però rinunciare a quello ancora più fondamentale del determinismo: la meccanica quantistica si fonda, in effetti, sul principio di indeterminazione di Heisenberg.
Su questa linea di sviluppo, però, non procederemo oltre, poiché ci porterebbe lontano da quella che ha condotto alla teoria della relatività. Ma dobbiamo sottolineare che è sempre in relazione alla necessità, dopo Boltzmann, di una descrizione fisica rigorosa dei microstati, che si sviluppa uno degli strumenti matematico-formali più importanti per la teoria della relatività, quello dello spazio delle fasi. L’occasione derivò dalla critica che un grande matematico, Poincaré, aveva rivolto a Boltzmann: Questi aveva infatti cercato di tradurre le equazioni di Boltzmann nei termini del formalismo hamiltoniano ed aveva concluso che questa traduzione era impossibile: ossia che in accordo con le leggi del moto newtoniano non era possibile trovare una funzione hamiltoniana relativa a due variabili canoniche che avesse le caratteristiche dell’entropia, cioè un valore sempre crescente, anche invertendo le velocità. Insomma, vi era l’impressione che Boltzmann, cercando di salvare la fisica classica, in realtà ne avesse messo in discussione il suo linguaggio più universale.
Il primo tentativo in grande stile di rendere conto di queste difficoltà fu costituito dalla teoria fisica degli insiemi di Gibbs e Einstein (ben diversa dalla teoria logica degli insiemi di Cantor), che si proponeva la descrizione dinamica di sistemi composti da un numero altissimo di molecole indipendentemente dalla precisa specificazione delle condizioni iniziali. Lo strumento di questa descrizione era, appunto, lo spazio delle fasi, ossia uno spazio con tante dimensioni quante quelle sufficienti a descrivere ogni stato di un sistema tramite un solo punto. Per esempio, per descrivere un sistema di due particelle, abbiamo bisogno di due posizioni e due momenti in uno spazio a 3 dimensioni, ma possiamo anche considerare un solo punto in uno spazio a 12 dimensioni. In questo modo, per quanto caotico sia il sistema e confusi e irregolari i movimenti per collisione delle particelle, noi potremo descriverne, ovviamente solo in linea di principio, l’evoluzione nel tempo come una traiettoria nello spazio delle fasi, ossia riportare il caos ad una forma che giudichiamo meccanicamente ideale. E potremo farlo proprio nella forma delle equazioni hamiltoniane del moto, considerando le canoniche come coordinate dell’intero sistema nello spazio delle fasi (equazione di Liouville). È evidente che questo spazio è irrappresentabile, ma formalizzabile matematicamente: l’averlo teorizzato è comunque significativo della tendenza della fisica ad una rappresentazione tutto sommato statica della natura: qualsiasi sistema, compreso l’universo, può essere rappresentato da un solo punto ed in maniera tale che, coerentemente con il carattere deterministico e reversibile delle hamiltoniane, in questo punto sia già compresa l’intera traiettoria nel tempo.
La cosa singolare è che neanche nella forma della teoria fisica degli insiemi si poté venire a capo dell’entropia: neanche un sistema complesso descritto nello spazio delle fasi può avere una funzione di stato a tendenza univoca, e così lo stesso Gibbs finì per ritenere la termodinamica come una semplice interpretazione soggettiva, legata all’incompletezza della nostra conoscenza possibile della natura, la quale avrebbe invece un andamento del tutto coerente con la dinamica.
Vedremo più avanti come si sviluppa ulteriormente la teoria di Einstein dello spazio delle fasi verso la concezione del continuum spazio-temporale. Per ora invece vediamo come in questa situazione, in qualche modo già problematica, verso la fine dell’ottocento intervengano a scuotere l’egemonia della dinamica altre discipline scientifiche, in primo luogo l’elettromagnetismo.
Questa scienza nacque ai primi dell’ottocento come spiegazione unitaria dei fenomeni elettrici e magnetici, dunque in un ambito anch’esso vicino alla chimica (ricordate che la pila di Volta era appunto una pila chimica), ma con l’intenzione di ridurre questa specificità alle leggi newtoniane della dinamica. Questo contrasto permase a lungo e si espresse nelle diverse posizioni dei maggiori rappresentanti dell’elettrodinamica: esemplarmente, possiamo citare Ampere per la posizione newtoniana, basata sulle linee di forza e dunque sull’azione a distanza, come quella della forza di gravità, e Faraday per un’impostazione maggiormente chimica, incentrata sul mezzo di propagazione, l’etere elastico di cui sarebbe costituito lo spazio (ove dunque avviene tutto per contatto e contiguità). Una prima sintesi compiuta delle varie teoria elettromagnetiche si deve però a Maxwell (che proveniva dalla stessa scuola di Hamilton) e a Hertz, i quali riuscirono a ricomprendere in questo particolare dominio anche la luce, fornendo un’interpretazione unitaria dell’elettricità e della radiazione luminosa tramite una concezione ondulatoria, quindi formalizzabile matematicamente ancora secondo le equazioni di Hamilton sulle traiettorie e dunque tenendo l’energia come quantità conservativa e assumendo lunghezza d’onda e frequenza come variabili canoniche.
Con queste concezioni dell’elettrodinamica, così in sintonia con la matematica della dinamica, sorgeva però una contraddizione nella concezione della realtà fisica che sarà destinata a rimanere centrale: quella tra onda e corpuscolo. In effetti, la vecchia elettrostatica aveva interpretato i fenomeni elettrici come relativi alle cariche positive o negative degli elettroni, ossia di corpi dotati di caratteristiche proprie. Mentre le traiettorie delle equazioni hamiltoniane erano comunque comprese come evoluzione nello spazio di punti massa privi di altre grandezze oltre a quelle relative al moto e dunque non concepibili come dotati di una propria forza elettrica. La spiegazione ondulatoria di Hertz, invece, diede un contenuto fisico vero e proprio all’idea di onda, indipendente da un sostrato atomico: l’onda si propaga in un mezzo, ma non coincide con esso. A questo punto, però, bisogna decidere cosa farsene dell’elettrone: è questo che procede lungo una traiettoria ondulatoria? O non esiste affatto un elettrone, bensì solo le onde di energia? Esiste la possibilità di conciliare l’aspetto particellare dell’elettricità, pensata come moto di cariche agenti con forze a distanza, con la teoria del campo elettromagnetico, con la sua equivalenza tra elettricità e luce? Di fatto, entrambe le teorie, separate, si svilupparono ampiamente e furono in grado di rendere conto di una grande serie di esperienze possibili, dunque parevano entrambe valide all’interno del loro dominio di validità. Il problema era però inaggirabile, nei casi in cui questi domini di validità si sovrapponevano e nessuna delle due teorie isolatamente poteva risolvere nei propri termini esclusivi il fenomeno osservato.
Il quadro teorico completo in cui si organizzò l’elettrodinamica e che costituì il presupposto fondamentale della teoria della relatività ristretta è conosciuto come sintesi di Lorenz. Molto brevemente e semplicemente, si può dire che egli cercò di conciliare l’aspetto atomico e quello ondulatorio dell’elettricità, assumendo che esistessero particelle cariche nello spazio, gli elettroni appunto, il cui moto costituisce la corrente elettrica, e che sono al tempo stesso le sorgenti dei campi di forza ondulatori, campi di forza che pervadono e configurano lo spazio all’interno del quale quelle stesse particelle si muovono. Lorenz sostenne questa sintesi con un apparato matematico estremamente raffinato ed a prima vista coerente con le equazioni hamiltoniane del moto, seppure per alcuni critici nella sua teoria vi sarebbe già una rottura insanabile con l’impostazione classica. Come che sia, la sua interpretazione, seppure a tratti artificiosa, sembrava garantire una buona dose di coerenza e, almeno sul piano del linguaggio formale, di ortodossia.
Di fatto, però, egli aveva sancito due principi contrari al meccanicismo: in primo luogo, che la forza di gravità da sola non basta a spiegare tutto, poiché di fatto vi è almeno una duplicità di forze: quelle legate al moto delle cariche, la corrente elettrica appunto, e quelle legate alla forza elettrica delle stesse, il campo elettromagnetico. In secondo luogo, e conseguentemente, che i corpi non possono essere considerati solo come un certo quantum di massa inerziale, esprimendo almeno a livello atomico forze proprie, legate alla propria particolare natura. Il primo problema, da questo momento in poi, sarà chiarire il rapporto tra queste forze e la forma in cui questa duplicità si afferma anche nella luce, data la sostanziale omogeneità descrittiva tra elettricità e radiazione luminosa. Ma, in realtà, poiché ogni radiazione ammette una descrizione in termini ondulatori, il problema sarà chiarire il rapporto generale tra corpuscolo e radiazione.
Già nella formulazione di Lorenz, comunque, è evidente che la fisica aveva definitivamente ammesso al suo interno la teoria atomica, quanto meno nella forma degli atomi di elettricità, gli elettroni. E questo, come accennavamo, non è un affare da poco, poiché la modernità aveva a lungo rifiutato la scientificità rigorosa dell’atomismo ed aveva, anzi, sviluppato, nella teoria gravitazionale dell’azione a distanza, un modello interpretativo antiatomistico. Ignorata dalla teoria cartesiana e newtoniana, infatti, l’ipotesi atomica trova inizialmente espressione solo nell’alchimia e, per lungo tempo, ha un carattere fondativo solo in chimica: si può anzi dire che, ancora oggi, l’atomo rimane l’elemento ultimo della chimica, nonostante abbiamo imparato che esso è a sua volta divisibile in ulteriori componenti, che chiamiamo particelle elementari: ma le particelle elementari non hanno qualità chimiche, mentre l’atomo può definirsi come la più piccola parte di un elemento che conserva le proprietà chimiche dell’elemento stesso. Un atomo di idrogeno, insomma, ha già da solo le caratteristiche chimiche dell’idrogeno, mentre un elettrone non ha alcuna caratteristica chimica, ma solo caratteristiche fisiche, per quanto di tipo molto particolare.
A prescindere, però, da quale sia oggi lo status della chimica, certamente dobbiamo riconoscere che nel suo periodo aureo, tra ottocento e novecento, questa disciplina scientifica ha definito tutti i suoi concetti fondamentali, come “molecola”, “valenza”, “peso atomico”, “legame”, etc., sull’ipotesi dell’atomo. Ed il coronamento della teoria chimica, il sistema periodico degli elementi, è organizzato esattamente in funzione del “numero atomico” degli stessi. Insomma, per la chimica la materia è costituita da un numero finito di atomi indivisibili, distinti qualitativamente e quantitativamente l’uno dall’altro.
Ora, questo tipo di approccio, almeno in parte qualitativo e antiriduzionista, rimase sempre ed è tuttora estraneo alla fisica, che solo nella metà dell’ottocento accettò un’ipotesi di tipo atomico, come quella di Boltzmann o della teoria cinetica dei gas, ma considerando gli atomi come indiscernibili, come punti massa equivalenti, passibili di considerazione puramente quantitativa e statistica. Questo tipo di concezione, in realtà molto astratta e formale, viene in parte corretta già nelle tesi elettrodinamiche di Lorenz, che parla, come abbiamo appena detto, degli elettroni come particelle elementari dotate di una certa carica (che è già bivalente, potendo essere positiva e negativa) e capaci di irradiare delle forze: la struttura degli atomi si va specificando, dunque, e contro la sostanziale omogeneità presunta della teoria dei gas ideali assume caratteristiche articolate, per quanto sempre strettamente legate a fattori quantificabili.
Esempio: ricordate l’esempio della caduta dei gravi: le due masse sono del tutto omologhe, a parte la differenza di entità, che è una differenza puramente quantitativa e dalla metrica continua. Qui, invece, le cariche diverse sono analoghe, ma non omologhe, avendo qualità fisiche opposte; la loro scansione, inoltre, è definibile con un sistema binario, a due valori discreti: + e - (tenete presente, che una massa non ha mai valore negativo).
Oltre a questo, però, con le tesi di Lorenz viene già meno anche l’idea dell’indivisibilità dell’atomo chimico: gli elettroni ne sono solo una parte, peraltro relativamente libera, poiché in grado di scorrere da un atomo all’altro: dicevamo che la corrente elettrica è esattamente il moto degli elettroni all’interno dei conduttori.
In qualche modo, quindi, con la forma matura dell’elettrodinamica abbiamo la prima espressione di una teoria fisica delle particelle elementari, particelle che non hanno più le caratteristiche qualitative degli atomi della chimica, ma caratteri fisici di tipo particolare, in primo luogo la carica elettrica e la capacità di creare un campo di forze. L’elettrodinamica, dunque, occupa una posizione veramente centrale e determinante per tutta la scienza del novecento, poiché va legittimamente vista come luogo d’origine tanto della teoria della relatività ristretta, come dicevamo prima, quanto della teoria dell’atomo.
Riguardo a quest’ultima, noi possiamo sostenere che gran parte dell’evoluzione successiva dell’idea di atomo sia in qualche modo preannunciata nell’idea elettrodinamica di elettrone: l’esistenza di queste particelle cariche negativamente, infatti, implica logicamente una struttura atomica complessa e non più indivisibile, della quale devono far parte anche particelle cariche positivamente, i cosiddetti protoni, poiché altrimenti ogni sostanza avrebbe una carica elettrica negativa, cosa che ovviamente non è, essendo i corpi per lo più elettricamente neutri. Il primo compito della teoria dell’atomo, dunque, fu quello di chiarire la dinamica della relazione tra protoni ed elettroni, in maniera da comprendere la stabilità dell’atomo e di reinterpretare grazie a questo modello il sistema periodico degli elementi, ossia di ridurre ogni specificità degli elementi a certe relazioni quantitative – e dunque in linea di principio comprensibili in termini di meccanica classica – tra le particelle elementari (almeno di due tipi) che costituiscono ogni atomo.
Riuscire a portare a termine questo progetto avrebbe significato il trionfo definitivo della fisica sulla chimica, la sua completa fisicizzazione nei termini della dinamica newtoniana. E per un certo periodo si ritenne vicino questo traguardo, come dimostrano i primi modelli atomici: da quello di Thomson, che immaginava l’atomo come un miscuglio omogeneo di cariche positive e negative, un po’ dunque alla maniera dei gas di Boltzmann, al modello di Rutherford, che avrà molto più successo. Questo modello, che ancora per noi rappresenta la quintessenza dell’immagine dell’atomo, ha in effetti una valenza metaforica e ideale fortissima: l’atomo è concepito come un vero e proprio sistema solare, dunque in base al fenomeno guida della meccanica di Newton. Attorno al nucleo centrale carico di elettricità positiva ruotano in orbite circolari concentriche tanti elettroni quanti sono i protoni nel nucleo: l’atomo, dunque, è elettricamente neutro e le grandezze fisiche che lo costituiscono sono tutte definibili in termini di traiettorie e di forza a distanza, per quanto questa forza non sia più quella gravitazionale, ma l’interazione elettrodinamica di attrazione e repulsione tra cariche.
Ora, il problema è che questo modello atomico ideale e perfetto (che, metaforicamente, possiamo dire rigorosamente copernicano, se non altro per la circolarità delle orbite) non è compatibile né con la meccanica celeste classica, né con l’elettrodinamica. La prima, infatti, non è in grado di rendere conto della straordinaria stabilità atomica: nessun sistema solare rimarrebbe intatto dopo essere stato attraversato da un corpo celeste estraneo, come avviene invece, per esempio, nei metalli a seguito di un passaggio di corrente elettrica. In generale, noi sappiamo di poter sottoporre i materiali a diverse sollecitazioni, meccaniche, termiche o elettriche, senza modificarne la sostanza, dunque senza influire sulla struttura dell’atomo.
In accordo con l’elettrodinamica, invece, dovremmo aspettarci due forme di collasso autogeno dell’atomo: 1) la caduta degli elettroni nel nucleo, che li attrae, ma anche 2) la dissoluzione del nucleo per la repulsione elettrica reciproca dei protoni (come sapete, cariche elettriche uguali si respingono): cosa impedisce all’elettrone di precipitare nel nucleo e cosa tiene il nucleo insieme, contrastando le forze elettriche di repulsione?
Ovviamente, solo una forza può contrastare una forza e, di conseguenza, dobbiamo aspettarci che la teoria dell’atomo, dovendo risolvere questo problema, debba finire per fare appello ad ulteriori forme di interazione. Se infatti le forze di attrazione e repulsione tra cariche elettriche sono, tutto sommato, sufficienti a rendere conto dei legami chimici, ossia tra atomi, non lo sono affatto per i legami nucleari, ossia tra particelle all’interno dell’atomo, che anzi risulterebbero impossibili sulla loro base. Va quindi postulata la presenza di forze antagoniste all’interno del nucleo in grado di vincere quelle elettriche, forze a brevissimo raggio che vengono chiamate interazioni nucleari forti e delle quali ancora oggi non si conosce la legge, a differenza delle interazioni gravitazionali (per le quali abbiamo la legge del moto di Newton) ed elettrodinamiche (determinabili con le equazioni di Lorenz).
Ma che non si conosca ancora la formula precisa per le interazioni tra le particelle del nucleo atomico (oggi sappiamo che non ci sono solo i protoni, ma anche i neutroni, ossia particelle non cariche elettricamente), non significa che queste forze abbiano un carattere puramente ipotetico, come dimostra il fatto che di esse sappiamo servirci ed in un modo tale da giustificare del tutto la pretesa che queste forze siano molto più intense di quelle elettriche, potendole contrastare efficacemente: la scissione del nucleo, come ci insegna la bomba atomica, libera energie molto più forti di quelle liberate dallo scioglimento dei legami chimici, per esempio nello scoppio di un normale esplosivo.
Peraltro, è proprio in termini di intensità delle forze di legame nucleari che si spiega il fenomeno della radioattività, la quale si presenta qualora, nei nuclei di elementi chimici molto complessi, neanche questi legami forti risultino sufficienti a garantire stabilità, per cui l’atomo emette radiazioni, sotto forma di particelle (che possono essere protoni, elettroni o altre), fino ad arrivare ad una configurazione più stabile. Questo spiega anche perché gli elementi radioattivi sono quelli più utilizzabili per la fissione atomica, giacché sono naturalmente più instabili.
A questi tre tipi di interazione, quella gravitazionale, elettromagnetica, e nucleare forte, la successiva ricerca aggiungerà una quarta forza elementare, l’interazione nucleare debole, che per il momento non ci interessa chiarire. Ne parliamo solo per evidenziare qualcosa di notevole, ed ossia che, proprio percorrendo sino in fondo il suo cammino di progressiva assimilazione di ogni forma di sapere scientifico e soprattutto della chimica, la fisica come progetto di riduzione dell’ente ad un’unica legalità naturale, espressa in un unico linguaggio formale matematico che ha il suo nucleo, come dicevamo, nel principio di conservazione dell’energia come equivalente universale delle forze, ha finito per scoprire tutta una serie di forze irriducibili ed anzi contrarie l’una all’altra, delle quali non sono venuti a capo né Einstein, né Heisenberg o Wolfgang Pauli nei loro reiterati tentativi di formulare una teoria del campo di forze unificato.
Inoltre, come già accennavamo, oltre all’irriducibilità delle forze, la fisica degli atomi ha dovuto concedere sempre di più alla chimica la specificità e non riducibilità a relazioni matematiche pure della materia. E ciò si esprime nella scoperta di sempre nuove “costanti universali”, ossia di certe grandezze fisiche che non sottostanno a nessuna relazione, ma permangono immutate in ogni trasformazione: questo significa che la struttura hamiltoniana delle equazioni del moto va integrata: non bastano più le variabili canoniche e l’espressione della legge come trasformazione matematica basata sulla forma del principio di conservazione dell’energia, ma vanno aggiunte queste costanti, che non sono ovviamente delle leggi, poiché non esprimono relazioni tra grandezze fisiche, ma una certa misura definita relativa ad una grandezza fisica data, che da questo momento in poi funge da parametro dell’intero sistema: in relatività ristretta è la velocità della luce nel vuoto, in meccanica quantistica il quanto d’azione.
A questo punto, però, possiamo interrompere la nostra ricostruzione per sommi capi della storia della fisica moderna, ricostruzione nella quale abbiamo toccato come tappe la formulazione galileiana e newtoniana delle leggi del moto e del calcolo infinitesimale, la formalizzazione hamiltoniana delle equazioni corrispondenti, la risoluzione boltzmanniana dei paradossi della termodinamica, lo scheletro concettuale dell’elettrodinamica e della teoria dell’atomo. E il senso di questa storia è parso essere la realizzazione sempre più completa, ma anche sempre più difficile e ricca di compromessi, del progetto originario della dinamica classica come quella teoria fisica incentrata intorno ai termini “legalità, determinismo, reversibilità”, teoria fisica che si propone e diviene sempre più il vero e unico paradigma della scienza tout court.
Ora, tutti i momenti di questa linea di sviluppo convergono, in qualche misura, verso le due realizzazioni tipicamente novecentesche della fisica: la teoria della relatività di Einstein e la meccanica quantistica.
Per quanto riguarda la seconda, possiamo limitarci a definirne l’intento di fondo in analogia a quanto detto sul senso della termodinamica e dell’elettrodinamica. Queste due teorie ci sembravano deputate a reinterpretare in senso meccanicistico ambiti disciplinari prima oggetto di scienze diverse, per lo più vicine ai fenomeni chimici del fuoco e della materia. Ed anche la meccanica quantistica nasce con la stessa intenzione, ossia come reinterpretazione dinamica e meccanicistica dei fenomeni atomici, fino a quel momento oggetto della chimica. La meccanica quantistica, dunque, nasce a stretto contatto con la formulazione dell’elettrodinamica data da Lorenz e, come la teoria della relatività ristretta, in qualche modo per correggere le debolezze di questa teoria di fronte a certe situazioni sperimentali problematiche. Come abbiamo cercato di dedurre prima in maniera formale, queste situazioni devono avere a che fare con la relazione tra le descrizioni corpuscolare e ondulatoria dei fenomeni elettrici e luminosi, ed in particolare con il problema dello statuto della radiazione. Ed in effetti è storicamente così in quasi tutti i casi, compreso il primo e decisivo, quello della scoperta, da parte di Planck, del “quanto d’azione”.

Ne parliamo qui, perché è proprio in relazione a ciò, che Einstein propose la sua teoria dei fotoni, che è centrale per la comprensione della sua equazione tra massa ed energia. Planck scoprì che lo scambio di energia tra materia e radiazione, quindi tra gli atomi di un certo elemento chimico e la luce, avviene solo a tappe discrete, non continue. Dunque secondo una scala di valori a intervalli dati: la costante h di Planck esprime, esattamente, il valore minimo, e universale, di questa scala, l’intervallo minimo, che non è infinitesimale, ma di una certa misura sempre uguale, della composizione dell’energia: l’atomo energetico, in qualche modo, quello che egli stesso chiamerà “quanto d’azione”.

Questa scoperta, che sconvolse lo stesso Planck, il quale si rese subito conto di aver a che fare con qualcosa di completamente nuovo e rivoluzionario, ebbe una prima interpretazione generale da parte di Einstein, che osò formulare chiaramente almeno una delle dimensioni fondamentali della vera questione che stava alla base di tutti i problemi di cui parliamo: ossia la dualità tra comportamento ondulatorio e corpuscolare della luce. Noi abbiamo visto che questa dualità permaneva anche nell’elettrodinamica, ma lì vi rimaneva suo malgrado, ossia nonostante tutti i tentativi di risolverla in un’unità superiore, e quindi come scandalo e fallimento della teoria. Einstein, invece, la rese il nucleo della propria teoria dei fotoni, formulandone chiaramente la struttura matematica proprio grazie al quanto di azione di Planck. Ossia, egli assunse che la luce può avere sia un comportamento ondulatorio, al quale ci riferiamo quando spieghiamo i fenomeni legati alla frequenza e alla lunghezza d’onda (come i fenomeni di interferenza), sia un comportamento corpuscolare, come nel caso dell’effetto fotoelettrico, che va descritto tramite i concetti tipici della meccanica. Un certo fascio di luce, dunque, sarà caratterizzato dalle sue frequenza e lunghezza d’onda, che però noi possiamo mettere in relazione a quantità meccaniche di particelle (i fotoni) come l’energia e il momento (coppia usuale nella scelta delle variabili canoniche nelle equazioni di tipo hamiltoniano) proprio tramite il quanto d’azione. E queste relazioni sono molto semplici:

e = hn
p = h/l
(ove e è l’energia, p il momento, ni la frequenza e lambda la lunghezza d’onda)

Il quanto d’azione, quindi, risultava decisivo per passare dalla descrizione della luce come onda alla sua descrizione come pacchetto di fotoni, ossia di particelle dotate di un certo moto, etc… Dopo alcuni anni, queste stesse relazioni saranno alla base dell’interpretazione in qualche modo speculare della materia come onda, interpretazione che ha dato origine a quella branca della meccanica quantistica che è la meccanica ondulatoria, opera soprattutto di Erwin Schrödinger e Louis De Broglie.
La teoria dei fotoni di Einstein prende dunque ispirazione dai lavori di Planck sul quanto d’azione, rappresentando quindi uno dei punti d’inizio della meccanica quantistica, ma si sviluppa tramite considerazioni sulle equazioni probabilistiche dell’entropia di Boltzmann. Si tratta quindi di un lavoro che, nonostante il suo aspetto marginale, si pone al centro di quella serie di sviluppi della fisica che avevano portato questa disciplina ad un punto di svolta proprio in quegli anni.
Un punto di svolta che trova nella primavera del 1905 una delle sue più importanti chiavi di volta: è tra il marzo e il giugno di quell’anno che Einstein, uno sconosciuto impiegato statale, manda tre articoli agli “Annali di fisica”, due dei quali, almeno, sono di importanza fondamentale:

  1. Un punto di vista euristico relativo alla generazione e trasformazione della luce;
  2. Movimento di particelle sospese in liquidi in quiete, richiesto dalla teoria molecolare del calore;
  3. Elettrodinamica dei corpi in movimento.

Soprattutto dal secondo di questi articoli si arguisce il forte interesse di Einstein per la termodinamica statistica. Egli era legato indirettamente a Boltzmann, tramite un suo amico, che era un grande maestro di fisica, Paul Ehrenfest, il quale era stato allievo di Boltzmann e fu poi il successore di Lorenz a Leiden. E nel secondo degli articoli citati, Einstein sviluppa un modello del moto browniano a partire dalla teoria cinetica dei gas e propone un metodo nuovo e diretto per determinare la costante di Boltzmann e quindi il numero di Avogadro per le molecole contenute in una mole. Ciò ci consente di inquadrare il suo lavoro, all’interno di quel movimento che tendeva a riportare le acquisizioni dei nuovi settori della fisica entro il contesto della legalità naturale proprio della meccanica classica. E in un certo senso, tutta l’opera di Einstein sarà volta a questo compito, anche se per svolgerlo dovrà modificare talmente a fondo nozioni basilari, che noi stentiamo a riconoscere la sua fisica per quel che è, ossia la massima generalizzazione dei principi della meccanica classica.
Ma riprendiamo l’argomento del primo degli articoli del 1905: Un punto di vista euristico relativo alla generazione e trasformazione della luce. Come vi dicevo, la vecchia teoria meccanica newtoniana sulla natura particellare della luce era stata criticata già da Huygens, che aveva presentato la concezione destinata a dominare l’ottica fino alla meccanica quantistica, la concezione della luce come fenomeno ondulatorio che si propaga nell’etere. Erano stati gli studi sui fenomeni di interferenza e rifrazione che avevano sancito la validità della teoria ondulatoria:
1) Per quanto riguarda l’interferenza, è evidente che due onde di fase opposta e della stessa ampiezza possono annullarsi, mentre due insiemi di particelle che si incontrano dovrebbero solo accrescersi.
2) Un’interpretazione in termini gravitazionali della rifrazione prevederebbe che la luce che attraversa un medium più denso dovrebbe accelerare, mentre in termini ondulatori è prevedibile che rallenti: ed è quest’ultima la risultanza sperimentale.
La teoria ottica ondulatoria, poi, trovò nel contesto dell’elettrodinamica di Maxwell, che interpretava anche i fenomeni luminosi allora noti come onde elettromagnetiche, la sua prima grande sintesi. Solitamente, si dice che Maxwell avrebbe eliminato l’etere come mezzo di propagazione, ma questo è vero solo dopo che la sua teoria fu reinterpretata, conservando in parte l’apparato matematico, ma potendo fare a meno del concetto di mezzo di propagazione. Inizialmente, però, non fu così: l’interpretazione elettromagnetica della luce intendeva i fenomeni luminosi come vibrazioni elettriche delle particelle dell’etere. L’etere era in qualche modo la condizione della comprensibilità delle equazioni elettro-magnetico-luminose. Il problema era individuarne con precisione le caratteristiche fisiche. È solo sulla base di questa situazione, che possiamo comprendere l’importanza dell’esperimento di Michelson, che aveva constatato come la velocità di propagazione della luce nel vuoto, ossia in quello che veniva inteso come puro etere, è sempre la stessa ed è indipendente dal moto della sorgente o dell’osservatore rispetto a questo etere. È una velocità finita e costante, differente e superiore da quella della propagazione della luce in qualsiasi altro medium, per esempio l’acqua. Ma su ciò torneremo più avanti.
Ad ogni modo, Einstein rifiutò la univocità dell’interpretazione elettromagnetica della luce e conciliò, in qualche modo, le tesi di Newton e Huygens, proponendo l’aspetto duplice della luce, corpuscolare e ondulatorio, duplicità di corpuscolo e onda che diverrà poi il vero leitmotiv della meccanica quantistica e sarà ampliato a tutta la realtà atomica e subatomica.
Abbiamo ricordato la scoperta di Planck della quantizzazione dell’energia, scoperta che questi aveva fatto studiando gli oscillatori nelle pareti del corpo nero: Planck stesso, però, non riteneva che questa sua scoperta avrebbe potuto mettere in discussione le equazioni di Maxwell e soprattutto non aveva legato il quanto d’azione alle radiazioni luminose. È quanto fece Einstein, mostrando come fosse possibile una descrizione della luce come composta di quanti di energia, veri e proprio corpuscoli, finché si muovono. E lo aveva fatto riferendosi proprio a quell’equazione di Boltzmann sull’entropia di cui vi ho già parlato: S = k log W. In effetti, Einstein argomentò a partire da considerazioni sull’entropia di una radiazione luminosa entro un certo intervallo di frequenze: sfruttando le formule di Planck e quelle della termodinamica, che qui non è il caso di riportare, arguì che è possibile considerare la radiazione luminosa a frequenza ν come macrostato di un microstato definito dal sistema di un numero di particelle n ognuna delle quali di energia ε = hν, in modo che l’energia totale E fosse uguale a nhν.
Nel suo articolo leggiamo: “Se dunque per quel che riguarda la dipendenza dell’entropia dal volume la radiazione monocromatica di piccola densità si comporta come un mezzo discontinuo consistente di quanti di grandezza hν è giusto domandarsi se le leggi di emissione e trasformazione della luce corrispondono a quello che ci si aspetterebbe se la luce fosse composta degli stessi quanti”.
Come si vede, il suo approccio è fortemente generalizzante: ciò che ha trovato essere valido in un caso particolare deve essere spinto alla sua massima generalità, perché mostri le sue capacità di spiegazione di altri fenomeni. E questo, si badi, nella piena consapevolezza delle difficoltà enormi di rileggere l’elettrodinamica della luce in termini quantistici. Insomma, sarebbe errato dire che Einstein ha scoperto i fotoni: più corretto è dire che li ha posti come principio euristico di una ricerca, che continuerà per anni e sarà compiuta entro la meccanica quantistica. Già però in questo suo primo momento, l’ipotesi dei fotoni risultava decisiva per spiegare l’effetto fotoelettrico.
Con questo nome ci riferiamo a un fenomeno che metteva in crisi la completezza della spiegazione ondulatoria della luce: questo fenomeno consiste nell’espulsione, da parte di un corpo (generalmente di un metallo o di un gas), di elettroni a seguito di un assorbimento di luce. Questo era un fatto molto enigmatico, poiché mostrava una interazione tra onda e corpuscolo, che non si riusciva a spiegare in maniera classica. Infatti, il numero di elettroni emessi e la loro energia cinetica non risultavano proporzionali all’intensità della radiazione luminosa, bensì alla sua frequenza, ossia ad una caratteristica propria dell’onda e non della forza. In effetti, nei termini hamiltoniani, così come sono adattati alle equazioni elettrodinamiche di Lorenz, le quali descrivono come analoghi gli eventi elettrici e luminosi, si può certo rendere conto della possibilità che una radiazione luminosa abbia un effetto elettrico e questo fenomeno si può calcolare tramite le derivate dell’energia complessiva del sistema rispetto alle posizioni ed ai momenti dei suoi componenti: in parole povere, possiamo mettere in relazione la posizione e la quantità di moto degli elettroni con l’intensità, ossia con l’energia, della luce. Questa descrizione, però, viene falsificata dalle esperienze, che manifestavano invece una vera e propria interazione tra la forma dell’onda e il comportamento delle particelle elettriche. Che relazione fisica vi è tra la frequenza della luce e l’energia degli elettroni emessi?
Ebbene, si tratta proprio di quella equazione ε = hν che vedevamo prima, equazione che tramite facili trasformazioni derivanti dalle equazioni di Maxwell esprime anche la relazione tra quanto d’azione e lunghezza d’onda: p = h/l, ossia il momento dei fotoni è uguale a h fratto la lunghezza d’onda. La semplicità e l’eleganza di queste trasformazioni è davvero straordinaria, soprattutto se consideriamo che la via seguita per dimostrarle è molto complessa e ampia, poiché fa riferimento alle equazioni della meccanica analitica, della termodinamica e dell’elettrodinamica, formalismi che fonde, dimostrandone implicitamente la coerenza reciproca e il comune radicamento nella meccanica. A ben vedere, infatti, Einstein più che scoprire un carattere fisico della luce, aveva definito il modo per passare dalla descrizione ondulatoria a quella meccanica e viceversa, ma entro lo schema formale della meccanica analitica: le equazioni del moto della luce erano in ogni modo definite da un quantificatore dell’energia totale e da una coppia di variabili canoniche coniugate, l’energia e il momento per l’aspetto corpuscolare della luce, la frequenza e la lunghezza d’onda per l’aspetto ondulatorio.
Non si può insistere a sufficienza sull’importanza di questo risultato, non solo per la comprensione dell’opera di Einstein, ma per il suo carattere paradigmatico circa l’essenza della fisica moderna, l’indirizzo suo proprio verso l’unicità di un giudizio universale in grado di porre in unità la molteplicità delle nozioni. Con la teoria dei fotoni, egli diede il primo saggio di ciò che sarà poi l’oggetto proprio della relatività ristretta, la riunificazione di meccanica, termodinamica ed elettromagnetismo a partire dai fondamenti della cinematica.
Ma non è solo per tale motivo, che abbiamo parlato così a lungo di questo argomento. Ne vanno aggiunti almeno altri tre:

  1. in primo luogo, perché dimostra come Einstein non sia solo il teorico della relatività, ma un fisico che ha saputo imporre un modo nuovo di lavorare in vari settori della sua disciplina, in questo caso su qualcosa che sarebbe stato decisivo per tutto lo sviluppo della meccanica quantistica, di cui Einstein è legittimamente un padre, anche se poi la via che prese questa branca della fisica si allontanò sempre di più dal suo ideale di scienza, il che provocò una polemica lunga anni con i rappresentanti della scuola di Copenaghen, polemica che vide Einstein sempre più isolato e su posizioni conservatrici.
  2. In secondo luogo, perché in questo suo lavoro sui quanti di luce emerge chiaramente il carattere teorico puro della fisica di Einstein: è evidente, che egli non poteva far riferimento ad alcuna esperienza che non fosse già nota, dal momento che non esercitava alcuna ricerca empirica, essendo del tutto escluso dal mondo accademico e scientifico. L’ho ripetuto più volte: Einstein non ha scoperto qualcosa di nuovo sulla luce, come aveva fatto invece Planck con il suo quanto d’azione. Potremmo addirittura generalizzare questo giudizio, dicendo che non c’è in tutta l’opera di Einstein nessuna autentica scoperta scientifica, per il semplice fatto che il suo metodo era del tutto deduttivo e formale e si basava, nei momenti cruciali, non su dati, ma su considerazioni di tipo epistemologico ed euristico. Lo vedremo ancora più chiaramente per la relatività, ma anche qui, in questo articolo che non a caso si intitola Un punto di vista euristico…, Einstein sviluppa matematicamente un’intuizione e poi pone il risultato di questa deduzione formale come principio della ricerca, ossia prova a generalizzare ciò che è risultato plausibile per un caso a tutti i casi matematicamente trattabili in maniera analoga. Non c’è niente di meno induttivo nella scienza moderna.
  3. In terzo luogo, il suo articolo è fondamentale, poiché il suo tema, la luce, sarà la chiave di volta per la riforma della meccanica classica nel senso della relatività ristretta, una riforma che dipende in gran misura dalle considerazioni metodologiche e metronomiche sulle conseguenze del fatto che la propagazione della luce nel vuoto ha una velocità costante FINITA c.

Ma dobbiamo riprendere alcuni elementi della storia della fisica moderna, per passare alla teoria della relatività ristretta, che a differenza di quella della relatività generale può vantare ancora oggi un altissimo livello di corroborazione (il che non significa che quella della relatività generale sia stata confutata, ma solo che, per le sue caratteristiche, è molto meno controllabile empiricamente, avendo un alto contenuto puramente teorico e, popperianamente, metafisico).
In primo luogo, dobbiamo chiarire il fatto fondamentale, che il senso della proposta di Einstein non è quello di introdurre un principio di relatività che non vi sarebbe nella fisica precedente: anche qui, Einstein non ha scoperto niente, anzi, è tornato alle origini, ha posto nella sua piena generalità ed ha preteso una validità assiomatica proprio per il vecchio principio di relatività, di cui non viene modificato il senso fisico, ma solo la formalizzazione matematica.
Volendo preannunciare, sintetizzando, alcune delle conclusioni cui giungeremo, possiamo dire che nella teoria della relatività non si sancisce affatto la relatività delle leggi fisiche: è anzi proprio il contrario. La teoria della relatività si sviluppa a partire dal postulato, quindi dalla richiesta dell’ammissione del principio, che le leggi debbono valere a prescindere dal riferimento a questo o quell’osservatore.
E questa richiesta di principio era già caratteristica della meccanica classica, con una limitazione, che chiariremo bene e che è condivisa dalla relatività ristretta. Cerchiamo di sviluppare gradualmente il discorso, tornando innanzitutto sul concetto classico di relatività, per poter comprendere cosa di esso verrà modificato e che senso avrà questa modifica.
L’approccio migliore a questo tema, è quello che lo stesso Einstein usa: partire da considerazioni sul rapporto tra fisica e geometria. Einstein è ben consapevole, che la geometria, come costruzione noetica, non ha immediatamente una verità fisica, concetto che è del tutto privo di senso, se non si stabiliscono regole di corrispondenza tra gli enti fisici e quelli geometrici. Una volta fatto ciò, si dispone di una teoria fisica sulle qualità geometriche dei corpi, che è confrontabile con l’esperienza. Soprattutto, però, si dispone del presupposto teorico della misurazione e determinazione dello spazio. È evidente, che se questo sistema teorico si dimostra inadeguato alla realtà, è solo esso che viene falsificato, e non la geometria sottesa, la quale detiene una propria verità a partire da ragioni di coerenza interna e quindi non è mai falsificabile.
Ad ogni modo, Einstein pone alla base della meccanica classica la geometria euclidea integrata dalla seguente regola di corrispondenza: la distanza tra due punti di un corpo rigido, quale che sia il suo moto, è invariabile. Ossia, esistono intervalli fisici dati, distanze, che si misurano coerentemente con la teoria euclidea della proporzione, ossia commisurando il segmento di retta che unisce due punti su un corpo rigido ad un’unità lineare di misura.
In questo modo, come dicevamo, la geometria diventa un ramo della fisica, essenzialmente come metronomia, dottrina della misura. Che è poi ciò che caratterizza la fisica rispetto a tutti gli approcci qualitativi: come abbiamo già notato, l’essere degli enti fisici è la grandezza, la loro misurabilità.
Come tale definizione di intervallo (o distanza), la geometria euclidea vale per la determinazione di luogo di ogni evento fisico anche nella relatività ristretta. Scrive Einstein nel suo Ueber die spezielle und allgemeine Relativitätstheorie: “ogni descrizione spaziale di eventi comporta l’uso di un corpo rigido al quale debbono venir riferiti detti eventi. Tale relazione presuppone che le leggi della geometria euclidea valgano per gli «intervalli», dove l’«intervallo» viene rappresentato fisicamente per mezzo di due segni su un corpo rigido”.
Consideriamo che il corpo rigido di riferimento non deve essere necessariamente un corpo fisico, per quanto debba essere sempre collegato ad un corpo rigido fisico, che generalmente è dato dalla posizione dell’osservatore. Legato dunque ad un certo ente fisico di un certo tipo, il corpo di riferimento può essere inteso come lo spazio astratto definito dall’intersezione di 3 piani perpendicolari, il che basta a fondare il sistema cartesiano delle coordinate, ossia a determinare la metodologia della descrizione della posizione di un corpo come misura di tre intervalli, delle 3 distanze minime di qualsiasi ente o evento fisico dai piani di questo spazio, distanze che risultano essere i segmenti di retta perpendicolari ai piani e terminanti nel punto di cui si vuole determinare la posizione.
Sulla base di questa metrica euclidea, Einstein chiarisce il senso in cui si dice che lo scopo della meccanica è descrivere in che modo i corpi mutano nel tempo la loro posizione nello spazio. In primo luogo, giusto quanto detto, non si deve parlare genericamente di mutamento della posizione nello spazio, ma di “movimento rispetto a un corpo di riferimento praticamente rigido”, ove corpo di riferimento può dirsi “sistema di coordinate”. Su questa base, risulta evidente, che per ogni corpo “non esiste una traiettoria in sé, ma soltanto una traiettoria rispetto a un particolare corpo di riferimento”.
Va notato che Einstein non sta criticando l’idea di traiettoria, che anzi rimane anche per lui la cifra della spiegazione meccanica. Sta solo sottolineando che una metrica rigorosa non pone la traiettoria come qualità assoluta di un corpo, dal momento che ogni misurazione deve riferirsi ad un sistema di coordinate, che può variare.
Una descrizione completa di una certa traiettoria si dà, però, solo specificando anche le posizioni del corpo lungo la sua traiettoria nel tempo, ossia determinando per ogni posizione l’istante di tempo in cui in essa si trova il corpo. E anche questa determinazione va intesa nello stesso senso metrico valido per la misurazione geometrica degli intervalli. Scrive sempre Einstein: “questi dati devono venir completati con una definizione di tempo tale che, in virtù di essa, i valori del tempo possano venir considerati come grandezze per principio osservabili (risultati di misurazioni)”. E tale definizione deve fare i conti con l’imprecisione derivante dal fatto che la velocità di propagazione della luce è finita.

Definita, quindi, la relazione tra fisica e geometria e presentata la definizione metrica delle determinazioni essenziali della descrizione fisica, Einstein passa a illustrare il principio galileiano di relatività, che definisce basato sulla legge d’inerzia: un corpo non perturbato permane in uno stato di quiete o di moto rettilineo uniforme. E aggiunge subito: “Questa legge non dice soltanto qualcosa intorno al movimento dei corpi, ma indica altresì i corpi di riferimento o sistemi di coordinate accettabili nella meccanica”. Questi sono quei sistemi di coordinate il cui stato di moto sia tale che il principio di inerzia risulti valido con riferimento ad esso e vengono detti sistemi di coordinate galileiani. E le leggi della meccanica pretendono di essere valide soltanto per tali sistemi.
La distinzione di Einstein è molto importante, anche se apparentemente si tratta solo di una tautologia: il principio di inerzia, come legge della meccanica, è valido solo per i sistemi di coordinate nei quali è valido il principio di inerzia. La definizione non è più pleonastica, però, se consideriamo il contenuto proprio del principio di inerzia, che è la definizione della relazione costitutiva tra moto, spazio e tempo. Ossia se torniamo a quanto notavamo all’inizio, cioè al fatto che con la definizione del moto proprio dei corpi la meccanica classica ha anche definito gli elementi costitutivi dello spazio, il punto per la posizione e la retta per la direzione, che sono poi anche gli elementi costitutivi della sua metrica. E ha posto inoltre una metrica continua del tempo, come successione di intervalli uguali, necessaria a definire la velocità come unità di spazio nell’unità di tempo, una metrica del tutto analoga quindi a quella delle distanze commisurate a segmenti unitari dati.
La tesi di Einstein non fa altro, dunque, che esplicitare come nella definizione delle caratteristiche essenziali del moto sia già compresa una definizione dello spazio e del tempo entro cui questo moto è quel che è, dello spazio che questo moto disegna e del tempo che esso stesso scandisce, per così dire. E dal momento che la realtà fisica non è data solo da corpi non perturbati, in situazione di quiete o moto uniforme, ma per lo più da corpi accelerati – ed è per questo che, come ricorderete, abbiamo definito l’accelerazione come il vero problema della meccanica – è evidente che un sistema rigido di riferimento legato ad un corpo accelerato non è tale, che rispetto ad esso le leggi della meccanica risultino valide, a partire dal principio di inerzia. Per esempio, se misuriamo la posizione di un corpo non soggetto a forze a partire da un sistema di coordinate legato ad un corpo in accelerazione, la traiettoria del primo corpo non risulterà uniforme, ma anch’essa accelerata, per cui non varrà la legge fondamentale che un corpo persevera nel moto uniforme, se non influenzato. E lo stesso vale per la seconda legge della dinamica, per la legge dell’accelerazione gravitazionale e così via.
È evidente, che in questa considerazione già è congedata l’idea newtoniana di uno spazio assoluto, ossia la concezione che tutti i corpi fisici abitano uno spazio comune, che ha un’esistenza separata e una forma geometrica euclidea. Congedata, se non altro, nel senso che risulta inservibile per la metronomia: un tale spazio omogeneo, vuoto, assoluto, non fornisce punti di riferimento reali, a partire dai quali compiere materialmente le operazioni di misurazione. È vero, che in linea di principio può essere scelto ogni punto, come origine degli assi cartesiani, ma in pratica questo punto deve essere un corpo fisico rigido, come dicevamo prima, e non vi è alcun modo per determinare a priori la situazione di moto di questo corpo rigido rispetto a quell’ipotetico spazio assoluto.
C’è una frase molto significativa di Einstein, relativa alla relatività generale, ma che possiamo citare qui senza alcuna difficoltà: “Desideravo mostrare che lo spazio-tempo non è di necessità qualcosa a cui si possa attribuire un’esistenza separata, indipendentemente dagli oggetti effettivi della realtà fisica. Gli oggetti fisici non sono nello spazio, bensì spazialmente estesi. In tal modo il concetto di «spazio vuoto» perde il suo significato”.
Vedremo poi meglio tutto quel che ciò comporta, ma già ora possiamo trarre un’indicazione circa il principio classico di relatività. Esso è legato precisamente alla necessità di riferirsi a enti fisici reali, come origini degli assi cartesiani che organizzano lo spazio euclideo, che è quello “naturale” (fra molte virgolette), per la descrizione di moti “naturalmente” tendenti all’uniformità. Insomma, è l’impossibilità pratica in linea di principio di riferirsi direttamente allo spazio assoluto, che indirizza verso una teoria della relatività, la quale finisce per prendere in considerazione sempre almeno 3 sistemi: quello del corpo il cui moto va descritto, quello del sistema di coordinate in cui tale moto è prima facie misurato, quello di ogni altro sistema di coordinate ammissibile nei cui termini tale misurazione può essere tradotta, risultandone invariate le leggi della meccanica.
Perché affermo questo, ossia che si può parlare veramente di sistemi galileiani di coordinate solo considerando almeno tre elementi? Einstein stesso certe volte, e con lui gran parte dei commentatori, parte da due soli riferimenti: quello del corpo di cui si vuole misurare la posizione e quello del sistema di riferimento entro il quale vale il principio di inerzia. Ma come possiamo sapere che entro un dato sistema di riferimento vale il principio di inerzia? Certo, non possiamo porre come tale ogni sistema in cui un dato corpo non perturbato si muove uniformemente: non possiamo sapere, infatti, a partire dal solo principio di inerzia, a quali condizioni un corpo è non perturbato, se non determinandone la traiettoria, determinazione che però è sempre relativa allo stato di moto del corpo fisico di riferimento a cui leghiamo i nostri assi cartesiani. Insomma, se è vero che la traiettoria non è mai in sé, ossia se è vero che non c’è uno spazio assoluto, decidere circa l’ammissibilità di un sistema di coordinate è possibile solo avendo almeno tre riferimenti. Due soli corpi potrebbero sempre essere entrambi in una situazione di moto accelerato identica tale, che il loro moto reciproco risulti uniforme. Solo se abbiamo tre corpi, due dei quali reciprocamente in moto uniforme e il terzo in moto accelerato, e solo se possiamo determinare che il moto del terzo corpo segue le stesse leggi a partire dai due primi corpi di riferimento, solo in tal modo abbiamo definito rigorosamente un sistema di coordinate galileiano, insieme ai principio della sua covarianza rispetto ad ogni altro sistema analogo. E a ben vedere, è sempre stato così, poiché anche nella posizione newtoniana era lo spazio assoluto che svolgeva, idealmente, la funzione del secondo punto di riferimento, quello reale, rispetto al quale il sistema pratico di coordinate doveva trovarsi in una situazione di moto uniforme. E tutto sommato questo avviene anche nelle altre descrizioni che si basano solo su due riferimenti, descrizioni che solitamente assumono come sistemi di riferimento galileiani quelli nei quali i moti delle stelle fisse risultano uniformi, poiché, in effetti, qui sono proprio le stelle fisse il terzo riferimento. Io ho preferito chiarire subito che la cosa è più complessa, perché questo è importante sia per chiarire l’ulteriore sviluppo della teoria della relatività ristretta, che va nel senso di una modificazione delle equazioni matematiche deputate al passaggio da un sistema di riferimento a un altro entro i quali si misurano le grandezze di un terzo corpo, sia per lo sviluppo della relatività generale, che finisce coerentemente per dissolvere l’idea stessa di sistema galileiano di riferimento.
Sulla base di tutto ciò, torniamo alla definizione einsteiniana del principio di relatività galileiano. Abbiamo detto che un sistema di riferimento galileiano è quello entro cui vale il principio di inerzia. E abbiamo notato come ciò comporti sempre la relazione tra almeno tre elementi. Ed è ancora come relazione tra almeno 3 elementi che si specifica il principio di relatività: c’è il corpo di cui va descritto il movimento, ossia le coordinate spaziotemporali; c’è il sistema iniziale di riferimento per la descrizione completa della traiettoria, che è legato ad un altro corpo; c’è infine almeno un altro sistema di riferimento, anch’esso legato ad un corpo, nel quale va trascritta la prima descrizione.
Ora, il principio di relatività afferma che se il moto di un corpo è descritto in conformità con le leggi del moto in un sistema di riferimento galileiano, esso potrà essere descritto con la stessa conformità a quelle leggi in ogni altro sistema di riferimento che si trovi in uno stato di moto traslatorio uniforme rispetto al primo. Questo secondo sistema di riferimento, in altri termini, sarà anch’esso galileiano, ossia tale che in esso valgono le leggi della meccanica.
Esemplificando, possiamo articolare il discorso in questi passaggi:

  1. se la traiettoria nel vuoto di un corpo non soggetto a forze è rettilineo e uniforme in un sistema di riferimento, dal momento che in questo sistema vale il principio di inerzia esso è galileiano, ossia in esso valgono anche tutte le altre leggi della meccanica.
  2. Dato un sistema di riferimento galileiano, è galileiano anche ogni altro sistema che sia in uno stato di traslazione uniforme rispetto al primo.
  3. Ciò dipende evidentemente dal fatto che ogni sistema di riferimento è legato ad un corpo, per cui dire che il secondo sistema di riferimento compie un moto traslatorio uniforme rispetto al primo, non significa nient’altro che dire che il corpo al quale è legato questo sistema di riferimento si muove rispetto al primo sistema di riferimento in conformità al principio di inerzia.
  4. Ciò garantisce che il moto di ogni altro corpo, di qualunque tipo esso sia, quindi non solo un moto inerziale, ma anche ogni moto accelerato, sarà descrivibile nei due sistemi di riferimento non con le stesse grandezze, ma in conformità con le stesse leggi.

Questo è il modo più completo in cui possiamo descrivere il principio di relatività, che quindi vediamo essere del tutto coerente e quasi implicito nell’asserzione fondamentale della meccanica classica. Ma facciamo anche un esempio.
Scrive Einstein: se una massa m si muove uniformemente e in linea retta rispetto a un sistema di coordinate K, allora essa si muoverà uniformemente e in linea retta anche rispetto a un secondo sistema di coordinate K’, purché quest’ultimo sia in moto traslatorio uniforme rispetto a K.
Per esempio, per tornare ai treni: poniamo un osservatore a terra, presso i binari, e un osservatore sul treno che viaggia in linea retta e a velocità costante. Immaginiamo un uccello che voli anch’esso in linea retta e a velocità costante rispetto al treno, quale che sia la sua velocità e la sua direzione. Constatiamo che il suo moto, descritto dall’osservatore a terra, avrà velocità e direzione differenti, ma sarà ancora un moto rettilineo uniforme.
Generalizzando ciò che vale per moti inerziali, poi, sulla base del postulato che le leggi della meccanica valgono solo per sistemi galileiani di riferimento e del suo corollario: che nei sistemi di riferimento galileiano le leggi della meccanica valgono, possiamo dire, ancora citando Einstein: «se K è un sistema di coordinate galileiano, allora è pure galileiano ogni altro sistema di coordinate K’, che si trovi, rispetto a K, in uno stato di moto traslatorio uniforme. Rispetto a K’ le leggi della meccanica sono valide esattamente come lo sono rispetto a K».
Nella sua massima generalità è proprio questo il principio di relatività (nel senso ristretto che gli è proprio nella meccanica classica): «se K’ è un sistema di coordinate che si muove, rispetto a K, uniformemente e senza rotazione, allora i fenomeni naturali si svolgono rispetto a K’ secondo le stesse leggi come rispetto a K».
Voglio insistere ancora su questo punto: non sono le grandezze misurate a risultare invarianti, ma le leggi a rimanere valide per i due sistemi di riferimento. In tal senso parliamo di covarianza delle grandezze, non di invarianza: con ciò vogliamo dire, che i valori delle grandezze misurate a partire dai 2 sistemi sono differenti, ma la relazione tra questi valori è conforme alle stesse leggi (ricordiamo che una legge è precisamente la formalizzazione matematica di una relazione costante tra i valori di certe grandezze).
Questo punto è di importanza capitale, perché è proprio relativamente al modo in cui si passa da i valori misurati in un sistema a quelli misurati in un altro che il principio di relatività di Einstein è diverso da quello classico. Esso rimane quindi valido nella sua forma di postulato, anzi torna ad essere valido, dopo che è stato messo in discussione a seguito dello sviluppo dell’elettrodinamica. Cambiano però le equazioni di trasformazione dei valori delle grandezze da un sistema galileiano ad un altro.
Ma arriviamoci gradualmente. Qual è il punto? Postulato che certe leggi non debbano variare forma se descritte in due sistemi che si trovino in moto reciprocamente inerziale, è evidente che, conoscendo precisamente questo moto, deve essere possibile calcolare come mutano le grandezze di un certo fenomeno nei due sistemi. Ricordiamo che un sistema di riferimento è uno spazio astratto legato ad un corpo fisico, spazio nel quale è misurabile la traiettoria di un altro corpo tramite 4 valori, ossia tramite la misura dei tre intervalli spaziali, definiti dai segmenti di retta perpendicolari che uniscono il corpo ai piani di questo spazio, e dell’intervallo temporale. In altri termini, dato un corpo di riferimento, io descrivo la traiettoria di un altro corpo misurandone, con quel sistema di regoli e orologi che vi dicevo, per ogni istante di tempo la posizione relativa: dirò per esempio che in un certo momento è un metro a destra o a sinistra, due metri in alto o in basso, tre metri in avanti o all’indietro. Considerando una certa durata, dirò invece che si muove verso destra-sinistra, alto-basso, avanti-dietro a una certa velocità (s/t).
Ora, se teniamo presente che anche il secondo sistema di riferimento è legato ad un corpo, e precisamente ad un corpo che si muove di moto uniforme rispetto al primo sistema, è facile vedere che è sempre possibile porre due delle tre coordinate come invarianti nei due sistemi, facendo variare solo la terza in conformità con la velocità del corpo cui è legato il secondo sistema di riferimento. Torniamo al treno. Poniamo come sistema di riferimento primario l’osservatore a terra. Il treno si muove di moto rettilineo uniforme. Per l’osservatore a terra sarà sempre possibile tracciare i suoi assi cartesiani in modo che il moto del treno sia parallelo ad uno di essi, per comodità poniamo la latitudine. In tal modo è evidente, che la posizione del corpo cui è legato il secondo sistema di riferimento rimarrà alla stessa profondità e alla stessa altezza, variando solo relativamente alla direzione in cui si muove verso destra o sinistra. Conseguentemente, anche la posizione di qualsiasi altro corpo, misurata nei due sistemi, avrà coordinate di profondità e longitudine invarianti e solo la latitudine variante nel tempo e precisamente in relazione alla velocità del treno.
Esemplifichiamo. Immaginiamo che le linee ferroviarie siano due e parallele e che siano due i treni che stanno passando, a velocità differente, ma comunque costante. Per l’osservatore a terra, il secondo treno sarà a 5 metri di profondità, a 1 metro di altezza e si muoverà verso destra di una velocità v. Per un osservatore sul primo treno, il secondo sarà a 2 metri di profondità, 0 metri di altezza e si muoverà a velocità 2v. Sulla base di ciò, possiamo scrivere semplici regole di trasformazione delle grandezze proprie del moto del secondo treno a partire dai due differenti sistemi di riferimento. E avremo dunque, nominando le tre coordinate spaziali come per convenzione x, y, e z, e la coordinata temporale con t, le seguenti equazioni:
x’ = x – vt
y’ = y
z’ = z
t’ = t

Come si vede, solo riguardo ad una coordinata spaziale vi è una variazione dei valori delle grandezze misurate nei due sistemi di riferimento, una variazione proporzionale alla velocità con la quale il secondo sistema si sposta relativamente al primo e al tempo. Questo per il semplice fatto, che più tempo passa maggiore è la variazione della posizione reciproca dei due sistemi. Vedete facilmente, infatti, che la correzione applicata alla coordinata spaziale è solo apparentemente dinamica, velocità nel tempo, essendo in realtà una pura misura spaziale di distanza: v è definita da spazio fratto tempo e quindi moltiplicata a tempo da solo una misura di spazio.
Ad ogni modo, queste che potremmo definire trasformazioni galileiane, dovrebbero essere tali da consentirci di calcolare i valori delle grandezze che descrivono il moto di un corpo in un sistema di riferimento, conoscendo il valore delle grandezze che descrivono il moto dello stesso corpo in un altro sistema di riferimento, purché questo sia in moto traslatorio uniforme rispetto al primo e se ne conosca la velocità.
Ed in effetti riguardo a tutti i fenomeni descritti dalla meccanica classica queste trasformazioni funzionano e soddisfano il principio di relatività: ossia, i valori che derivano da queste equazioni risultano conformi alle stesse leggi della meccanica per entrambi i sistemi di riferimento.
Cosa avviene, però, alla fine dell’ottocento? Avviene che per le equazioni di Maxwell, che descrivevano così bene i fenomeni elettromagnetici e luminosi, questo principio di relatività non sembra più valere. Perché, applicando le trasformazioni galileiane, e quindi descrivendo uno stesso fenomeno elettromagnetico in due sistemi galileiani di riferimento, i valori trovati per il secondo sistema di riferimento non corrispondono più alle leggi di Maxwell.
A prima vista, dunque, o sono sbagliate queste leggi o il principio di relatività non vale in ogni caso, nel senso che vi sono effetti fisici di natura differente da quelli della meccanica. Questo, data la tendenza profondamente radicata nella fisica a considerare la spiegazione meccanica come quella fondamentale e universale, era certo un boccone duro da digerire. In questo dilemma, rinunciare alle leggi di Maxwell o rinunciare all’universalità della meccanica, si dibatte a lungo la fisica di fine secolo, finché Einstein, riaffermando la centralità della spiegazione meccanica, non propone la sua versione della teoria della relatività, che è fondata su due postulati, che corrispondono esattamente ai due corni del dilemma:
Postulati della teoria della relatività ristretta (valida per sistemi in moto rettilineo uniforme):

  1. Tutti i sistemi inerziali sono equivalenti sia per i fenomeni meccanici, che per i fenomeni ottici ed elettromagnetici. (ossia vale il vecchio principio di relatività e deve valere anche per le equazioni di Maxwell)
  2. La velocità della luce è la stessa in ogni direzione in qualsiasi sistema di riferimento inerziale (ossia è indipendente dal moto dell’osservatore o della sorgente). Ossia, va riconosciuto che i valori relativi al moto della luce non sono quelli deducibili dalle trasformazioni galileiane.

La conseguenza è facile da immaginarsi: bisogna cambiare le equazioni di trasformazione, tenendo conto delle caratteristiche della propagazione della luce. Le nuove trasformazioni sono quelle di Lorenz, ma dobbiamo vedere in che modo con Einstein acquisiscano un preciso significato fisico. Dobbiamo quindi ricostruire una serie di risultanze sperimentali, che avevano posto l’ottica in seria difficoltà.

Come dicevamo, la teoria ondulatoria della luce si basava sul presupposto di un medium della propagazione, nel vuoto l’etere, che valeva quindi anche come corpo di riferimento privilegiato per la descrizione del suo moto. Se la luce si propaga nell’etere, però, dovrebbe essere possibile evidenziare lo stato di moto di un altro sistema di riferimento rispetto a questo etere, compiendo certi esperimenti sulla luce. Come vedete, qui il principio di relatività viene usato in maniera euristica: non per calcolare i valori in un altro sistema di riferimento, conoscendo il moto reciproco dei due sistemi di riferimento, ma calcolare precisamente il moto reciproco di due sistemi di riferimento, uno dei quali è l’etere, a partire da varie misurazioni di grandezze del moto della luce.

Ebbene, le varie esperienze davano risultati contraddittori:
Già dal 1727, per opera di Bradley, si conosceva il fenomeno dell’aberrazione stellare: l’angolo tra due stelle fisse misurato in due periodi dell’anno diversi è leggermente differente, in dipendenza del moto della terra. Questo fenomeno ottico veniva interpretato come effetto del moto della terra attraverso l’etere, in cui si propaga la luce delle stelle. L’etere, quindi, risultava del tutto permeabile al passaggio di corpi più densi: in altri termini, non veniva trascinato con sé dal moto dei corpi.
Nel 1851, però, Fizeau compì un esperimento che pareva dimostrare come l’etere fosse parzialmente trascinato dai corpi. L’esperimento misurava la propagazione della luce in un mezzo in moto, tramite un interferometro, e dimostrava che la velocità della luce è maggiore quando il raggio procede nella direzione del moto del mezzo. Nell’esperimento, Fizeau usava due correnti d’acqua scorrenti in direzioni opposte e notava che la luce che attraversa l’acqua nel senso del suo moto è più veloce di quella che l’attraversa nel senso contrario, ma la differenza tra le due velocità della luce non è pari a quella tra le due velocità dell’acqua, ma un po’ minore. Per questo motivo si riteneva che fosse dimostrato un trascinamento solo parziale dell’etere, che rimane il medium in cui la luce solo si può propagare, poiché essa è intesa come vibrazione elettrica delle sue particelle.
Fizeau, dunque, contraddiceva le conclusioni sulla permeabilità dell’etere deducibili dal fenomeno dell’aberrazione stellare: l’etere è solo parzialmente permeabile. Nel 1879, però, l’esperimento di Michelson sembrò implicare che esso non è affatto permeabile, venendo completamente trascinato dai corpi. Michelson cercava di evidenziare il moto della terra rispetto all’etere, moto che doveva risultare osservabile proprio a partire dal fatto che le equazioni di Maxwell non erano invarianti per le trasformazioni di Galileo. In altri termini: si considerava che in un breve lasso di tempo il moto della terra poteva essere considerato rettilineo uniforme. Conseguentemente, la terra poteva rappresentare un sistema galileiano di riferimento rispetto al moto della luce, che in un mezzo omogeneo è sempre rettilineo e uniforme. Dal momento che per le equazioni di Maxwell il principio di relatività galileiano notoriamente non risultava valido, ci si aspettava che, misurando sulla terra la velocità di propagazione della luce in due direzioni perpendicolari, risultassero valori differenti. Questo però non avveniva: in ogni direzione, la velocità della luce era la stessa, il che pareva implicare che la terra trascina interamente con sé l’etere. In tal modo, infatti, il mezzo di propagazione è solidale con il sistema di riferimento e quindi non è possibile rilevare alcun moto di questo rispetto a quello.
Ovviamente, però, questa soluzione non convinceva o comunque la contraddizione tra le 3 esperienze andava superata. Si cercò di farlo, ipotizzando caratteri fisici particolari della propagazione della luce. Ritz, per esempio, immaginò che la velocità della luce dipende anche dalla velocità della sorgente emittente, dimodoché un osservatore in quiete rispetto ad una sorgente emittente in moto debba misurare in ogni direzione la stessa velocità della luce, anche se essa è differente rispetto all’etere. Ovviamente, questa ipotesi metteva in crisi la dinamica puramente ondulatoria della luce, se è vero che la velocità di una qualsiasi onda non dipende mai dalla velocità della sorgente, ma solo dal mezzo in cui si propaga.
Peraltro, veniva contraddetta dall’esperienza di Tomaschek, che si basa su sorgenti di luce non in quiete rispetto all’osservatore ed esterne alla terra, quindi al di fuori di quell’ipotetico etere che la terra trascinerebbe con sé. Ebbene, anche considerando la luce di una stella, rispetto alla quale l’osservatore sulla terra è in moto, la velocità della luce rimaneva invariata nelle varie direzioni.
L’ipotesi matematicamente più convincente, però, era quello di Fitzgerald, ripresa poi da Lorenz: un corpo in moto si contrae nella direzione del moto. Nel caso dell’esperimento di Michelson, l’asse del suo apparecchio di misurazione posto nella direzione del moto della terra si sarebbe conseguentemente accorciato rispetto all’asse posto ad angolo retto, ed accorciato esattamente nella misura esatta per misurare un’identica velocità della luce nelle due direzioni. Ovviamente, un tale effetto fisico di contrazione non risulterebbe mai misurabile, poiché anche i mezzi di misurazione sarebbero soggetti alla stessa contrazione. Trattandosi di un’ipotesi che fa riferimento ad un effetto fisico, che però è in linea di principio inosservabile, la teoria della contrazione è evidentemente un’ipotesi ad hoc: l’introduzione di una legge fisica incontrollabile allo scopo di salvare i fenomeni. Certo, la soluzione era matematicamente perfetta e consentì a Lorenz di calcolare i valori di trasformazioni per il passaggio da un sistema di riferimento galileiano ad un altro, tali che le leggi dell’elettrodinamica di Maxwell risultassero invarianti. Queste famose trasformazioni di Lorenz, però, rimanevano sul piano fisico del tutto insignificanti: non configuravano una riforma del principio di relatività, ma mostravano un semplice dato di fatto: applicandole, le grandezze di fenomeni elettromagnetici misurate in due sistemi di riferimento galileiani risultavano covarianti.

Trasformazioni di Galilei                                           Trasformazioni di Lorenz
x’ = x – vt                                                                  x’ = (x – vt) / [1 - (v/c)2]½
y’ = y                                                                         y’ = y
z’ = z                                                                          z’ = z
t’ = t                                                                           t’ = t – (v/c)2 x / [1 - (v/c)2]½

Si noti, che anche per queste trasformazioni due delle coordinate spaziali non mutano, perché comunque si considerano sistemi galileiani di riferimento, quindi tali che si possono sempre porre due dei loro assi parallelamente.
Queste equazioni, per valori di v molto inferiori a c, si approssimano a quelle galileiane, quindi sono applicabili sia in meccanica, che in elettrodinamica. Ciò che però mancava, e che Einstein fornì, era un’interpretazione fisica di quel che altrimenti continuava a sembrare un semplice artifizio matematico, un’interpretazione fisica, che non poteva più accontentarsi della semplice applicabilità di queste trasformazioni sia alla meccanica che all’elettrodinamica.  
Il modo in cui Einstein affrontò la questione è caratteristico: egli non cercò innanzitutto nuove leggi, nuovi enti o nuovi effetti fisici, come avevano fatto i suoi predecessori Ritz o Fitzgerald, ma presentò una richiesta di tipo epistemologico: la definizione rigorosa dei modi in cui si misurano le grandezze di spazio e tempo al fine della definizione di questi stessi concetti. Questo nell’intento di dimostrare che “nella realtà non esiste la minima incompatibilità fra il principio di relatività e la legge di propagazione della luce, e che attenendosi strettamente e sistematicamente a entrambe queste leggi si poteva pervenire a una teoria logicamente ineccepibile”. Ignoriamo l’imprecisione dell’uso del termine legge da parte di Einstein: né il principio di relatività, né la costanza della velocità della propagazione della luce nel vuoto, infatti, sono leggi. L’importante è che qui quel principio e quella costante siano presentati come postulati, seguendo i quali senza alcuna pregiudiziale (per esempio, senza tener conto delle contraddizioni rispetto ad un ente fisico come l’etere, che infatti scompare) si giunge ad una teoria coerente.
Il postulato della costanza della velocità della luce nel vuoto, però, insieme alla richiesta metodologica che i concetti di spazio e tempo siano definiti solo a partire dalla teoria della loro misurazione, comporta una prima fondamentale modifica del concetto di simultaneità nel tempo, concetto basilare per poter applicare il principio di relatività, poiché quando si applicano le trasformazioni per passare da un sistema di riferimento all’altro, si assume implicitamente che le misure delle grandezze avvengano nei due sistemi contemporaneamente. Ma come è possibile determinare la contemporaneità di una misurazione in due sistemi di riferimento distanti tra loro? Più in generale, come è possibile determinare la contemporaneità di due eventi?
In funzione della costanza di c, si dà contemporaneità, laddove i segnali luminosi che partono da due punti arrivano nello stesso istante nel punto di mezzo dell’intervallo spaziale che li separa. Notiamo subito, dunque, che la misurazione del tempo appare legata, almeno in questa definizione di contemporaneità, alla misurazione dello spazio: solo poiché è determinabile il punto di mezzo di un intervallo spaziale, con il solito sistema dei regoli, possiamo anche trovare un criterio metrico preciso per definire la contemporaneità. Tramite questa definizione, possiamo sincronizzare degli orologi, di uguale costruzione e ritmo, posti a una certa distanza: essi valgono come sincronizzati, quando la posizione delle loro lancette è uguale, osservata dal punto di mezzo dell’intervallo spaziale che li separa. Anche qui, come nel caso dei regoli e dei corpi rigidi che uniscono corpi, queste regole di metrica valgono in linea di principio, come definizione rigorosa delle condizioni di una misurazione pratica esatta, e certo non vengono messi rigorosamente in atto nella pratica scientifica: in altri termini, sono gli elementi fondamentali della teoria della misurazione, non della misurazione vera e propria.
Ad ogni modo, posti così degli orologi sincronizzati a certe distanze fisse tra loro, quindi posti come in quiete entro un sistema di riferimento (che abbiamo visto equivalere fisicamente ad un corpo rigido, ossia a quel tipo di corpo per il quale la distanza tra due punti di esso non varia, quale che sia il suo moto), possiamo definire il concetto fisico di tempo, ossia quella t che così spesso compare nelle equazioni fisiche, come la lettura del valore indicato dalla lancetta dell’orologio che si trova nelle immediate vicinanze di un evento: così, possiamo essere certi, che ogni orologio sincronizzato entro quel sistema di riferimento segnerà lo stesso tempo, ossia abbiamo determinato precisamente il tempo t di un sistema di riferimento.
Entro un sistema di riferimento, dunque, siamo in linea di principio sempre in grado di determinare se due eventi sono simultanei o meno, misurandone il tempo con quel sistema di orologi sincronizzati dislocati nei punti ove avvengono questi due eventi. Però, argomenta Einstein, due eventi che sono simultanei entro un sistema di riferimento, non lo sono necessariamente entro un altro sistema di riferimento, foss’anche galileiano. La sua dimostrazione di questo punto è piuttosto aporetica, ma va citata brevemente: se due eventi in un sistema di riferimento avvengono contemporaneamente, in un sistema di riferimento galileiano in moto uniforme rispetto al primo avvengono in tempi diversi, poiché un osservatore posto al punto medio tra i due eventi vede prima il segnale luminoso proveniente dal punto verso cui il suo sistema di riferimento si muove e poi quello proveniente dall’altro punto. Dico che l’argomento è aporetico poiché, a rigori, anche nel secondo sistema di riferimento, se abbiamo orologi sincronizzati posti nei punti ove avvengono i due eventi, tali che il loro punto medio sia esattamente quell’osservatore, i due orologi segneranno la stessa ora per i due eventi che abbiamo immaginato simultanei nel primo sistema di riferimento: e ciò proprio in stretta dipendenza dal postulato che la propagazione della luce è indipendente dallo stato di moto del sistema di riferimento.
Come che sia, ciò che è decisivo notare, è che la determinazione del tempo viene qui posta in stretta dipendenza da quella dello spazio: non si fa più riferimento ad un continuum temporale accanto a quello spaziale e indipendente da esso, ma, poiché ogni propagazione di segnali ha una velocità limite, che è quella della luce, ogni misurazione del tempo sottostà a condizioni che derivano dalla distanza spaziale degli eventi e degli osservatori. Conseguentemente, sul piano metrico si può dire che un evento è certamente antecedente ad un altro solo se il segnale di luce che raggiunge un osservatore posto in prossimità del secondo evento precede questo evento. E analogamente, è successivo ad ogni altro evento, di cui l’osservatore nella sua prossimità ha notizia prima che esso accada. Il che vuol dire che nel frattempo non è più determinabile in maniera univoca la successione temporale e quindi i due eventi vanno considerati come potenzialmente simultanei: la sincronicità non è più istantanea, ma ha una certa durata finita, un intervallo di tempo definito dalla distanza tra i due eventi. Nel frattempo, dicevamo, ossia nel mentre un raggio di luce che parte dal primo evento non ha ancora raggiunto il luogo del secondo evento e viceversa. Non sfuggirà che questo “nel mentre” è ancora una determinazione temporale, che abbiamo però difficoltà a far rientrare nello stesso concetto di misurazione del tempo proposto dalla teoria della relatività ristretta. E ciò perché in questa teoria si fanno valere due concezioni del tempo, non una sola. Infatti, oltre al tempo relativo di ogni evento entro un sistema di riferimento galileiano, relativo perché può non coincidere al tempo dello stesso evento entro un altro sistema di riferimento, c’è il tempo assoluto, dato in ogni sistema di riferimento dalla costanza della velocità della luce. Il fatto che la luce si propaghi, in ogni sistema di riferimento galileiano, alla stessa velocità finita, circa 300.000 km al secondo, significa nient’altro che l’unità di tempo secondo è la stessa in ogni sistema di riferimento. Quindi c’è un’identica scansione del tempo per ogni sistema galileiano, solo che in funzione del moto reciproco tra due o più sistemi di questo tipo non è detto che la determinazione del tempo di un evento coincida in ognuno di essi, il che non deriva da un effettivo scorrere del tempo di un altro tipo in questi sistemi di riferimento, ma dalle condizioni della misurazione del tempo. Il che è ovvio se consideriamo che ognuno di questi sistemi può essere posto legittimamente come quello in quiete, rispetto al quale gli altri sono in movimento: da ciò il solo apparente paradosso, per il quale la misurazione di uno stesso intervallo di tempo in due sistemi di riferimento in moto reciproco è tale che in ognuno dei due sistemi risulterà maggiore che nell’altro. Ciò deriva dal fatto che, di volta in volta, le due misurazioni sono viste a partire dal sistema che è posto come in quiete, sistema per il quale, dunque, valgono le coordinate x, y, z, t, che si trasformano nelle coordinate x’, y’, z’ e t’ del secondo sistema di riferimento, coordinate che, come si vede facilmente dalle trasformazioni di Lorenz, ammettono valori per gli intervalli spaziali in x e temporali in t che sono sempre minori e tanto più, quanto più il secondo sistema è veloce rispetto al primo. Solo in due sistemi reciprocamente in quiete si avrebbero le stesse misurazioni. Quando non sia questo il caso, però, è del tutto arbitraria la decisione su quale sistema prendere come riferimento primario. E conseguentemente dobbiamo aspettarci che quale che sia la nostra scelta i valori che misureremo nel sistema posto in quiete risultino maggiori rispetto all’altro sistema, sapendo perfettamente che se avessimo scelto l’altro sistema si sarebbe verificata la stessa situazione. E tutto ciò, in base al semplice fatto, che il valore della velocità della luce non è infinito, ossia che per ogni misurazione di eventi lontani nello spazio e nel tempo bisogna 1) tener conto della velocità di propagazione finita dei segnali e 2) del fatto che questa velocità di propagazione è costante in ogni sistema galileiano di riferimento.
Einstein riassume così la questione:
«Il nostro problema può venir formulato con esattezza nel modo seguente. Quanto valgono le x’, y’, z’, e t’ di un evento rispetto a K’, quando sono date le grandezze x, y, z e t dello stesso evento rispetto a K? Le relazioni debbono essere scelte in modo che la legge di propagazione della luce nel vuoto risulti soddisfatta per un medesimo raggio di luce (e naturalmente per ogni raggio) sia rispetto a K che a K’». E in questo modo Einstein riesce a fare ciò che Lorenz non aveva fatto: ossia non solo indicare le equazioni giuste, ma a derivarle dai suoi due assiomi con pochi passaggi matematici, che qui ovviamente trascuriamo.
Ciò che è decisivo notare, dunque, non è il contenuto paradossale della teoria della relatività, ma tutt’al contrario: la possibilità che essa offre di interpretare metricamente le trasformazioni di Lorenz sfuggendo al paradosso di una realtà fisica che parrebbe comportarsi in pieno dispregio del principio del terzo escluso. Insomma, il contenuto paradossale delle trasformazioni di Lorenz, il fatto che esse paiono implicare una contrazione degli intervalli spaziali e temporali in funzione della velocità, è in qualche modo risolto tramite considerazioni sulle condizioni della misurazione, tali che non si debbano ipotizzare effetti fisici di tipo particolare e in linea di principio inosservabili, ma si possa al contempo accettare con la massima coerenza la validità del principio di relatività per ogni tipo di fenomeno fisico, quindi non solo per l’ambito di validità della meccanica, ma anche per quelli dell’elettrodinamica e dell’ottica. Scrive ancora Einstein:  «è ben chiaro a priori che, dalle equazioni dell’anzidetta trasformazione, dobbiamo essere in grado di apprendere qualcosa sul comportamento fisico dei regoli-campione e degli orologi; infatti le grandezze x, y, z e t non sono altro che i risultati di misurazioni ottenibili per mezzo di regoli-campione e di orologi».
Come vi preannunciavo, però, giunti a questo punto, ossia trovato il significato fisico delle trasformazioni di Lorenz grazie ai due postulati della relatività ristretta, è necessario trarre dal primo postulato tutte le conseguenze e non accontentarsi del fatto, che a velocità basse rispetto a quella della luce le trasformazioni di Lorenz si approssimano a quelle di Galilei. Rigorosamente, infatti, se da un lato le trasformazioni di Lorenz riuscivano a rendere le equazioni dell’elettrodinamica covarianti rispetto ad ogni sistema di riferimento inerziale, d’altro canto rendevano le equazioni del moto newtoniane non più invarianti: cambiando sistema di riferimento secondo le trasformazioni di Lorenz, per esempio, la seconda legge della dinamica F = mα non risultava più applicabile ad uno stesso evento.
Ovviamente non ci si poteva accontentare di due distinti sistemi di trasposizione, poiché le equazioni di Galileo o di Lorenz sul passaggio da un sistema di coordinate ad un altro non erano relative ad un ambito di validità particolare, le masse in interazione per la meccanica classica e i fenomeni elettrici, magnetici e ottici nella teoria di Maxwell, ma si riferivano a caratteristiche spaziali che dovevano essere intese in senso universale. Quindi, se anche per velocità molto basse rispetto a quelle della luce le trasformazioni di Lorenz finivano per essere equivalenti a quelle di Galilei ai fini del calcolo, dal punto di vista rigorosamente matematico e poi fisico erano differenti e non conciliabili: quindi sostituivano del tutto le precedenti, falsificandole.
A questo punto, l’esigenza di porre come postulato la covariabilità delle equazioni di Maxwell per sistemi di riferimento inerziali comportava la necessità di modificare le leggi della meccanica classica, affinché anch’esse rimanessero covariabili rispetto alle stesse trasformazioni. Naturalmente, andava salvaguardato il potenziale descrittivo della meccanica classica, per cui le sue equazioni dovevano essere modificate in maniera che le nuove le contenessero come approssimazione valida in tutti i casi in cui funzionano, ossia per velocità basse rispetto a quella della luce e per corpi di massa né troppo piccola, né troppo grande.
Scrive Einstein: “Ogni legge generale della natura deve essere costituita in modo da venire trasformata in una legge avente esattamente la stessa forma quando, in luogo delle variabili spazio-temporali x, y, z, t, dell’originario sistema di coordinate K, noi introduciamo nuove variabili spazio-temporali x’, y’, z’, e t’ di un sistema di coordinate K’, dove la relazione tra le grandezze ordinarie e quelle accentate è data dalla trasformazione di Lorenz. Questa è una condizione matematica ben precisa che la teoria della relatività prescrive a una legge naturale; in virtù di ciò, la teoria della relatività diventa un valido aiuto euristico nella ricerca delle leggi generali della natura”.
Su questa via si muove Einstein, nella sua riforma delle leggi del moto classico, una riforma che, nonostante la sua apparente novità radicale, è in realtà del tutto coerente con la linea di sviluppo della meccanica moderna, che porta alla luce nel modo più chiaro. Come vi dicevo sin dall’inizio, nei primi principi della dinamica di Newton è già possibile trovare il germe della dissoluzione del concetto di forza a favore di un concetto di corpo che è al tempo stesso concetto di spazio, moto ed energia. Einstein generalizza questa linea di tendenza, rinunciando alla distinzione netta tra massa ed energia, nella relatività ristretta, e poi tra corpo e spazio, nella relatività generale. Nella relatività ristretta, in particolare, egli sostituisce alla duplicità dei principi di conservazione dell’energia e della massa, l’unico principio di conservazione dell’energia-massa, che pone come grandezze convertibili l’una nell’altra. Questa conversione ha a che fare con il valore della costante universale, la velocità della luce nel vuoto, che è valore limite della velocità in generale, ossia non può essere oltrepassato, in entrambi i sensi: né i corpi che si muovono a velocità minore possono raggiungerla, né quelli che si muovono a velocità maggiore, i tachioni, ammesso che esistano, possono decelerare sino ad essa. L’introduzione di questo valore limite discreto della velocità, però, è tale da modificare in un punto essenziale ed in maniera radicale la concezione cinematica di tradizione galileiana e poi newtoniana. Come abbiamo ripetuto, ciò che la fisica moderna vuole spiegare non è il moto uniforme, compresa la quiete come sua possibilità, ma le modificazioni del moto, l’accelerazione. E ciò è legato al fatto, che il moto è compreso immediatamente come carattere proprio dei corpi, come ciò che persiste di per sé, in assenza di perturbazioni. Conseguentemente, la situazione di moto uniforme di un corpo sul quale si esercita una forza è indifferente, in meccanica classica, ai fini della determinazione dell’accelerazione impressa da quella forza: banalmente, per accelerare diciamo di un metro al secondo un corpo di massa m ci vuole una forza F, che è proporzionale solo alla massa di quel corpo, non alla sua velocità: che il corpo sia in quiete relativa o si muova ad una velocità qualunque, ci vorrà la stessa forza per ottenere la stessa accelerazione. E questo proprio in funzione delle trasformazioni di Galilei: io posso considerare sempre quel corpo a partire da un sistema di riferimento che eguagli il suo moto alla quiete, senza che per questo le equazioni del moto F = mα, perdano validità. Ebbene, ciò non vale più in relatività ristretta: si dimostra, infatti, che quanto maggiore è la velocità di un corpo, tanto maggiore sarà l’energia necessaria ad accelerarlo. E in prossimità della velocità della luce tale energia sarà prossima all’infinito: conseguentemente, non si può accelerare in maniera indefinita un corpo, coerentemente con l’assunto che la velocità della luce è un limite invalicabile. In termini newtoniani: la forza che bisogna imprimere ad un corpo per accelerarlo non dipende solo dalla sua massa, ma anche dalla sua velocità, il che può essere dedotto matematicamente con la semplice generalizzazione della seconda legge del moto in funzione delle trasformazioni di Lorenz. Questo, dal punto di vista fisico, può essere espresso anche dicendo che la massa di un corpo si modifica in funzione della sua velocità, aumenta all’aumentare di questa. La descrizione è del tutto complementare ed equivalente a quella per cui per portare un corpo alla velocità della luce c’è bisogno di un energia infinita: infatti, un corpo che fosse portato alla velocità della luce acquisirebbe anche una massa infinita. Il che è di nuovo una prova, che corpi dotati di massa non possono raggiungere la velocità della luce: conseguenza di ciò, è che i fotoni vanno concepiti come particelle che in quiete sono di massa nulla e in quanto tali non possono che muoversi, se non perturbati, alla velocità limite: la velocità della luce è il moto inerziale di corpi privi di massa (ma questo non vale più per la relatività generale). Queste considerazioni culminano nella famosa equazione: mc2 = E, ove E è l’energia totale del sistema. Conseguentemente Einstein potrà dire che “la massa inerziale di un sistema di corpi può perfino venir considerata come una misura dell’energia del sistema”, il che è del tutto in armonia con quanto notavamo circa la risoluzione potenziale della Hamiltoniana nelle posizioni reciproche entro un sistema delle masse, con i loro moti propri.

La teoria della relatività ristretta venne espressa molto presto tramite il formalismo geometrico-matematico di Minkowski, ossia come serie di equazioni sulle posizioni di punti-eventi in uno spazio quadridimensionale di tipo rigorosamente euclideo. La possibilità di fare ciò riposava sulla dipendenza per la misurazione del tempo dalla misurazione di spazi, quindi sul venir meno di una concezione del tempo assoluto come continuum separato da quello spaziale. In tal modo, era possibile considerare la t come una quarta dimensione, in uno spazio i cui punti non rappresentano posizioni di corpi, ma eventi. In tal modo, ogni serie di eventi è rappresentata da una traiettoria, e anche le leggi della natura sono esprimibili come certe traiettorie particolari: è così compiuto il progetto della meccanica, che vedeva nella traiettoria il principio della spiegazione fisica.
D’altro canto, però, il principio della relatività ristretta ha in sé una limitazione ben precisa: pretende di valere solo per i sistemi di riferimento in moto reciproco rettilineo uniforme. E questa limitazione, afferma Einstein, è insoddisfacente, se non se ne trova una ragione fisica precisa: in altri termini, perché i sistemi di riferimento galileiani sono privilegiati rispetto all’espressione delle leggi della meccanica? O anche: perché rispetto a sistemi non galileiani le leggi di natura non risultano valide? Perché dobbiamo accontentarci di leggi a validità condizionata dal tipo di sistema di riferimento?
Secondo Einstein non vi sono ragioni positive, relative a caratteri determinati della realtà, per questa limitazione: come quando aveva proposto la teoria della relatività ristretta, evitando di mettersi in cerca di effetti fisici particolari e osando generalizzare il principio di relatività a meccanica ed elettrodinamica, anche in questa occasione egli non cerca ipotesi fisiche che rendano ragione del dato di fatto che una legge valida in un sistema galileiano non lo è in un sistema accelerato, ma prova a generalizzare il principio di relatività a tutti i sistemi possibili di riferimento, quale che sia il loro stato di moto. “Una volta giustificata l’introduzione del principio ristretto di relatività, ogni spirito amante di generalizzazione sentirà la tentazione di azzardare il passo verso il principio generale di relatività”.
Questa citazione è molto significativa, non solo per il suo riferimento allo spirito amante di generalizzazione, ma anche perché ci spinge subito a chiederci, perché questo passo va azzardato, cosa lo rende così rischioso. Prima di giungere a ciò, però, voglio considerare ancora qualcosa circa la limitazione di principio della relatività ristretta: essa, come dicevamo, non ha ragioni fisiche, ma non è per questo priva di ragioni. Come ben vedremo nel proseguo, infatti, solo in sistemi di tipo galileiano è possibile esprimere le leggi di natura entro un formalismo geometrico di tipo euclideo. È quindi proprio in considerazione di quella metrica dei regoli e degli orologi, in considerazione del fatto, dunque, che la fisica moderna nasce sul saldo fondamento della geometria euclidea, che essa è portata a esprimere le sue leggi per quei sistemi che, definiti dal principio di inerzia, incarnano gli elementi fondamentali di quella geometria, il punto e la retta. Ma diciamo subito anche un’altra cosa: da questo punto di vista, la teoria della relatività generale, che adotta una geometria non euclidea, non rappresenta la scelta di una strada differente e contrapposta, ma solo più astratta e generale, come vedremo trattando più diffusamente delle geometrie non euclidee.
Ad ogni modo, il passo verso la relatività generale porterà ad una connessione tra gravitazione e geometria, che finirà per comportare la sostituzione della forza di gravità agente a distanza con la geometria variabile dello spazio. Potremo dire, per esempio, che la terra non si muove in ellissi perché attratta dal sole, ma perché questo è il suo moto inerziale in uno spazio curvo, non euclideo. Per capire il senso di questa affermazione, e le sue limitazioni, però, dobbiamo seguire un certo percorso.
Partiamo dal secchio di Newton, il famoso esperimento mentale con il quale egli intendeva dimostrare l’esistenza di uno spazio assoluto, di un etere in quiete che vale come sistema di riferimento universale per i moti dei corpi.
Immaginiamo un secchio pieno d’acqua appeso ad un filo, che ruota su un asse coincidente col filo. All’inizio della rotazione, quando il movimento rotatorio non si è ancora comunicato all’acqua, la superficie di questa rimarrà piana. Quando comincerà a ruotare anch’essa, vinta la sua forza di inerzia, la superficie assumerà una forma concava per via della forza centrifuga, che schiaccia l’acqua sui bordi del secchio. A questo punto, il secchio viene fermato, mentre l’acqua continua a ruotare ancora un po’ e la sua superficie rimane quindi concava. Ora, Newton nota che sia quando ruota il secchio e l’acqua è ancora ferma, che quando ruota l’acqua mentre il secchio è fermato, abbiamo un moto rotatorio dell’uno nei confronti dell’altro dal punto di vista meccanico indiscernibile, date le trasformazioni di Galilei. Ma se vi è lo stesso moto relativo tra acqua e secchio, come si spiega che nel primo caso la superficie dell’acqua è piana e nel secondo concava? Secondo Newton ciò si può spiegare fisicamente, solo assumendo come sistema di riferimento non l’acqua o il secchio, ma lo spazio assoluto, rispetto al quale nel primo caso si avrebbe l’acqua in quiete, nel secondo l’acqua in movimento e quindi non si darebbe un’equivalenza dinamica dei due stati e sarebbe spiegata la differenza della forma della superficie.
L’argomento fu criticato molto presto, per esempio da Berkeley: egli notò che il moto del secchio non può essere considerato circolare rispetto allo spazio assoluto, se è vero che il secchio è posto sulla terra e quindi partecipa di tutti i suoi moti di rotazione e rivoluzione. Ma soprattutto egli ribadì che, anche ammessa l’esistenza di uno spazio assoluto, non è comunque possibile definire un movimento in assoluto, poiché esso è tale sempre in relazione ad un altro corpo. Infatti, immaginando uno spazio assoluto in cui vi è un solo corpo, il suo moto non sarebbe definibile attraverso nessun sistema di coordinate, per il semplice fatto che la posizione di questo corpo sarebbe l’unica origine possibile degli assi delle coordinate e quindi il corpo resterebbe sempre immobile rispetto a se stesso.
Questa tesi fu ulteriormente sviluppata da Mach, che la amplierà fino ad assumere che tutte le caratteristiche fisiche del moto dei corpi sono date dalla loro compresenza nello spazio e da nient’altro. La stessa inerzia, per esempio, dipende dall’esistenza di tutte le masse dell’universo. Mach, però, arrivava a questa conclusione a partire da assunti di carattere gnoseologico ed epistemologico, mentre Einstein volle darle un contenuto fisico, specificandola nel senso della dipendenza delle caratteristiche dello spazio dalla materia che lo abita e costituisce. Abita e costituisce: in realtà non c’è un primum. Non si dà una certa quantità di energia-materia che si apre uno spazio, né vi è uno spazio anteriore ai moti dei corpi in esso: la relazione è di piena interdipendenza: non vi è uno spazio, se non vi è una molteplicità di corpi, ma non vi è moto dei corpi se non entro uno spazio. Al culmine della teoria della relatività generale, si potrà specificare questa interrelazione con la seguente affermazione: è lo spazio che dice alla materia come muoversi, ma è la materia che dice allo spazio come curvarsi.
Per comprendere questa asserzione, però, dobbiamo seguire lo sviluppo di questa teoria. L’osservazione fondamentale, che indirizza la teoria della relatività generale, è relativa a quel fenomeno la cui descrizione galileiana può essere considerata l’atto di nascita della fisica moderna: la costanza dell’accelerazione di gravità nella caduta dei corpi, a prescindere dalla loro massa. Ricordate la storia della torre di Pisa: tutti i corpi, indipendentemente dalla loro massa, cadono con la stessa accelerazione. Da ciò non Galilei, ma Newton aveva dedotto che le forze di gravità sono proporzionali alle masse su cui agiscono, che è poi la legge della forza di gravità. Una deduzione che a noi pare oramai del tutto naturale, poiché siamo abituati a pensare a partire dai concetti costitutivi della meccanica classica, ma che in sé è effettivamente singolare, dal momento che deduce la dipendenza della forza, ossia del principio di causalità, dalla massa a partire da un fenomeno in cui la massa non è un parametro significativo, poiché corpi di massa arbitraria si comportano allo stesso modo, cadono con la stessa accelerazione.
È facile, però, rendersi conto che questa deduzione deriva necessariamente dalla trasformazione newtoniana del principio galileiano di inerzia:
Ogni corpo permane nel suo stato di quiete o di moto rettilineo uniforme
E Newton aggiunge: a meno che non sia costretto a mutare tale stato da forze impresse.
Questa aggiunta è importante, perché insieme alla seconda legge della meccanica, che definisce la forza come prodotto di massa e accelerazione, determina quella legge della gravità. Infatti, dire che la forza è il prodotto di massa e accelerazione significa nient’altro che specificare che quanto maggiore è la massa, tanto maggiore è l’inerzia di un corpo, come resistenza a mutare il proprio movimento. Conseguentemente, se corpi di massa diversa cadono con la stessa accelerazione, le forze che impresse determinano questa accelerazione devono essere diverse, forze più grandi per masse più grandi e viceversa, secondo una relazione matematica precisa.
L’argomento è abbastanza chiaro, ma dobbiamo sottolineare di nuovo, che nella forma newtoniana c’è qualcosa di nuovo e di molto diverso dalla tesi di Galilei. Stilmann Drake, biografo di Galilei, esemplifica questa trasformazione riportando uno scolio di Newton al principio di inerzia di Galilei e purificandolo dalle aggiunte newtoniane:

Quando un corpo cade,                                                                     la forza uniforme del-
la sua gravità, agendo egualmente,                                                   imprime
in eguali intervalli di tempo                                                              forze eguali
su quel corpo,                                                                                    e perciò
produce eguali velocità;                                                                   
e nel tempo totale                                                                              imprime una forza totale e
genera una velocità totale proporzionale al tempo.

Ciò che compare alla destra è risultato del concetto newtoniano di forza ed è superfluo per la cinematica di Galilei, ove questo concetto non gioca alcun ruolo. In altri termini, se per Newton vanno immaginate cause esterne del movimento, le forze che si imprimono sui corpi, in Galilei tutto è implicito nel moto del corpo. Certo, la teoria di Newton rappresenta un progresso, rispetto a quella galileiana, poiché è in grado di generalizzare le considerazioni sulla caduta dei gravi ricomprendendo come espressione della stessa legalità anche i fenomeni celesti. A tal fine, però, egli aveva rinunciato all’unità dei fenomeni, scindendo la massa e la forza. Un’unità di massa e forza che nonostante tutto traspare, come notavamo qualche lezione fa: in effetti, proprio la legge della proporzionalità della forza alla massa, dimostra come vi sia di fatto un’equivalenza tra la massa inerziale di un corpo e la sua massa gravitazionale, poiché è esattamente in maniera proporzionale all’entità della sua massa inerziale, che esprime quella che chiamavamo la sua resistenza a mutare movimento, che un corpo ha una certa gravità determinata se posto in un campo gravitazionale stabile.
Insomma, l’inerzia non è distinguibile da una certa misura di forza, se si vuole ammettere che valga la pena utilizzare questo concetto di forza: si può anzi dire, che è l’inerzia la fonte prima di ogni forza, considerando che il campo gravitazionale esiste proprio in relazione alla massa inerziale dei corpi che lo costituiscono. Nel sistema terra-luna, per esempio, è improprio dire che la terra attrae la luna e viceversa, dovendosi piuttosto dire semplicemente che le masse inerziali dei due corpi costituiscono un campo gravitazionale proporzionale alla loro entità, campo che poi determina le masse gravitazionali di ognuno dei due ancora in maniera proporzionale alla massa inerziale dei medesimi.
Insomma, anche nei termini della meccanica classica, massa inerziale e gravitazionale coincidono e non vi sono forze esterne, se non per astrazione. Se le cose stanno così, però, deve essere possibile descrivere certi campi gravitazionali come sistemi inerziali, adottando un adeguato sistema di riferimento.
Einstein, però, sviluppa enormemente tutto ciò, a partire dalla considerazione che non solo le forze gravitazionali sono proporzionali alle masse dei corpi su cui agiscono, ma anche quelle che vengono dette in senso stretto forze d’inerzia, che sono precisamente le forze che agiscono in sistemi di riferimento non inerziali.
Ricordiamo che le trasformazioni di Galilei, così come quelle di Lorenz, valgono solo per sistemi di riferimento inerziali, ossia tali da essere l’uno rispetto all’altro in una situazione relativa di moto rettilineo uniforme. E che il significato della teoria della relatività ristretta era stato quello di allargare il principio di covarianza rispetto a questi sistemi inerziali anche per le equazioni dell’elettrodinamica. È dunque una prima generalizzazione: date certe equazioni di trasformazione tutte le leggi della dinamica e dell’elettrodinamica risultano covarianti in sistemi di riferimento inerziali. Ebbene, il senso proprio della teoria della relatività generale, come abbiamo detto, è l’ulteriore generalizzazione: le leggi della fisica devono essere covarianti rispetto a qualsiasi sistema di riferimento, anche a quelli non inerziali. E la chiave di volta, per raggiungere quest’ulteriore livello di universalità è proprio la considerazione che menzionavamo prima: le forze di inerzia sono proporzionali alle masse dei corpi su cui agiscono, proprio come lo sono le forze gravitazionali. E data la sostanziale equivalenza tra massa inerziale e massa gravitazionale, si può cercare di ridurre anche le forze gravitazionali a quelle di inerzia. Dovesse riuscire ciò, si avrebbe al contempo un principio di equivalenza tra sistemi inerziali, ove vigono le forze gravitazionali, e sistemi non inerziali, ove vigono le forze di inerzia: si sarebbe quindi compiuta quella generalizzazione.

La teoria della relatività generale sviluppa gli strumenti concettuali e matematici deducibili dal postulato, che le forze gravitazionali siano equivalenti a quelle di inerzia.
Una precisazione: di solito, questo movimento logico viene presentato come una scoperta: come se la semplice constatazione che sia le forze di inerzia che quelle gravitazionali sono entrambe proporzionali alle masse fosse sufficiente ad inferire il principio che le pone come indiscernibili. Ovviamente non è affatto così: si può dare credito ad una lettura di questo tipo solo ponendo fiducia nella logica induttiva della scienza, una logica che – a prescindere dalla sua insostenibilità epistemologica – anche storicamente ha pochissimo peso nei grandi mutamenti della scienza, il che vale in maniera particolare proprio per Einstein, che lavorava sempre sulla base di intuizioni generali, che poneva come assiomi. Comunque, che non si possa parlare di induzione in questo caso è evidente, se consideriamo che si sapeva già da moltissimo tempo, che la forza centrifuga, per fare un esempio di forza di inerzia, è proporzionale alle masse, al pari dell’attrazione reciproca dei corpi del sistema solare. Così come si era già notata l’equivalenza di massa inerziale e massa gravitazionale, che è già più difficile da vedere. Eppure porre come indiscernibili in linea di principio la forza centrifuga e la gravitazione non era saltato in mente a nessuno, per il semplice fatto che non è un’asserzione derivabile da quelle due premesse. In generale, non è un’asserzione derivabile, può essere posta solo come postulato, proprio alla maniera euclidea: un giudizio, di cui si richiede l’ammissione non in vista dei suoi antecedenti logici, ma di ciò che ne deriva. E da quel giudizio deriva la possibilità straordinaria di esprimere in maniera covariante le leggi di ogni fenomeno senza dover assumere sistemi privilegiati di riferimento, ossia sistemi inerziali. Ovviamente, solo se si riesce a descrivere effettivamente come identiche le forze gravitazionali e quelle di inerzia, il che non è per niente semplice.
Per questo dicevo che la teoria della relatività generale sviluppa gli strumenti concettuali e matematici deducibili dal postulato, che le forze gravitazionali siano equivalenti a quelle di inerzia. Deducibili, ma anche richiesti da quel postulato, affinché esso possa essere effettivamente posto a base di una nuova fisica.
Ma cerchiamo di chiarire meglio con un esempio, un altro dei famosi esperimenti mentali di Einstein:
Poniamo un osservatore che si trovi in un sistema chiuso entro uno spazio non soggetto a forze gravitazionali, diciamo in un’astronave in moto inerziale nello spazio, lontano da pianeti ed altre masse che potrebbero esercitare una forza su di essa. Sappiamo che in tal caso in questo sistema non vi sarà gravità, quindi non vi sarà alto e basso ed ogni corpo conserverà il suo moto uniforme. Se si accelera questo sistema, però, subentreranno forze di inerzia e tutti i corpi, compreso l’osservatore, saranno pesanti, ossia tenderanno a cadere sulla parete opposta alla direzione del movimento. Ipotizziamo che l’osservatore interno compia l’esperimento galileiano della torre di Pisa, ossia lasci cadere contemporaneamente due corpi di massa differente posti alla stessa distanza dal pavimento: egli constaterà che lo raggiungono contemporaneamente e quindi dirà che sono caduti con la stessa accelerazione. Poniamo ora un altro osservatore, che vede l’intera evoluzione di quel sistema dall’esterno: egli non vedrà due corpi che accelerano alla stessa maniera, ma semplicemente il pavimento dell’astronave che si sposta con una certa accelerazione verso quei corpi posti alla stessa distanza da esso, colpendoli, quindi, nello stesso momento. Per l’osservatore interno, insomma, è come se agissero forze gravitazionali, per quello esterno sono evidenti solo forze di inerzia.
Chi ha ragione? Entrambi e nessuno dei due: perché ciò che essi osservano è relativo al modo in cui l’osservano. Il che è certo necessario. Ma il tentativo della teoria della relatività generale è quello di trovare un modo di descrivere i fenomeni, che risulti invariante qualsiasi sia il sistema di riferimento che si usa. Badate bene: non che sia indipendente da un sistema di riferimento, al quale bisogna sempre rimandare, ma che sia equivalente per ogni possibile sistema di riferimento.

Dunque, finché uno stesso fenomeno può essere descritto sia come effetto di forze gravitazionali, che di forze inerziali, qualcosa nella sua descrizione è ancora di natura particolare, dipendente troppo univocamente dalle particolari condizioni di osservazione. Ciò che quindi bisogna cercare di fare, è trovare un modo della descrizione che in ogni situazione particolare data possa riferirsi allo stesso modo al fenomeno: possa quindi idealmente evidenziare ciò che gli appartiene indipendentemente dalla situazione particolare dell’osservazione.
È dunque evidente che questo modo della descrizione nella teoria della relatività generale non può essere né quello delle forze gravitazionali, né quello delle forze di inerzia, entrambi sempre reinterpretabili l’uno nell’altro e quindi parziali.
Ora, il tipo di soluzione proposto da Einstein a questo problema fondamentale: trovare una descrizione che pur sempre compiuta entro un sistema di riferimento fosse tale da non dipendere minimamente dalle condizioni particolari di questo sistema, si basa ancora su considerazioni non strettamente fisiche, ma potremmo dire metronomiche. Così come per la formulazione della teoria della relatività ristretta aveva preso le mosse dalla ridefinizione dei concetti fondamentali della misurazione, aveva dunque lavorato sulla forma oggettivante della teoria, allo stesso modo per la formulazione della teoria della relatività generale prese le mosse da una ridefinizione della metrica di spazio, tempo e corpi.
Importante: Einstein non fece affatto asserzioni sullo spazio in quanto ente fisico in sé, come aveva in fondo cercato di fare Newton. Egli anzi aveva chiaramente asserito che il principio generale della relatività toglieva allo spazio “l’ultimo residuo di oggettività fisica”.
Ciò verso cui si volse, non era la determinazione delle caratteristiche dello spazio assoluto, concetto che anzi fu completamente dissolto dalla relatività, ma la definizione di principi tali da consentire sempre la riduzione dei moti dei corpi alla forma del continuum spaziotemporale entro cui si trovano e che, da parte loro, costituiscono. Non c’è un primum, dal punto di vista fisico: spazio, tempo e corpi sono elementi cooriginari della descrizione, definibili solo l’uno mediante gli altri, reciprocamente. Spazio, tempo e corpi: come vedete, cade ogni riferimento alle forze. Nella relatività generale ci sono solo un sistema di coordinate, che comprende sia lo spazio che il tempo, e i corpi: questi si muovono sempre per inerzia (che non è affatto la stessa cosa che dire “a causa delle forze di inerzia”), non vi è alcuna forza che perturbi il loro moto. Ma la loro presenza e le loro posizioni e moti reciproci configurano la geometria dello spazio-tempo e questo basta, in linea di principio, a rendere conto di tutti i moti che non corrispondono al moto ideale rettilineo uniforme. In altri termini, il moto inerziale smette di essere solo quello rettilineo uniforme, se la geometria di riferimento non è più quella euclidea.
Solitamente si dice: la materia non genera campi gravitazionali, ma provoca una curvatura dello spazio. Questa descrizione, però, per quanto può essere utile intuitivamente, è troppo semplicistica, soprattutto perché presuppone un rapporto di causa ed effetto tra enti logici differenti: la materia, come sostanza fisica, non può essere causa rispetto allo spazio, che è la forma della descrizione dell’esteso.
L’argomento di Einstein è più mediato: egli parte dalla constatazione che certi sistemi gravitazionali sono descrivibili come identici a sistemi inerziali. A partire da ciò può derivare in maniera puramente teorica le leggi dei campi gravitazionali a partire dalla relatività, ossia dall’assunto che le leggi devono essere le stesse, anche se espresse in sistemi differenti di riferimento. Si potrà quindi dire, che l’effetto di un campo gravitazionale sul moto di un corpo corrisponde alla descrizione di quel corpo a partire da un certo sistema di riferimento non soggetto a campi gravitazionali, ma dotato di un certo moto accelerato.
Rispetto ai campi gravitazionali che ci sono noti dalla meccanica classica, questo tipo di considerazione non aggiunge molto, se non certe conseguenze relativamente al perielio di Mercurio, che trovano conferma empirica. Ma rispetto al moto della luce, questa impostazione è davvero molto nuova: dimostra, infatti, che la luce è soggetta ai campi gravitazionali, il che comporta anche che la sua velocità nel vuoto non è sempre c, ma varia a seconda dei corpi presenti in prossimità dei raggi.
Ora, ci rendiamo subito conto, che se viene meno la costante della propagazione della luce, sia come velocità che come direzione, se la luce non viaggia più necessariamente in linea retta e a velocità definita, tutto l’apparato metrico della relatività ristretta, che si fondava su di ciò, viene meno. E con essa viene meno la possibilità di una descrizione dei fenomeni fisici entro uno spazio rigorosamente euclideo. Ma affinché non venga meno la possibilità della descrizione fisica in generale, ossia affinché la teoria della relatività generale rimanga una teoria fisica, essa si deve dotare di un sistema geometrico della misurazione che le permetta comunque la determinazione univoca di ogni evento entro un continuum spaziotemporale.
A tal fine, Einstein adotta il metodo analitico e geometrico di Gauss, che non è nient’altro che la traduzione in termini formali del quinto postulato di Euclide. In Euclide si afferma che due rette parallele sono tali, da non incontrarsi mai. E Gauss definisce il suo sistema di coordinate a partire da insiemi di curve pari al numero di dimensioni dello spazio considerato, tali che per ogni insieme le curve non si intersechino l’una con l’altra e che per ogni punto passi una sola curva. È evidente, che ciò consente di associare ad ogni punto di uno spazio un numero di coordinate pari alle dimensioni di quello spazio, coordinate che descrivono completamente la sua posizione e solo la sua posizione.
Questa geometria, che conserva le capacità di descrizione della posizione di eventi nello spazio-tempo nonostante l’impossibilità di usare metri unitari costanti anche entro un unico sistema di riferimento a causa delle caratteristiche mutevoli dello spazio e del tempo in dipendenza delle masse, è quindi il presupposto per l’enunciazione più corretta del principio di relatività generale: “Tutti i sistemi di coordinate gaussiane sono di principio equivalenti per la formulazione delle leggi generali della natura”.
Tralasciamo di approfondire i dettagli matematici di questa metrica e mostriamo subito ciò che essa consente: disponendo di un mezzo, in grado di descrivere rigorosamente eventi fisici anche in situazioni di moto accelerato, si può fare subito un uso euristico anche del principio di relatività generale, un uso euristico, che consente la piena realizzazione del progetto della meccanica galileiana: definire la legalità degli enti di natura a partire dai soli presupposti impliciti nel principio di inerzia.
Questo, secondo l’affermazione di Einstein, è possibile “senza alcuna arbitrarietà, prendendo in considerazione i seguenti requisiti:

  1. la generalizzazione richiesta deve in ogni caso soddisfare il postulato generale della relatività;
  2. se nel dominio considerato è presente una materia qualsiasi, allora, in vista della sua azione eccitatrice di campo, ha importanza soltanto la sua massa inerziale e quindi soltanto la sua energia;
  3. il campo gravitazionale e la materia, insieme considerati, debbono soddisfare il principio di conservazione dell’energia (e della quantità di moto)”.

Quali siano le deduzioni particolari della teoria della relatività generale non importa a questo punto specificare, poiché già abbiamo messo sufficientemente in luce il suo carattere fondamentale: trovare, a partire dall’assunto dell’unità della natura, leggi universali, che valgano a prescindere dai sistemi di riferimento entro i quali sono espresse, quindi dotate della massima oggettività, leggi deterministiche e reversibili che si riducono alle conseguenze del principio di inerzia e del principio di conservazione.

 

Fonte: https://www.docenti.unina.it/downloadPub.do?tipoFile=md&id=80099

Sito web da visitare: https://www.docenti.unina.it/

Autore del testo: Russo N.

Il testo è di proprietà dei rispettivi autori che ringraziamo per l'opportunità che ci danno di far conoscere gratuitamente i loro testi per finalità illustrative e didattiche. Se siete gli autori del testo e siete interessati a richiedere la rimozione del testo o l'inserimento di altre informazioni inviateci un e-mail dopo le opportune verifiche soddisferemo la vostra richiesta nel più breve tempo possibile.

 

Filosofia della scienza

 

 

I riassunti , gli appunti i testi contenuti nel nostro sito sono messi a disposizione gratuitamente con finalità illustrative didattiche, scientifiche, a carattere sociale, civile e culturale a tutti i possibili interessati secondo il concetto del fair use e con l' obiettivo del rispetto della direttiva europea 2001/29/CE e dell' art. 70 della legge 633/1941 sul diritto d'autore

Le informazioni di medicina e salute contenute nel sito sono di natura generale ed a scopo puramente divulgativo e per questo motivo non possono sostituire in alcun caso il consiglio di un medico (ovvero un soggetto abilitato legalmente alla professione).

 

Filosofia della scienza

 

"Ciò che sappiamo è una goccia, ciò che ignoriamo un oceano!" Isaac Newton. Essendo impossibile tenere a mente l'enorme quantità di informazioni, l'importante è sapere dove ritrovare l'informazione quando questa serve. U. Eco

www.riassuntini.com dove ritrovare l'informazione quando questa serve

 

Argomenti

Termini d' uso, cookies e privacy

Contatti

Cerca nel sito

 

 

Filosofia della scienza