Karl Raimund Popper Il falsificazionismo

Karl Raimund Popper Il falsificazionismo

 

 

 

I riassunti , gli appunti i testi contenuti nel nostro sito sono messi a disposizione gratuitamente con finalità illustrative didattiche, scientifiche, a carattere sociale, civile e culturale a tutti i possibili interessati secondo il concetto del fair use e con l' obiettivo del rispetto della direttiva europea 2001/29/CE e dell' art. 70 della legge 633/1941 sul diritto d'autore

 

 

Le informazioni di medicina e salute contenute nel sito sono di natura generale ed a scopo puramente divulgativo e per questo motivo non possono sostituire in alcun caso il consiglio di un medico (ovvero un soggetto abilitato legalmente alla professione).

 

 

 

 

Karl Raimund Popper Il falsificazionismo

 

Filosofia della scienza
I modulo, A.A. 2003-2004

Il falsificazionismo di Karl R. Popper

Che cos’è la filosofia della scienza? Ossia che cos’è stata nella sua storia e che cosa è nel suo concetto? La domanda circa l’essenza di una disciplina è qui posta in due modi connessi: quello storico e quello concettuale. Questo tipo di impostazione è detta genealogica: vuole essere la chiarificazione di un fenomeno culturale o morale a partire dalle sue origini, dai presupposti che l’hanno reso possibile, dalle sue condizioni di possibilità genetiche e logiche.
Come disciplina a se stante, la filosofia della scienza non può nascere che dopo la consumazione della separazione tra la filosofia e le scienze, quindi solo dopo la nascita della scienza moderna durante il rinascimento. E già questo è molto significativo, poiché ci consente di inquadrare lo sviluppo concettuale della filosofia della scienza, e quindi anche l’opera di Popper, all’interno di una tradizione di pensiero determinata e centrale per la modernità, quella che rimanda a Francis Bacon e Cartesio. L’opera principale di Bacone, il Novum organum, è precisamente la proposta di una rifondazione della cultura nel suo complesso sulla base del nuovo e potente metodo scientifico. E qualcosa di analogo era anche quel che voleva Cartesio: si vedano, per esempio, le prime pagine del suo trattato Sull’uomo.
Di fatto, però, nonostante questi grandi precursori, le prime espressioni consapevoli e compiute di una filosofia della scienza sono molto più tarde, a partire dalla fine del settecento. Molti autori considerano le opere mature e tarde di Kant l’atto di nascita della filosofia della scienza e certamente già la problematica della Critica della ragion pura può essere considerata largamente congruente con questo ambito problematico. Kant si interroga nella sua opera capitale sulle condizioni di possibilità dei giudizi sintetici a priori, rinvenendole nell’apparato categoriale dell’intelletto e nei trascendentali spazio e tempo. In questo modo, Kant confutava la possibilità di una metafisica come scienza, ma al tempo stesso fondava la legittimità delle teorie scientifiche universali negli apriori dell’esperienza.
Il pensiero di Kant è stato poi di fatto determinante per tutto un filone della filosofia della scienza, dal quale dipendono, per esempio, l’empiriocriticismo di Avenarius e Mach, ma parzialmente anche il neopositivismo. Questa importanza di Kant dipende dal fatto che nella sua opera sono stati affrontati insieme, in maniera coordinata, quelli che Popper riteneva i due problemi fondamentali dell’epistemologia: ossia il problema dell’induzione e quello della demarcazione.
1) La prima questione è relativa allo status ed alla validità dell’induzione, ossia di una forma di inferenza, di derivazione logica: un’inferenza è induttiva quando procede da asserzioni singolari (come i resoconti dei risultati di osservazioni o di esperimenti) ad asserzioni universali (quali ipotesi o teorie). Come vediamo, il rapporto logico è tra due entità linguistiche e non direttamente tra il fenomeno e la teoria, ossia per induzione non intendiamo più oggi la teoria ingenua dell’empirismo di una derivazione diretta della legge naturale dall’esperienza, ma di una serie di asserzioni generali a partire da asserzioni singolari, che a loro volta derivano dall’esperienza secondo procedimenti più o meno rigorosi (e riguardo al rigore di questa derivazione, il neopositivismo è certamente stato la scuola più austera). Anche raffinata in questo modo, però, la teoria dell’induzione, ossia la pretesa che la logica della scoperta scientifica sarebbe una logica induttiva, è problematica e probabilmente insostenibile. Il motivo più elementare è che da qualsivoglia numero di affermazioni singolari non si può mai dedurre rigorosamente un’affermazione universale, ma tutt’al più un’affermazione particolare. Per esempio: dall’osservazione reiterata di un cigno bianco non possiamo dedurre la legge che i cigni sono bianchi. Ma se osserviamo tutti i cigni di un dato lago e constatiamo che sono bianchi, allora possiamo dire appunto che tutti i cigni di quel dato lago sono bianchi, che è un’asserzione individuale; o possiamo dire che molti cigni sono bianchi, che è un’asserzione particolare. Diverso è il caso in cui noi usiamo l’asserzione singolare non per verificare, bensì per falsificare un’asserzione universale: metodo che è esattamente quello proposto da Popper con il suo falsificazionismo. Ossia: dall’osservazione di un cigno nero, noi possiamo stabilire la falsità della legge che tutti i cigni sono bianchi.
2) La seconda questione è relativa al problema della demarcazione, ossia al criterio della distinzione tra scienza e non scienza (soprattutto tra scienza e metafisica). Demarcazione che a Kant riesce molto bene, proprio mostrando che sapere scientifico si dà solo dei fenomeni e che dunque la metafisica, che si volge ai noumeni, non può vantare alcuna scientificità. Ma anche riguardo a questo problema la filosofia della scienza, durante il suo sviluppo, ha espresso molteplici posizioni contrastanti, che qui ovviamente non possiamo riassumere.

Parliamo di questi due temi come i problemi fondamentali dell’epistemologia e lo facciamo per sottolineare che l’epistemologia non è l’intera filosofia della scienza (anche se non sono mancate storicamente posizioni che hanno sostenuto questa equazione, come il neopositivismo). L’epistemologia, infatti, occupandosi in sostanza dei problemi derivanti dalla tradizione gnoseologica, interrogandosi intorno ai fondamenti, la natura, i limiti e le condizioni di validità del sapere scientifico, è solo una branca della filosofia della scienza. Popper diceva epistemologia la dottrina della ricerca scientifica, ossia la teoria del metodo scientifico. Conformemente a ciò, è ovvio che l’epistemologia deve sempre preliminarmente trovare un criterio per distinguere tra ciò che a buon diritto può essere chiamato metodo scientifico e ciò che non lo è; e inoltre deve affrontare la questione di come sia possibile trarre teorie generali dall’esperienza della natura.
Le scienze, però, non sono esaminabili esclusivamente sotto il riguardo del loro apparato metodologico e dei problemi gnoseologici che vi sono connessi, ma anche nella loro struttura teorica, logico-concettuale e matematica. Esiste dunque una filosofia della scienza che si occupa esattamente del chiarimento delle nozioni strutturali del pensiero scientifico, dei suoi concetti fondamentali (ipotesi o teoria scientifica, legge, spiegazione e così via). Inoltre, appartiene alla filosofia della scienza l’analisi del linguaggio teorico, nelle sue relazioni con i linguaggi naturali e matematici. In quest’ambito è possibile un’indagine sulla natura dell’esperimento scientifico, che non si riduca a prendere in considerazione i problemi di origine gnoseologica, ossia non si limiti a stimare la validità e il rigore del metodo sperimentale, bensì consideri nel suo complesso le relazioni tra teoria ed esperimento, le implicazioni del metodo strumentale sulla natura della verità scientifica acquisibile per il suo tramite e, in ultimo, anche le relazioni tra scienza sperimentale e tecnica.
Inoltre, le scienze sono considerabili in relazione ai propri risultati, al sapere scientifico che producono. Rispetto a ciò, la filosofia della scienza è lo studio dello statuto della verità scientifica, se essa sia conoscenza della natura, o mero strumento mentale per ordinarne i fenomeni (si pensi alla dicotomia spiegare o comprendere); se in entrambi i casi detenga una qualche oggettività, o non sia piuttosto condizionata storicamente e così via.
E ancora: è possibile considerare le scienze nella loro molteplicità, con l’intento di classificarle e stabilirne le specificità. In quest’ambito si parla delle differenze tra scienze formali ed empiriche. E nell’ambito di queste ultime, tra scienze della natura e scienze dello spirito, problema quest’ultimo centrale per tutto il neokantismo e lo storicismo tedeschi. Nell’ambito delle scienze della natura, possiamo mettere tra parentesi le scienze descrittive, come la tassonomia, o indagare sulla maggiore o minore permeabilità dei loro metodi: un argomento caratteristico di quest’ultimo punto è per esempio la chiarificazione dei motivi per i quali la fisica ha finito per rappresentare la scienza modello dal punto di vista metodologico, come è confermato dal fatto che l’epistemologia si è limitata quasi esclusivamente al suo studio. O, ancora, si può indagare sul processo di riduzione delle discipline, qualora una branca scientifica tenda a venir assorbita da un’altra: come è il caso della chimica nella fisica.
Ma non è tutto: è compito legittimo, per quanto non esclusivo, della filosofia della scienza, anche studiare i rapporti tra le scienze e le altre espressioni culturali (arte, religione, politica, morale, la stessa filosofia) o socio-economiche. In questo ambito rientrano anche i problemi relativi alla responsabilità della ricerca scientifica, allo statuto dello scienziato ed ai limiti che considerazioni di carattere etico (soprattutto bioetico) possono imporre alla libertà della ricerca.
Come vedete, siamo di fronte ad una gamma molto vasta di questioni, rispetto alle quali non è sempre semplice individuare una figura unitaria per questa disciplina, se non considerandola l’ambito molto generale del pensiero filosofico che si confronta con la scienza nelle sue diverse dimensioni ed espressioni. In realtà, però, non è tanto importante che la filosofia della scienza si dia un’apparenza di univocità come disciplina definita, nella misura in cui il suo riferimento alla scienza come fenomeno riccamente articolato, ma comunque unitario, le assicura un ancoraggio più che sufficiente. Va anzi conservato, anche nello studio di temi specifici e, in buona parte, strettamente epistemologici, un atteggiamento aperto all’ampiezza disciplinare che abbiamo appena delineato, senza rinchiudersi in una specializzazione troppo settoriale, che ci renderebbe incapaci di comprendere il senso più complessivo delle ricerche che compiamo. Affermo questo nella convinzione che la filosofia non sia mai specializzabile, per quanto specifici possano essere i suoi interessi: poiché sua caratteristica è proprio la capacità di contestualizzare ogni specificità all’interno di un quadro unitario e complessivo. La filosofia della scienza esiste non per il gusto di discettare sulle sottigliezze metodologiche della scienza: la filosofia della scienza esiste perché la scienza è momento storico-culturale centrale dell’esperienza moderna, che interessa profondamente i più vari aspetti della contemporaneità ed è profondamente radicato anche nella quotidianità.
Rispetto a queste considerazioni, proprio l’opera di Popper è esemplare, nella misura in cui il suo interesse originariamente preminente per le questioni epistemologiche non gli ha impedito di affrontare anche tutte le altre tematiche elencate. E ciò avviene addirittura già ne La logica della ricerca scientifica, che, pur sembrando tutta concepita nei canoni rigorosi e restrittivi del circolo di Vienna, mostra invero la capacità di contestualizzare la ricerca epistemologica entro un discorso complessivo sulla scienza e la sua tradizione molto importante e ben condotto. In effetti, già nella prima Prefazione all’opera, del 1934, Popper presentava la sua opera come tentativo di riconoscere un senso alla filosofia ben al di là della restrizione all’analisi logica del linguaggio cui la condannava Wittgenstein. E giustificava il suo interesse per l’epistemologia come logica del metodo scientifico non in virtù di un amore per problemi di carattere tecnico e linguistico, bensì per il fatto che tanto la scienza, quanto la filosofia nella sua tendenza più originaria, sono teorie del mondo, ossia tentativi della razionalità umana di orientarsi entro la totalità dell’essente.
L’opera di Popper, insomma, è opera autenticamente filosofica, oltre che espressione di un’epistemologia di straordinario valore e successo. Si può anzi ritenere che la grande risonanza che ebbe la pubblicazione de La logica della ricerca scientifica, è dovuta proprio al fatto di essere un lavoro decisamente tecnico, ma animato da una grande forza filosofica. Cominciamo, dunque, a entrare in quest’opera.
Il primo capitolo, Sguardo su alcuni problemi fondamentali, si apre con una decisione preliminare intorno a ciò che Popper intende comprendere come scienza, una decisione preliminare, non presentata esplicitamente come tale, che è del tutto determinante per il proseguo del suo discorso. Il testo è di poche righe, ma molto dense: “Uno scienziato, teorico o sperimentatore, produce asserzioni o sistemi di asserzioni, e li controlla passo per passo. Nel campo delle scienze empiriche, più in particolare, costruisce ipotesi, o sistemi di teorie e li controlla, confrontandoli con l’esperienza mediante l’osservazione e l’esperimento. Suggerisco che il compito della logica della scoperta scientifica, o logica della conoscenza, è quello di fornire un’analisi logica di questa procedura; cioè di analizzare il metodo delle scienze empiriche”.
Dunque, in questo testo si comincia con il dire che la scienza è produzione di asserzioni, ossia di entità logiche, che devono venir controllate. E questa è già una concezione della scienza ben diversa da quella dell’empirismo. Nella concezione empiristica classica, il primo momento è quello della raccolta dei dati, quindi del confronto con l’esperienza, dalla quale, per induzione, si raffinano le asserzioni universali. Qui, invece, come si intravede, il primo momento è la produzione di teorie, quindi l’espressione di proposizioni universali: il momento dell’esperienza viene solo dopo come controllo.
Immediatamente dopo, Popper volge il discorso ai termini più specifici della scienza empirica e afferma che questa “costruisce” quelle asserzioni come “ipotesi” o “sistemi di teorie”, che vanno messe a confronto con l’esperienza tramite l’osservazione e l’esperimento. Lo schema è quello di prima, ma ogni suo termine viene specificato e vi è un’aggiunta importante per comprendere il senso complessivo dell’impresa scientifica: il punto centrale non è tanto che l’esperienza sia chiarita come questa diade di osservazione ed esperimento, né che le asserzioni scientifiche siano definite come ipotesi o sistemi di teorie. Ben più importante è che la produzione di queste teorie sia descritta come costruzione. La costruzione di un’ipotesi è ovviamente cosa ben diversa dalla sua induzione a partire dai dati dell’esperienza, che anzi subentrano solo dopo, per vedere se il costrutto regge. Costruzione, e qui è del tutto determinante la tradizione kantiana, è costruzione ideale, a partire dalle categorie della ragione e non dal molteplice sensibile. In qualche modo, dunque, Popper dà una prima risposta alla domanda che necessariamente ci poniamo, ossia: se non proviene dall’esperienza, la produzione di asserzioni della scienza da dove viene? Infatti, abbiamo detto che il primo momento non è l’osservazione, ma ciò che siamo abituati a intendere come la conclusione della ricerca scientifica, ossia l’enunciazione delle leggi. Eppure Popper afferma che questo momento precede quello dell’esperienza. Produrre significa creare, ma anche presentare, portare innanzi: ma a partire da che cosa vengono create e presentate le teorie scientifiche? Tenete presente, che questa domanda è assolutamente essenziale per comprendere il senso stesso della scienza e la sua radice. Se non sono il riassunto in termini generali di esperienze singolari, cosa sono le teorie scientifiche? La prima risposta di Popper, quindi, che egli chiarificherà solo successivamente, è che esse sono costrutti, ossia enti logico-razionali e non empirici. Ma se questo è vero, bisogna subito chiedersi che senso ha definire le scienze della natura come scienze empiriche: esattamente ciò che fa Popper chiudendo questo passo, dopo aver descritto il compito della filosofia: “Suggerisco che il compito della logica della scoperta scientifica, o logica della conoscenza, è quello di fornire un’analisi logica di questa procedura; cioè di analizzare il metodo delle scienze empiriche. Ma che cosa sono i «metodi delle scienze empiriche»? E che cosa chiamiamo «scienza empirica»?”
È a questo punto che diviene centrale il problema dell’induzione, ossia esattamente di quel tipo di inferenza logica che l’empirismo ha ritenuto come l’essenza della scienza: “Secondo un punto di vista largamente accettato – a cui mi opporrò in questo libro – le scienze empiriche possono essere caratterizzate dal fatto di usare i cosiddetti «metodi induttivi». Stando a questo punto di vista la logica della scoperta scientifica sarebbe identica alla logica induttiva, cioè all’analisi logica di questi metodi induttivi”. E il metodo induttivo è quello che permetterebbe di inferire da asserzioni singolari, come quelle relative ai risultati degli esperimenti, ad asserzioni universali, come appunto le ipotesi e le teorie. Ora, la prima notazione che fa Popper è esattamente quella di carattere logico, cui accennavamo prima: ossia, che non vi è giustificazione logica per questo passaggio dal singolare all’universale. L’argomento è, tutto sommato, di origine aristotelica: nessun numero finito di casi singoli autorizza a concludere in termini universali. Solo l’enumerazione completa dei casi può permettere formalmente questo passaggio: ma una classe enumerabile completamente è particolare, non universale. Un’asserzione universale, in altri termini, può singolarizzarsi potenzialmente in infiniti casi singolari, ognuno dei quali può rivelarla falsa.
Se le cose stanno così, però, il problema dell’induzione diviene centrale per comprendere lo statuto delle scienze empiriche, ossia di quelle teorie che si vogliono conosciute per esperienza. In che modo l’esperienza, che è sempre singolare, può fondare una conoscenza generale? Sulla base di quale criterio ciò sarebbe possibile? Evidentemente, solo disponendo di un principio che ci assicuri, a certe condizioni, che questo passaggio dal singolare all’universale è possibile e legittimo. Ossia, di una regola che ci dica in quali casi possiamo dire che ciò che vale in un’occasione deve valere in tutte le occasioni analoghe. Tenete presente, che questa richiesta di un “principio di induzione” non è affatto artificiosa e ingiustificata, poiché noi concludiamo costantemente da casi singolari a casi universali: per esempio, non abbiamo bisogno di verificare più volte che il fuoco scotta, per evitare di metterci le mani dentro. E che il fuoco scotti non è certo un giudizio analitico, né sintetico a priori: solo l’esperienza ce lo dice e basta che ce lo dica una volta sola. Ma quale sarebbe il principio sufficiente a farci concludere da una o poche esperienze a una regola generale? Ovviamente, in questo caso specifico, abbiamo a che fare con un’asserzione che non è scientifica, poiché è espressa in termini qualitativi e non quantitativi. E il principio che qui è all’opera è di carattere certamente non argomentativo, bensì schiettamente psicologico: non a caso, quando parliamo dell’atteggiamento di colui che ha fatto la prova di qualcosa di negativo, diciamo che è rimasto scottato. Per la logica della ricerca scientifica, però, il principio deve essere un’asserzione, con l’aiuto della quale sia possibile “mettere le inferenze induttive in una forma logicamente accettabile”.
Comprendete il senso di questa richiesta? Di principio di induzione parlano ampiamente i sostenitori della scienza puramente empirica, e lo concepiscono esattamente in questi termini, ossia come un principio argomentativo tale da superare quella critica logica all’insufficienza di osservazioni singolari per l’induzione certa di conseguenze universali. Qui, ovviamente, non può valere una considerazione del “per lo più o solitamente”, c’è bisogno di un criterio certo della conclusione logica.
Ora, ciò che nota Popper è di importanza decisiva: ossia che questo criterio non può essere esso stesso una verità puramente logica, ovvero una tautologia o un’asserzione analitica, poiché in tal caso non esisterebbe neanche il problema dell’induzione. Infatti, se fosse formulabile in termini puramente analitici o tautologici un principio che legittima il passaggio dal singolare all’universale, non si potrebbe più dire che è logicamente eccepibile passare dall’uno al tutti, che anzi sarebbe sempre possibile. L’inferenza induttiva procederebbe così come la stessa automaticità logica di quella deduttiva o sillogistica. È però evidente che un principio simile sarebbe la distruzione della logica e, di fatto, l’eliminazione della differenza stessa tra singolare e universale. Conseguentemente, nota Popper, se vogliamo parlare di principio di induzione, questo deve essere sintetico, ossia un’asserzione logicamente coerente, ma la cui negazione non è contraddittoria. Se è un principio sintetico, però, esso deve essere giustificato razionalmente. Come sarebbe possibile giustificare un principio simile? Ovviamente, non per induzione, perché ci troveremmo di fronte ad un’evidente circolo vizioso, ossia useremmo come premessa, ciò che intendiamo dimostrare. E la soluzione kantiana, ossia di ipotizzare la validità a priori di un principio di induzione nella forma del “principio di causazione universale”, risulta insufficiente. (Su questo punto, Popper è un po’ superficiale, poiché il principio di causalità naturale in Kant è riconosciuto come sostanzialmente speculativo, per quanto inevitabile: infatti, ha il suo luogo nella III antinomia della ragion pura, che oppone la necessità naturale alla libertà individuale: entrambe possono servire solo come principi regolativi, ma non sono comprovabili.
Le difficoltà di giustificazione di un principio di induzione, e quindi le difficoltà nello stabilire una regola capace di determinare quando e come è logicamente ineccepibile passare dal singolare all’universale, spingono Popper a ritenere la fondazione di un metodo induttivo forte del tutto impossibile. Diciamo “metodo induttivo forte”, per distinguerlo da un metodo induttivo debole, che ricercherebbe nell’inferenza induttiva non la prova della verità di una proposizione universale, quanto la corroborazione della sua probabilità. Ma per Popper non è per niente accettabile una sorta di credibilità o “probabilità” dell’induzione, come surrogato di una certezza che non può vantare. Questo tema della probabilità rivestirà grande importanza nello sviluppo di questo testo, ma qui ci si limita a notare che la proposta di intendere le induzioni come “inferenze probabili” equivale alla proposta di un diverso principio di induzione (da uno, probabilmente tutti), per il quale vale esattamente quanto valeva per il primo. Ossia, che è un’asserzione universale sintetica, che va giustificata razionalmente e non può esserlo per induzione. Quindi si ricade anche qui o nel circolo vizioso o nell’apriorismo.
A tutte queste soluzioni induttivistiche, dunque, Popper oppone la sua proposta della “teoria del metodo deduttivo dei controlli”: “il punto di vista secondo cui un’ipotesi può essere soltanto controllata empiricamente, e soltanto dopo che è stata proposta”. Questo, in una formula breve, il deduttivismo di Popper contro l’induttivismo del Circolo di Vienna. Non entriamo subito nella discussione dei capisaldi di questo metodo, ma seguiamo Popper nella giustificazione in qualche modo genealogica che egli a questo punto propone della propensione all’induttivismo, poiché in questo passaggio emerge un motivo di ambiguità irrisolta tra la formazione storico-filosofica più tradizionale di Popper e il suo avvicinamento al Circolo di Vienna.
Infatti, Popper fa una distinzione molto significativa tra psicologia della conoscenza e logica della conoscenza, sostenendo che l’inclinazione a favore del metodo induttivistico deriva dalla confusione tra problemi psicologici ed epistemologici. In realtà, però, questa integrazione gli serve anche per cominciare a dare una risposta alla domanda inevitabile circa l’origine delle teorie scientifiche. Nel passo appena citato, egli ha detto che una teoria può essere controllata solo dopo essere stata proposta: ciò rimanda immediatamente alla sua prima definizione del lavoro dello scienziato come produzione di teorie da controllarsi e a ciò che in questa definizione rimaneva non detto, ossia: a partire da che cosa vengono costruite queste teorie. Ebbene, distinguendo il momento psicologico da quello epistemologico, Popper ritiene qui superflua la domanda circa gli antecedenti della teoria: ciò che qui egli chiama “lo stadio iniziale, l’atto del concepire o dell’inventare una teoria, non mi sembra richiedere un’analisi logica né esserne suscettibile”. “La questione: come accada che a un uomo venga in mente un’idea nuova può rivestire un grande interesse per la psicologia empirica, ma è irrilevante per l’analisi logica della conoscenza scientifica. Quest’ultima prende in considerazioni non già questioni di fatto (il quid facti? di Kant), ma soltanto questioni di giustificazione o validità (il quid juris? di Kant)”.
In questo modo, come si vede, la critica all’induttivismo si ritiene fondata sullo stesso terreno che solamente era considerato agibile dal Circolo di Vienna, ossia quello dell’analisi logica, e ignora tutto ciò che non è riducibile ad essa. L’epistemologia deve limitarsi a questo, le sue domande sono del tipo: “può un’asserzione essere giustificata? E, se lo può, in che modo? È possibile sottoporla a controlli? È logicamente dipendente da certe altre asserzioni? O le contraddice? Perché un’asserzione possa essere esaminata logicamente in questo modo, dev’esserci già stata presentata; qualcuno deve averla formulata e sottoposta a esame logico. Di conseguenza farò una netta distinzione tra il processo che consiste nel concepire una nuova idea, e i metodi e i risultati dell’esaminarla logicamente. Per quanto riguarda il compito della logica della conoscenza, procederò basandomi sul presupposto che esso consista unicamente nell’investigare i metodi impiegati in quei controlli sistematici ai quali dev’essere sottoposta ogni nuova idea che si debba prendere seriamente in considerazione”.
Quali sono le ambiguità di questa posizione?
1) la logica, come nel Circolo di Vienna, viene intesa nel senso ristretto della logica formale: ma non è per niente ovvio che per logica della conoscenza scientifica dobbiamo intendere solo un qualche sistema assiomatico di proposizioni ben formate. Questo ci porterebbe, peraltro, in un campo del tutto estraneo a quello dell’effettivo logos dello scienziato, che sin dalle sue origini è in polemica con la razionalità puramente astratta: teniamo presente che le invettive di Bacone erano rivolte spesso contro i logici scolastici.
2) assumendo che l’epistemologia non debba interessarsi ad altro che dell’analisi logica del metodo di giustificazione e controllo di una teoria, Popper non spiega affatto la genesi dell’induttivismo dalla considerazione psicologica: a meno che egli non ritenga psicologicamente evidente un’origine delle idee nuove degli scienziati dall’esperienza che essi fanno del mondo. Il che significherebbe poi ammettere che l’induttivismo ha ragioni molto buone, almeno sul piano della fattualità, del quid facti. Ora, precisamente questo è estremamente dubbio: chiunque conosca la produzione di Carnap, per esempio, sa che è molto netta l’impressione suscitata dai neopositivisti di essersi sostanzialmente disinteressati alla realtà della ricerca scientifica, a favore di una ricostruzione astratta puramente logica del suo procedimento.
Raccogliamo le fila del discorso e cerchiamo di chiarire la questione presentando le due possibilità alternative fondamentali della logica della ricerca scientifica:
1) in primo luogo, possiamo considerare l’epistemologia il modo in cui va giustificata logicamente una teoria, del tutto a prescindere da come questa si sia prodotta: su questo piano, abbiamo una tesi induttivistica, che afferma che una teoria è verificata se è inferibile logicamente da asserzioni singolari empiriche; e una tesi deduttivistica, che afferma che una teoria deve essere logicamente consistente e permettere la deduzione di asserzioni singolari controllabili.
2) In secondo luogo, possiamo considerare l’epistemologia la considerazione del modo in cui si forma una teoria: e anche qui abbiamo una possibilità induttivistica, che afferma che la nascita di una teoria avviene per generalizzazione di osservazioni empiriche singolari: e una possibilità deduttivistica, che sostiene la costruzione ideale di una teoria, che poi deve corroborarsi empiricamente.

Ora, Popper riduce questa seconda possibilità a psicologismo e se ne distanzia esplicitamente. Ovviamente, già nella definizione di psicologismo vi è una decisione circa la logica genetica delle teorie che è discutibile e insufficiente. Se, infatti, è banale che nel pensiero scientifico un qualche ruolo lo gioca la psiche del ricercatore, è altrettanto banale che la formulazione di una teoria non è un fenomeno psicologico, nel senso ristretto che si dà a questo termine nella modernità.
Come che sia, è sulla base di questa impostazione che dobbiamo inizialmente intendere il metodo deduttivo di Popper. Ripetiamo quanto egli affermava su questo metodo: la teoria del metodo deduttivo dei controlli è il punto di vista secondo cui un’ipotesi può essere soltanto controllata empiricamente, e soltanto dopo che è stata proposta.
Cominciamo con la prima parte: un’ipotesi può essere soltanto controllata empiricamente, ossia un’ipotesi non può risultare come conseguenza di una sequenza di implicazioni, da quelle più elementari a quelle più generali, ma può solamente essere la base di partenza di deduzioni, da quelle più generali a quelle più elementari, queste ultime oggetto poi di controlli possibili.
Ammessa la limitazione alla metodologia come logica formale, questa asserzione non è problematica, anzi: appare molto rigorosa.
La seconda parte, però, è molto problematica, se intesa alla luce della stessa limitazione. Un’ipotesi può essere controllata soltanto dopo che è stata proposta: questa affermazione o è una banalità come poche altre o in realtà è in contraddizione con la limitazione di principio all’analisi puramente logica. Se ci fermiamo al primo senso, ossia diciamo che, per essere in condizione di venir sottoposta a controllo, un teoria deve esserci già, affermiamo una banalità tale che non si comprende perché Popper abbia sottolineato così chiaramente questo passo per la comprensione del metodo deduttivo. Se però interpretiamo la frase alla luce della critica all’induttivismo che ne precede la formulazione, comprendiamo chiaramente, che Popper vuol dire che il riferimento ai fenomeni empirici che sono il banco di prova del controllo (infatti egli parla di controllare empiricamente) non avviene all’atto della genesi di una teoria, ma successivamente. Questa, però, è una tesi genealogica e non logica, e come tale non dovrebbe far parte di un metodo deduttivo rigorosamente inteso come analisi logica. E non solo: in quanto tesi genealogica, contraddice quello psicologismo che dovrebbe servire a dare una giustificazione all’induttivismo: anche per la nascita di una teoria, infatti, risulta qui indifferente il controllo empirico e quindi l’astrazione dai dati fenomenici (“la credenza nella logica induttiva è dovuta, per la maggior parte, a una confusione tra problemi psicologici e problemi epistemologici”). Una conferma di questo, ci è data dalla conclusione del paragrafo dedicato all’eliminazione dello psicologismo, conclusione nella quale Popper azzarda una tesi esplicitamente genealogica e lo fa negando ogni possibilità di una logica induttiva della scoperta: “Comunque, il mio modo di vedere la cosa – per quello che vale [e vedremo che vale molto] – è che non esista nessun metodo logico per avere nuove idee, e nessuna ricostruzione logica di questo processo. Il mio punto di vista si può esprimere dicendo che ogni scoperta contiene un «elemento irrazionale» o «un’intuizione creativa» nel senso di Bergson. In modo analogo, Einstein parla della «ricerca di quelle leggi altamente universali… dalle quali possiamo ottenere un’immagine del mondo grazie alla pura deduzione. Non esiste alcuna via logica, egli dice, che conduca a queste leggi. Esse possono essere raggiunte soltanto tramite l’intuizione, basata su alcunché che possiamo chiamare immedesimazione cogli oggetti d’esperienza”.
Come risolvere questa forte ambiguità? A mio avviso, ragionando costantemente su due binari: da un lato, accettare la determinazione rigorosa di ciò che Popper vuole intendere come metodologia della ricerca scientifica e seguirne gli argomenti, peraltro sottili. Dall’altro, non perdere di vista che, in fondo, anche questa metodologia ha alla sua base una tesi genealogica, che è quella appena espressa: lo scienziato produce teorie non tramite induzione o generalizzazione, bensì tramite un’intuizione creatrice. Questa intuizione non è analizzabile logicamente, al contrario del metodo deduttivo, con il quale da essa si può ottenere un’immagine scientifica del mondo, parafrasando Einstein.
E tenere presente questi due binari sarà importante, per comprendere la maturazione del pensiero di Popper, che avverrà anche in direzione della ricomposizione di questa scissione tra logica e psicologia, nella misura in cui egli riconoscerà successivamente lo statuto non solo psicologico della genealogia: se, infatti, un termine come intuizione creatrice è scarsamente passibile di una spiegazione razionale, non è questo il caso per tutto ciò che funge da presupposto di questa intuizione, in primo luogo la tradizione scientifica entro la quale si innesta sempre la ricerca. Su questo però torneremo. In ultima analisi, per concludere con questo discorso, dobbiamo notare qui che Popper sembra inizialmente risentire più di quanto divenga evidente dell’influenza della logistica di Wittgenstein e Carnap, uno dei motivi centrali della quale era proprio la rinuncia a parlare di ciò che non è passibile di analisi logica, una rinuncia che sul piano della filosofia della scienza porta a evitare proprio ciò che della scienza è più degno di considerazione.
Fatte queste precisazioni, possiamo affrontare la descrizione più ampia che Popper fornisce dei controlli deduttivi delle teorie. Egli afferma: “Da una nuova idea, avanzata per tentativo e non ancora giustificata in alcun modo – un’anticipazione, un’ipotesi, un sistema di teorie, o qualunque cosa si preferisca – si traggono conclusioni per mezzo della deduzione logica. In un secondo tempo queste conclusioni vengono confrontate l’una con l’altra, e con altre asserzioni rilevanti, in modo da trovare quali relazioni logiche esistano tra di esse”.
Dunque, messo un velo sulla genesi di una teoria e presa di per sé, quando si presenta, il metodo del suo controllo critico prevede la deduzione delle sue conseguenze e il confronto di queste tra loro e con altre “asserzioni rilevanti”. Cosa sono queste asserzioni rilevanti lo vediamo subito: sono in primo luogo quelle delle teorie scientifiche che hanno già un proprio statuto riconosciuto di validità, da un lato, e dall’altro le asserzioni circa i dati sperimentali.
Su questa base, Popper scandisce in 4 momenti il controllo di una teoria:
1) Il confronto reciproco delle conseguenze, che assicura la coerenza della teoria, ossia il fatto che non abbia in sé contraddizioni.
2) L’analisi della forma logica delle conseguenze (analitiche, sintetiche a priori, sintetiche a posteriori), che serve a chiarire il tipo di teoria: se empirica, scientifica o tautologica (vedremo poi il senso di queste distinzioni).
3) il confronto con altre teorie, che serve a determinare se una teoria costituisce o meno un progresso scientifico.
4) il controllo della teoria condotto mediante le applicazioni empiriche delle conclusioni che possono essere derivate da essa.
Come vedete, il momento dell’esperimento vero e proprio è solo l’ultimo, per quanto, come chiariremo, la possibilità di questo controllo è già decisiva per la definizione del tipo di teoria, ossia per il secondo punto. In ogni caso, anche questo momento ha struttura inizialmente deduttiva: dalla teoria bisogna dedurre asserzioni singolari facilmente e rigorosamente verificabili, le cosiddette “previsioni”, che poi divengono l’oggetto della misurazione quantitativa sperimentale. Ovviamente, le previsioni di una nuova teoria che sono effettivamente in grado di controllarla, sono quelle che non sono deducibili da teorie precedenti (e di cui già conosciamo la correttezza, che sono già verificate), o meglio ancora, quelle che contraddicono queste teorie e rappresentano le loro debolezze (tenete presente, che ogni teoria fallisce rispetto a qualche sua conseguenza particolare).
Ora, e questo è il punto centrale dell’epistemologia di Popper, superati tutti e 4 i gradi del controllo disponiamo di una teoria che non è affatto verificata, ma solamente non falsificata: “Se questa decisione è positiva, cioè se le singole conclusioni si rivelano accettabili o verificate, la teoria ha temporaneamente superato il controllo: non abbiamo trovato alcuna ragione per scartarla. Ma se la decisione è negativa, o, in altre parole, se le conclusioni sono state falsificate, allora la loro falsificazione falsifica anche la teoria da cui le conclusioni sono state dedotte logicamente”.
Come vedete, qui Popper parla di verificazione e falsificazione delle conclusioni, ma solo di falsificazione delle teorie: tutti i controlli superati su asserzioni singole non sono in grado di verificare la teoria universale, mentre basta una falsificazione a confutarla. Ovviamente, una teoria che abbia temporaneamente resistito a questi controlli ha un certo grado non di verità, e neanche di probabilità, bensì di corroborazione: e anche su questo concetto avremo occasione di tornare più avanti.

Abbiamo visto come Popper delinei i caratteri fondamentali della sua proposta di un metodo deduttivo dei controlli e abbiamo anche cominciato a notare come, nonostante il rifiuto formale di una dimensione extra-epistemologica in senso stretto, al fondo del suo discorso sia presente una tesi genealogica sulla scienza: il rimando all’intuizione creativa dello scienziato. Ciò che Popper, però, esplicitamente ci chiede, è che il suo metodo venga valutato da un punto di vista puramente logico, o meglio deontologico. La sua, in altri termini, non vuole essere una scienza empirica della scienza, quindi rifiuta il controllo sulla storia oggettiva del proprio oggetto. L’epistemologia, infatti, in quanto logica del metodo scientifico, è piuttosto una teoria normativa: enuncia le regole del procedimento rigoroso nella formulazione critica di una teoria scientifica.
Anche in quanto teoria normativa, però, l’epistemologia deve poter conoscere e riconoscere il proprio oggetto, ossia deve disporre di un criterio per discriminare tra ciò che è scienza e ciò che non lo è. Anzi, uno dei suoi compiti fondamentali è precisamente esprimere una regola di demarcazione. Questo compito è ancora più urgente nel caso del metodo deduttivo dei controlli, poiché apparentemente in esso si rinuncia precisamente all’elemento più caratteristico della scienza naturale, ossia al suo riferimento all’empiria come fonte del proprio sapere: come nota, infatti, Popper: “qualcuno potrebbe dire che, rifiutando il metodo induttivo, privo la scienza empirica di quella che sembra la sua caratteristica più importante; e ciò significa che elimino le barriere che separano la scienza dalla speculazione metafisica”. Eppure, secondo Popper, è precisamente il metodo induttivo a non poter fornire un principio sufficiente di demarcazione tra un sistema fisico o empirico di asserzioni, da un lato, ed uno metafisico. In realtà, la demarcazione non deve avvenire solo tra fisica e metafisica, ma deve essere in grado di distinguere tra teorie empiriche, da un lato, e logica, matematica e metafisica dall’altro.
Come vedete già da questa precisazione, l’eredità kantiana in Popper è molto viva: se ricordate infatti l’articolazione della Critica della ragion pura, era precisamente questa la scansione che faceva Kant: da un lato le discipline logiche e matematiche, dall’altro la fisica, e poi ancora la metafisica. E tramite la sua distinzione dei giudizi in analitici e sintetici, e poi a priori e a posteriori, poteva separare tutte queste discipline: per esempio: la logica ha una struttura analitica, mentre la matematica è sintetica; entrambe sono a priori, come vorrebbe essere anche la metafisica, mentre la fisica è a posteriori. Entro questo schema, solo matematica e metafisica condividono la pretesa ad essere composte di giudizi sintetici a priori: e quindi l’ulteriore svolgimento della critica è precisamente l’analisi delle condizioni di possibilità di questi giudizi, analisi che dimostra come la pretesa della matematica, in quanto scienza per costruzione, sia legittima, mentre quella della metafisica, scienza per speculazione, sia illegittima.
È nel solco di questa tradizione che si muove Popper, che infatti definisce il problema della demarcazione “problema di Kant” e lo ritiene la questione veramente fondamentale dell’epistemologia, ancor più del problema dell’induzione. In ogni caso, Popper si rivolge ancora innanzitutto alle posizioni empiriste e induttiviste e opera una distinzione importante tra positivismo e neopositivismo, una distinzione che consiste nella considerazione della scienza come 1) sistema di concetti o 2) sistema di asserzioni. Ciò che, a detta di Popper, caratterizza il positivismo è il primo significato di scienza: conseguentemente, l’empirismo positivista è la teoria che fa discendere i concetti dall’esperienza sensibile. Questa è ancora la posizione, per esempio, dell’empiriocriticismo di Mach. Il neopositivismo, invece, partendo da una logica proposizionale, fonda il proprio empirismo sulla tesi che le asserzioni di una teoria scientifica devono essere deducibili da asserzioni singolari dell’esperienza.
Se ragioniamo nei termini della logica positivista, una classica domanda che possiamo porre è quali sono le basi empiriche del concetto di massa o di forza. Ebbene, quale che sia la risposta a questa domanda, essa si scontra con il dato di fatto, che i concetti fondamentali della scienza sono tutti di natura fortemente astratta e per niente empirica. Ciò che, al più, si riesce a fare in tal modo, è precisamente trovare una qualche origine psicologica, che renderebbe lo scienziato più propenso a servirsi di un concetto come quello di massa, appunto, che certo non trae dalla sua esperienza della molteplicità delle qualità dei corpi. Ma la propensione psicologica non è certo giustificazione epistemologica, né tantomeno un possibile principio di induzione.
Nella logica neopositivista, invece, si rinuncia a ricondurre ogni concetto di una teoria ad una precisa origine empirica, si riconosce quindi il carattere astratto e ipotetico dei concetti, ma si richiede che le proposizioni composte da questi concetti siano tali da poter essere dedotte da proposizioni elementari, ossia osservative. Conseguentemente, qui non è tanto importante sapere cosa significa il concetto di massa, quanto sapere in che modo una proposizione che lo contenga è verificabile. In che modo, per esempio, verifichiamo l’asserzione F=ma. Il che significa: tramite quali induzioni, riteniamo giustificata questa proposizione universale.
Conseguentemente, nota Popper, il criterio di demarcazione del neopositivismo corrisponde all’affermazione della logica induttiva e quindi, entro questa tradizione, si configura come un unico problema. Diversamente accade a chi rifiuti l’induttivismo: il compito più importante che si presenta a chi propone una logica deduttiva, quindi, è quello di fornire un criterio di demarcazione che non sia fondato sull’induzione.
Come si arriva a questo principio di demarcazione? Essenziale, per Popper, è qui ribadire il carattere deontologico dell’epistemologia. In altri termini, bisogna rifiutare l’impostazione del problema della demarcazione in termini, come lui dice, naturalistici. L’espressione non è tra le più riuscite, ma ciò che in effetti intende dire Popper, è che la pretesa del positivismo è quella di identificare una differenza essenziale tra scienza e metafisica come enti naturalmente distinti, piuttosto che “proporre una convenzione adeguata”, ossia precisamente adottare una regola che ci consenta di distinguere tra ciò che vogliamo valga come scienza empirica, rispetto a ciò che vogliamo valga come metafisica.
Questa precisazione, però, non vuole solo richiamare al rigore metodologico dell’epistemologia, poiché in effetti Popper è ben consapevole che l’intento fondamentale dell’empirismo non è semplicemente tracciare un confine tra scienza e filosofia, bensì è quello di togliere da mezzo e delegittimare del tutto la metafisica. Insomma, non si tratta solamente di riconoscere che la metafisica non è empirica, cosa che appartiene precisamente già alla comprensione propria della metafisica stessa, ma di bollare tutto ciò che non è empirico come privo di senso. Tenete presente, che questo discorso è tutto all’interno della questione della demarcazione: in effetti, quello che nota Popper, è che qui non è tanto in gioco il problema serio di capire quale può essere la funzione dell’esperienza e il modo di questa funzione, ma è in gioco semplicemente il rifiuto di quelle forme di sapere che pretendono di poter fare a meno dell’empiria in senso stretto. Più che una vera demarcazione, insomma, qui si vuole affermare una scienza e rifiutare a tutto il resto la dignità di sapere.
Il modo in cui ciò avviene, da Wittgenstein a Carnap, è quello di un’analisi logica in grado di dimostrare come le asserzioni della metafisica siano non errate o astratte e così via, bensì insignificanti. E qui Popper dimostra la sua lucidità, notando che la definizione neopositivista del significato di “significante” corrisponde né più né meno che al principio di induzione. Un’asserzione significante, in altri termini, deve essere logicamente riducibile a proposizioni elementari. Tutto ciò che non può essere inferito da proposizioni relative ad esperienze ed osservazioni singolari è privo di senso, quindi metafisico.
Osserviamo una cosa: qual è lo statuto di questa definizione di “significante”?
Ossia: è una teoria empirica o deve valere come una norma? Ovviamente, non può essere teoria di un oggetto, poiché noi non troviamo in alcun luogo l’oggetto “significato” o “senso”. Deve essere quindi una norma, ossia dire ciò che deve valere come “significato”, il carattere che deve essere proprio ad una proposizione che voglia avere un senso. Questo carattere è appunto la sua riducibilità a proposizioni osservative possibili. Conseguentemente, una proposizione ha significato, se può risultare empiricamente verificata o anche falsificata, l’importante è che sia riferibile a un dato empirico. Significante, quindi, significa ciò che è riconducibile al significato come quell’ente o quella configurazione di enti, che è trasposto nel segno: “significato” significa allora appunto “dotato di un segno, segnalato”. A questo punto, però, poniamo la questione cruciale: “che significato ha questa definizione di significante, in relazione al modo in cui in essa stessa è concepito il senso di significato?” Anche come norma, infatti, questa definizione deve significare qualcosa perché abbia un senso, il suo significato deve essere precisamente il “significato”: ma il significato non è un oggetto di osservazione, né è riconducibile a proposizioni osservative. Quindi la definizione di significato è priva di significato. E a nulla vale asserire che, in quanto regola, essa non è soggetta alla verificazione empirica, poiché ciò che in essa è effettivamente in gioco è la pregnanza degli enti logici, pregnanza che deve avere necessariamente ogni regola, affinché possa svolgere il suo compito.
Come che sia, Popper segue qui un’altra via e nota invece che questa concezione del significato, che viene presentata con il chiaro intento di distruggere la metafisica, riconoscendola come insensata, finisce per distruggere anche la scienza empirica, poiché di fatto le leggi scientifiche non “possono essere ridotte ad asserzioni empiriche elementari”. Conseguentemente, le asserzioni universali intorno alla realtà, che dovrebbero essere il primo obiettivo della scienza – e qui Popper rimanda ancora ad Einstein –, risultano sulla base di ciò delle pseudo-proposizioni, ossia asserzioni che apparentemente predicano qualcosa di un soggetto, ma che in realtà non predicano un bel niente, poiché i loro elementi non sono “significati” reali. Anche la scienza, insomma, quando enuncia leggi, è metafisica e così il principio di demarcazione costruito sull’induzione si rivela incapace di distinguere tra scienza e metafisica e non solo, finisce anche per ottenere esattamente il contrario di ciò che vuole, ossia non libera la scienza dalla metafisica, ma lascia che la metafisica faccia completamente irruzione nella scienza.
Di contro a tutta questa impostazione sostanzialmente antimetafisica, piuttosto che scientifica, Popper afferma di voler trovare elementi caratterizzanti della scienza empirica, senza intenti polemici, bensì esclusivamente metodologici: ed egli imposta questo compito nei termini espliciti di una proposta del criterio di demarcazione come convenzione, quindi in sostanza come questione di una decisione ed un accordo intorno a ciò che possiamo ragionevolmente considerare come scientifico.
Ma perché la questione è impostata in questi termini? Potremmo pensare che Popper non possieda un criterio veramente logico e forte per la demarcazione, ma non è così, anzi: in riferimento al suo armamentario concettuale, egli poteva anche evitare di sottolineare questo carattere convenzionale della demarcazione. Se lo fa, invece, è perché è consapevole del fatto, che nonostante l’epistemologia si ponga come teoria normativa del metodo scientifico, non può farlo affatto trascurando la situazione reale della scienza. Insomma, ancora qui notiamo che il riferimento all’esperienza scientifica reale è decisivo per la teoria di Popper. Egli infatti dice, che chi ritiene compito della scienza fornire un sistema completo di teorie assolutamente vere e verificate non potrà concordare con la sua proposta, ma neanche riconoscere alla fisica teorica contemporanea lo statuto di vera scienza, fisica teorica (e Popper pensa sempre ad Einstein) che invece vale per lui come la realizzazione per il momento più completa della “scienza empirica”.
Insomma, l’epistemologia deve muoversi su di un piano metodologico e quindi deontologico, ma senza presupposti di carattere dogmatico intorno all’essenza della scienza, tali da chiuderla all’effettività del lavoro scientifico e delle prospettive nuove che possono emergere in questo lavoro. Il valore dell’epistemologia, insomma, non è in una dogmatica del metodo scientifico, ma nella fertilità delle sue conseguenze logiche per la chiarificazione della realtà della ricerca.
Questo elemento deve essere sempre tenuto a mente, poiché è precisamente grazie ad esso che Popper si dimostra un grande innovatore e maestro dell’epistemologia, nella misura in cui riesce a comprenderla, nonostante la sua trattazione logica, in base ad una più ampia filosofia della scienza. Ciò è dimostrato dal suo atteggiamento rispetto alla metafisica, che non vede come una bestia nera da esorcizzare, bensì come un ambito del sapere che svolge sempre un ruolo anche nella formulazione delle teorie scientifiche, su un piano, badate bene, genealogico, e non epistemologico: “Guardando alla questione dal punto di vista psicologico, sono propenso a ritenere che la scoperta scientifica è impossibile senza la fede in idee che hanno una natura puramente speculativa”. In questa frase ci sono molti degli elementi che abbiamo già chiarito: 1) in primo luogo, l’ambito genealogico definito in termini psicologici. 2) poi il riferimento qui alla scoperta, e non alla ricerca scientifica; 3) poi la definizione delle idee metafisiche come speculative, che rimanda alla definizione kantiana. Ora, se questo è valido dal punto di vista genealogico, ed è proprio in base a ciò che la proposta epistemologica va compresa in termini convenzionali e non ontologici, questa stessa proposta deve essere d’altro canto espressa in maniera rigorosamente logica e quindi deve “formulare un concetto di scienza empirica allo scopo di rendere l’uso linguistico, ora piuttosto incerto, il più possibile definito; tracciare una netta linea di demarcazione tra la scienza e le idee della metafisica, anche se queste idee possono aver favorito il progresso della scienza durante tutta la sua storia”.
Notiamo che qui Popper distingue due momenti differenti: formulare un concetto di scienza empirica, e tracciare la demarcazione tra la scienza e le idee della metafisica, che pure possono essere in parte all’origine della scienza. Questo è significativo, per la concretezza del suo procedimento: egli non dà per presupposta un’idea di scienza e quindi non vuole semplicemente esiliare la metafisica dalla scienza. Si rende invece conto, che la metafisica gioca un ruolo nella nascita del pensiero scientifico e ritiene, d’altro canto, che vada codificata una definizione di scienza empirica ai fini metodologici della ricerca e dell’espressione rigorose del sapere scientifico. Conseguentemente, il criterio di demarcazione è solo una parte della definizione di scienza, definizione che ha tre momenti: per essere scientifico,
1) un sistema di teorie deve essere sintetico, per poter rappresentare un mondo possibile.
Perché diciamo questo? Certo, se un sistema è sintetico, ciò garantisce che è anche non contraddittorio, oltre a essere non tautologico. Al di là di questa constatazione logica, che se badate bene corrisponde esattamente alle prime due condizioni della controllabilità di una teoria (confronto reciproco delle conseguenze e analisi della forma logica), Popper sottolinea proprio la possibilità, e non la realtà. Certo, possibile significa potenzialmente reale: ma precisamente questo è ciò che Popper vuole da una scienza, ossia che ci parli di cose potenzialmente reali, e non certe o dimostrate vere, e quindi pienamente reali. Il mondo descritto dalla scienza deve essere possibile, quindi la scienza deve essere sintetica.
2) in secondo luogo, questo sistema deve soddisfare il criterio di demarcazione, ossia non deve essere metafisico: e qui Popper dà la prima definizione di questo criterio: il mondo descritto da una scienza empirica deve essere un mondo di esperienza possibile.
Badate bene, anche qui non esperienza reale, realizzata, compiuta; bensì possibile, ossia sempre nuovamente realizzabile, nei due sensi di reiterabile e riformulabile. Questo, peraltro, ha a che fare con la quarta condizione di controllabilità di una teoria, quella mediante le applicazioni empiriche delle conclusioni che possono essere derivate da essa. A rigori, quindi, esperienza possibile non significa altro che la possibilità di dedurre da una teoria asserzioni controllabili empiricamente. Quindi, quello che distingue la scienza dalla metafisica è che dalla prima sono deducibili previsioni su fenomeni osservabili e descrivibili singolarmente.
3) In terzo luogo, questo sistema si deve distinguere da altri sistemi, come, dice Popper, “l’unico che rappresenta il nostro mondo di esperienza”. Questo punto corrisponde solo in parte al terzo criterio di controllabilità, che prevedeva il confronto con altre teorie, allo scopo di valutare se una nuova teoria è effettivamente un progresso scientifico o meno. Qui, invece, la questione è se la scienza di cui stiamo parlando è effettivamente espressione del nostro mondo di esperienza. Questo punto sarà destinato ad avere sviluppi importantissimi nel futuro pensiero di Popper, in particolare nella teoria dei 3 mondi, ma per il momento egli lo spiega semplicemente, dicendo che il nostro mondo di esperienza, che è l’oggetto di ciò che qui si definisce come vera scienza empirica, è il mondo del quale abbiamo storicamente fatto esperienza nei termini della ricerca scientifica, ossia non è altro che l’apparato strumentale e sperimentale della scienza quale storicamente si dà di volta in volta. Di nuovo, come vedete, il riferimento all’effettività della scienza, e non semplicemente al suo concetto.
In funzione di tutto ciò, nel concetto di scienza empirica non rientra solo la forma logica di una teoria scientifica, ma anche il suo metodo o modo di procedere nell’acquisizione dei suoi dati, quindi nella ricerca intorno al nostro mondo di esperienza possibile. In riferimento a ciò, Popper parla della teoria della conoscenza come analisi del metodo della scienza, ossia teoria del metodo empirico, quindi di ciò che si può chiamare, in termini appunto scientifici, esperienza.
Torniamo alla questione della demarcazione, che qui compare come secondo momento di una definizione concettuale di scienza, e cerchiamo di entrare un po’ più nei particolari. Come solitamente in questo testo, Popper parte dalla critica alla tesi neopositivista che scientifica è ogni asserzione significante, ossia della quale è comprovabile empiricamente la verità o la falsità: “il significato di un’asserzione è il metodo della sua verificazione” (Waismann). Il criterio di demarcazione positivista, insomma, coincide con il principio di induzione: ciò che è riducibile ad asserzioni singolari verificabili, ossia ciò che è dotato di significato, è scientifico. In tal modo, però, come abbiamo già notato, proprio le leggi fisiche risultano non scientifiche e dunque prive di significato (come infatti viene riconosciuto dai neopositivisti, che finiscono per ritenere le leggi superflue per la scienza).
Rispetto a questa posizione, Popper propone come criterio di demarcazione la falsificabilità: un sistema di proposizioni è empirico, se ammette un controllo basato sull’esperienza. E tenete presente che essenziale è qui il fatto che la falsificabilità non coincide per Popper con il significato di una proposizione, così come invece la verificabilità per i neopositivisti. Ossia, per essere dotata di un significato, una proposizione non deve essere necessariamente falsificabile: in altri termini, tra le proposizioni dotate di senso distinguiamo quelle falsificabili, che sono dunque empiriche, e quelle non falsificabili, che possono essere quindi metafisiche, ossia riferite a un ente, quindi dotate di un significato, ma non controllabili. Questo è importante ribadirlo, poiché Popper non vuole distinguere tra la scienza da un lato e il puro non senso dall’altro, ma intende chiarire l’articolazione complessa dei diversi tipi di enunciati che appartengono a una scienza empirica, e questa demarcazione gli serve appunto a delimitare l’ambito di ciò che può valere legittimamente come scienza empirica. Una scienza empirica non è un insieme di enunciati passibile di verifica definitiva, bensì controllabile per esperienza, ossia in linea di principio sempre falsificabile: “Un sistema empirico per essere scientifico deve poter essere confutato dall’esperienza”.
Qual è la logica di questo processo di controllo? Popper parla di un’asimmetria tra verificabilità e falsificabilità riguardo alle proposizioni universali: infatti, come abbiamo ripetuto, mentre queste non possono mai essere derivate da asserzioni singolari, possono invece venir contraddette da asserzioni singolari e al riguardo Popper parla di modus tollens, forma logica classica. Cerchiamo di esporre la cosa in maniera più precisa: il modus tollens è un sillogismo ipotetico disgiuntivo. I sillogismi sono sequenze di tre proposizioni, due premesse (maggiore e minore) e una conseguenza. Se la premessa maggiore ha la forma di un’inferenza ipotetica il sillogismo è ipotetico: mettiamo dunque che la premessa maggiore sia: “se A è B, allora C è D”. Come vedete, un’inferenza ipotetica prevede due proposizioni ed enuncia che la seconda è vera quando è vera la prima. Ora, il modus ponens prevede nella premessa minore l’affermazione dell’antecedente della premessa maggiore, ossia “A è B”, da cui deriva, nella logica classica, appunto che “C è D”: il sillogismo sarebbe:
Premessa maggiore: se p allora q (simboli di logica proposizionale)
Premessa minore: p
Conseguenza: q
Il modus tollens, invece, prevede nella premessa minore la negazione della conseguente della maggiore, ossia “C non è D”: il sillogismo sarebbe:
Pre. Magg: se p allora q
Pre. Min.: non q
Conseguenza: non p

Come vedete, la premessa maggiore è un’implicazione, ossia un’unione di due enunciati che è vera (corretta), dal punto di vista logico, se sono veri antecedente e conseguente, se l’antecedente è falso è il conseguente è vero, e se sia antecedente che conseguente sono falsi. Solo se l’antecedente è vero e il conseguente falso, l’implicazione è falsa. Questa particolarità dell’implicazione, che la rende tra le cose più complesse da comprendere per chi si avvicina alla logica formale, rende già perfettamente conto dell’argomento di Popper. Infatti: è possibile che un implicazione nel suo complesso sia vera anche se l’antecedente è falso, o meglio, ogni volta che l’antecedente è falso, l’implicazione è vera. In logica formale, in altre parole, una proposizione falsa, tipo “gli uomini sono immortali”, garantisce che ogni implicazione di cui è antecedente è vera, per esempio “Se gli uomini sono immortali, allora Socrate è immortale”, ma anche “allora Socrate è mortale”. Questa situazione, apparentemente paradossale, si chiarisce notando che ad essere vera è l’implicazione nel suo complesso e non la conseguente. Possiamo chiarire un po’ la cosa, dicendo che qui è in gioco la correttezza dell’implicazione in relazione ai valori di verità delle proposizioni che la compongono. Un’implicazione è sempre corretta, tranne nel caso che l’antecedente sia vero e il conseguente falso: “Se gli uomini sono mortali, allora Socrate è immortale”.
Rivedendo in questi termini i modi ponens e tollens, ci rendiamo conto che non sono affatto aggiunte superflue, perché ciò che perseguono è esattamente la verità delle singole proposizioni e non dell’implicazione nel complesso. Nel modus ponens, la premessa minore enuncia la verità dell’antecedente: e abbiamo visto che un’inferenza corretta con l’antecedente vero non può avere che un conseguente vero: per cui la conseguenza del sillogismo è l’affermazione della verità della conseguente: “Se gli uomini sono mortali, Socrate è mortale; ma gli uomini sono veramente mortali, quindi Socrate è mortale”. Nel modus tollens, invece, la premessa minore nega la conseguente e, come abbiamo visto, le implicazioni formali con conseguente falsa sono corrette solo se anche l’antecedente è falsa: “Se gli uomini sono immortali, allora Socrate è immortale; ma Socrate non è immortale, quindi anche gli uomini non sono immortali”. Questo è il tipo di sillogismo, che secondo Popper è in grado di falsificare una teoria scientifica. Il tipo di sillogismo ipotetico in grado di verificare una teoria scientifica nel senso del metodo induttivo dovrebbe invece avere questa forma:
Maggiore: Se p allora q,
Minore: q
Conseguenza: p.
Per esempio: “Se gli uomini sono mortali, allora Socrate è mortale, ma Socrate è veramente mortale; quindi gli uomini sono mortali”. Ho scelto qui, due proposizioni vere, ma anche così si vede che il sillogismo non è molto convincente, poiché induce da ciò che è proprio al singolare ciò che è proprio all’universale: altrettanto bene si potrebbe infatti dire: “Socrate è greco, quindi gli uomini sono greci”. Questa conclusione è palesemente errata, ma non lo sarebbe invece l’implicazione formale che ha come premessa maggiore: “Se gli uomini sono greci, allora Socrate è greco”. Qui abbiamo l’antecedente falso, e il conseguente vero, quindi l’implicazione è corretta, ma da essa non posso ovviamente indurre la verità dell’antecedente, che anzi è falso. Ciò che va sottolineato fortemente è che non cambia niente, anche se l’antecedente è vero: la conclusione, per quanto la conosciamo vera, non è logicamente conseguente e quindi giustificata. Insomma, dal fatto che Socrate è mortale, non possiamo indurre logicamente che lo sono anche gli uomini in generale e ciò per lo stesso motivo per cui non possiamo indurre dall’enunciato che Socrate è greco, l’affermazione che tutti gli uomini sono greci. E ciò si giustifica logicamente con l’assurdo evidente, che, data la struttura formale dell’implicazione, potendo procedere in questo modo, saremmo in grado di giustificare logicamente proposizioni potenzialmente sia vere che false.
Le possibilità corrette, insomma, di usare un’implicazione per trarre conclusioni sono quelle che dicevamo: affermare l’antecedente per dedurre il conseguente; o negare il conseguente per negare l’antecedente. Dall’affermazione del conseguente, invece, possiamo indurre sia l’affermazione che la negazione dell’antecedente, così come dalla negazione dell’antecedente possiamo dedurre sia l’affermazione che la negazione del conseguente (si dice in questi casi, che un enunciato vero segue da ogni enunciato o che un enunciato falso implica ogni enunciato).
Tutto ciò sul piano logico. Ma, per passare dall’astratto al concreto, come si applica il modus tollens alle procedure di controllo di una scienza empirica? Non affrontiamo immediatamente il procedimento deduttivo, ma chiariamo solo la struttura generale: evidentemente, l’antecedente dell’implicazione che andiamo a formare deve essere costituito dall’insieme di asserzioni universali che compongono la teoria scientifica, mentre il conseguente deve essere una proposizione singolare. Ora, giusto il modus ponens, se la teoria è vera, la conseguenza deve essere vera. D’altro canto, se si dimostra che la conseguenza è falsa, anche la teoria è falsificata. E questa, dice Popper, è la sola inferenza deduttiva che proceda nella direzione induttiva, cioè dal singolare all’universale.
A questo punto, Popper affronta alcune obiezioni possibili al suo metodo. La prima rimanda al fatto che una teoria scientifica potrebbe rendersi tale da non lasciarsi falsificare, ossia tramite l’introduzione di ipotesi o definizioni ad hoc per risolvere le eventuali contraddizioni dell’esperienza. A questa scappatoia, logicamente possibile, Popper risponde ancora con il rimando alla pratica scientifica, che dall’epoca di Newton almeno è fondata sul rifiuto delle ipotesi ad hoc: il metodo empirico, insomma, esclude la possibilità di sfuggire alla falsificazione, è anzi precisamente l’esposizione sistematica della teoria alla possibilità di essere falsificata.
Prima di continuare, però, va fatta una precisazione sul senso in cui riteniamo indifferenti le proposizioni che compongono un’implicazione. Questo è certamente vero, ma solo sul piano della logica formale, che si interessa appunto solo alla forma logica delle relazioni tra proposizioni e non alle relazioni contenutistiche tra esse. Su questo piano formale, dunque, è possibile che un implicazione “se p, allora q” ammetta per p e q proposizioni che non hanno una relazione diretta tra loro (se la penna è bianca, il tavolo è nero). Ovviamente, implicazioni di questo tipo hanno un interesse per lo più esemplificativo, non rientrando mai effettivamente in argomentazioni di qualche interesse, ma ripeto, su questo piano non interessa il contenuto dell’argomentazione, bensì solo la sua forma. Però, quando il discorso si sposta dalla logica all’epistemologia, è evidente che non ci si può più accontentare di questa indifferenza tra antecedente e conseguente di un’implicazione: infatti, l’antecedente deve essere qui la teoria scientifica e il conseguente le previsioni deducibili da essa. Quindi, l’implicazione che funge da premessa maggiore del sillogismo ipotetico disgiuntivo falsificante è già il risultato di un’operazione logica di deduzione, che io ho messo esplicitamente tra parentesi, concentrandomi sull’apparato logico complessivo del metodo deduttivo dei controlli. Ciò che qui rappresenta quell’implicazione, è un’asserzione del tipo: potendo prevedere, in base alla mia teoria e seguendo tutta una serie di passi successivi, questo fenomeno particolare controllabile, anche la mia teoria nel suo complesso è controllabile, ossia falsificabile: quindi soddisfa il principio di demarcazione ed è conseguentemente una teoria empirica. Qui non si dice niente più di questo. Il modus tollens, insomma, è solo l’ultimo di una serie di passaggi deduttivi che hanno altre forme, spesso quella del modus ponens: giusto il modo ponens, infatti, se la teoria è vera, ogni sua conseguenza rigorosa deve essere vera. D’altro canto, se si dimostra che una conseguenza è falsa, anche la teoria è falsificata. E questa dimostrazione avviene tramite il confronto con l’esperienza: perciò, dice Popper, il modus tollens così configurato è la sola inferenza deduttiva che proceda nella direzione induttiva, cioè dal singolare all’universale.
Tornando alle possibili obiezioni al metodo deduttivo, notiamo che oltre alla possibilità dell’inserimento di ipotesi ad hoc, atteggiamento strumentale e non veramente scientifico, si presenta un altro problema, quello cosiddetto della “base empirica”. Come abbiamo visto sino ad ora, tutte le questioni circa l’esperienza, l’induzione e così via sono affrontate in termini logici: il che vuol dire che si ragiona sempre su asserzioni e mai ontologicamente. Di conseguenza, anche il metodo deduttivo dei controlli si trova ad affrontare un’aporia squisitamente gnoseologica: quella circa il rapporto tra asserzioni singolari e realtà. In altri termini, Popper nota che per la falsificazione di una teoria abbiamo bisogno di asserzioni singolari dedotte da essa, le quali devono servire come premesse di inferenze falsificanti. È proprio la possibilità di dedurre asserzioni di questo tipo che rende una teoria empirica e dunque scientifica. In questo modo, però, si sposta la questione circa l’empiria della teoria verso quella circa il carattere empirico delle asserzioni singolari. Come è connessa l’asserzione di un fatto singolo con la realtà, che dovrebbe costituire appunto la sua base empirica? Questa è una domanda centrale dell’empirismo classico e rappresenta il nucleo della teoria della conoscenza in quanto esperienza.
Popper inizialmente affronta in maniera sintetica il tema, ammettendo che medium tra proposizioni singolari e realtà è la percezione: le asserzioni-base vengono asseverate o confutate tramite esperienze percettive intorno ai fatti che descrivono. Da un punto di vista strettamente logico, però, un’asserzione può giustificarsi solo tramite altre asserzioni, e non tramite il rimando all’esperienza. Prima di vedere come Popper affronti questa aporia, chiariamo un po’ i suoi elementi: in sostanza, la questione è che si cerca una base reale per la conoscenza scientifica e questa base non può trovarsi sul piano dell’universalità delle leggi, poiché non è logicamente possibile indurre dai casi singoli alla generalità. Quindi il punto di contatto con l’essere deve collocarsi al livello delle asserzioni singolari deducibili dalla teoria: deduzioni delle quali sarebbe possibile indagare tanto la verità, quanto la falsità. Nel secondo caso, l’intera teoria è falsificata, mentre nel primo essa è solamente non-ancora-falsificata, ma non per questo verificata. Ora, il problema che pone Popper è precisamente quello relativo alla verificabilità o falsificabilità delle asserzioni singolari ed è un problema logico: è possibile che un’asserzione sia controllabile in base a qualcosa che non ha statuto logico, come un’esperienza o direttamente la struttura del reale? Il che non è altro che domandarsi, da una posizione apparentemente distante eoni da quella ove questo problema è nato, qual è la relazione tra pensiero ed essere, in che modo ciò che è raccolto nel logos rispecchia ciò che vige nell’essere. Questa domanda, peraltro, è già celata nella questione del significato, che è proprio per questo un punto centrale tanto nella teoria neopositivista, quanto nella sua critica da parte di Popper. Come dicevamo, il significato di una proposizione è visto nella sua verificabilità o falsificabilità, quindi nella sua possibilità di essere controllata: appunto, nel fatto che può essere messa a contatto con il reale, per mostrare la sua verità o falsità. Il problema del significato, dunque, così come quello della base empirica, non è altro che una variante del problema della verità: in che modo il logos può essere vero, ossia adeguato alla cosa? Che senso ha questa stessa adaequatio, ossia come può adeguarsi qualcosa che ha natura e struttura linguistica con le cose tangibili e concrete?
Se è vero che i problemi centrali dell’epistemologia sono quello dell’induzione e quello della demarcazione, se è vero che a questi problemi si risponde con teorie del significato e della controllabilità di asserti, se è vero, infine, che tutto ciò finisce per condensarsi nella questione circa il rapporto tra proposizioni singolari e fatti, vediamo chiaramente che la questione onto-logica in senso stretto, ossia del rapporto tra essere e pensiero, racchiude il nucleo problematico dell’epistemologia.
Conseguentemente, comprendiamo che le enormi difficoltà dell’epistemologia sono da rinvenirsi precisamente nella concezione di una natura strettamente logica delle asserzioni della scienza. Come dicevamo prima, infatti, un’asserzione-base deve essere controllabile tramite le esperienze percettive, che a loro volta istituiscono un rapporto complesso con la realtà. Ma, d’altro canto, in termini logici, solo una proposizione può controllare una proposizione. Ora, il vero problema è precisamente questa limitazione di principio, che equivale a sottrarre preliminarmente ogni carattere ontologico al logos: se la verità di un’asserzione, infatti, risulta solo dalla relazione di questa con altre asserzioni, ciò vuol dire che una proposizione non enuncia niente sul reale, ma istituisce esclusivamente relazioni tra enti logici. Se le cose stanno così, però, il problema della base empirica, così come quello della demarcazione, risultano irrisolvibili, poiché nella loro formulazione è presente un’aporia indissolubile: la contraddizione tra la pretesa di un riferimento al reale degli enunciati della scienza e la natura strettamente logica, ossia esplicitamente non ontologica, degli stessi.
Il neopositivismo, ovviamente, non ha mai affrontato in modo così metafisico, e dunque privo di senso, la questione, che infatti non ha risolto né compreso completamente. Di certo, però, nella sua formulazione è retrocesso di molto rispetto alla soluzione aprioristica kantiana: in Kant, infatti, il legame tra giudizi e realtà è assicurato sin dall’inizio grazie alla struttura trascendentale di spazio e tempo: le forme trascendentali dell’esperienza forniscono dati immediatamente trattabili dal punto di vista logico, per quanto dati relativi solo ai fenomeni e non ai noumeni, ossia alle cose in sé. Questo, però, era un limite di poco conto, considerato che le cose interessano il sapere scientifico solo nella misura in cui, appunto, possono entrare in relazione con la conoscenza e quindi non sono già più in sé. A ciò corrisponde, in Kant, una distinzione tra i modi della logica: da quella formale, che tratta solamente delle relazioni tra enti logici, a quella trascendentale, che come analitica tratta appunto delle relazioni tra categorie e dati fenomenici (o, nel caso dell’uso speculativo della ragione, ossia nella dialettica trascendentale, delle relazioni tra categorie e noumeni).
La logica dei neopositivisti, invece, comprende solo la logica formale e si sottrae sin dal principio, quindi, alla possibilità di articolare i termini della relazione onto-logica.
Vediamo, adesso, come Popper articola l’argomento: egli si riferisce innanzitutto, come gli abbiamo visto già fare, alla distinzione tra considerazione psicologica e logico-metodologica. Questa distinzione corrisponde a quella tra esperienze soggettive e sentimenti di convinzione, da un lato, e le relazioni logiche oggettive tra sistemi di asserzioni scientifiche, dall’altro. L’esperienza soggettiva, pur se accompagnata dalla convinzione circa il suo contenuto, è insufficiente a giustificare un’asserzione, mentre ciò non sarebbe il caso delle relazioni logiche oggettive. Ma cosa sono queste relazioni? In che senso qui Popper parla di oggettività, intendendo in qualche modo confermare che queste asserzioni hanno a che fare con un oggetto reale e sono adeguate ad esso?
Di fronte a questo problema della distinzione tra oggettivo e soggettivo, che ha una lunga tradizione all’interno della storia della filosofia, Popper fa ricorso ancora una volta a Kant e precisamente alla sua Methodenlehre, la teoria del metodo, che è l’ultima parte della Critica della ragion pura, parte nella quale si traggono in qualche modo le somme del discorso relativamente alle questioni proprie della ricerca scientifica. Non approfondiamo qui i limiti della ripresa kantiana, ma vediamo subito come configura il suo discorso Popper: in buona sostanza, egli ammette una definizione in qualche misura convenzionalistica del concetto di oggettivo: “l’oggettività delle asserzioni della scienza risiede nel fatto che esse possono essere controllate intersoggettivamente”. Quindi, è la comunità scientifica nel suo complesso che rappresenta il soggetto di queste asserzioni e che sancisce la loro oggettività, laddove vi sia accordo al riguardo.
A Kant, però, non risale solo questa definizione, destinata ad avere tanto successo, se pensiamo al fatto che oramai l’equazione tra oggettivo e intersoggettivo è patrimonio stabile dell’epistemologia; ma anche la annotazione che, affinché vi sia anche solo la possibilità di questo tipo di oggettività, è necessario che alla base delle asserzioni oggettive vi siano teorie e leggi di tipo universale. Infatti, il controllo intersoggettivo è legato alla ripetibilità degli esperimenti, destinati a mettere in luce regolarità precisamente quantificate. Intersoggettivamente oggettive, dunque, non sono le constatazioni di singoli fatti, ma le ipotesi generali intorno a leggi di natura controllabili a piacere e nelle forme, situazioni e luoghi più disparati, da chiunque possieda la necessaria preparazione. La constatazione del singolo fatto, invece, rimane legata al qui ed ora e non è controllabile da tutti, poiché avviene una sola volta.
Questo elemento è decisivo, poiché in base ad esso Popper nega che vi siano realmente, nella scienza, proposizioni elementari o asserzioni-base, la cui oggettività sia talmente evidente che esse non vadano sottoposte a controllo. Parlando dei modi della deduzione e dell’induzione, notavamo come in entrambi i casi vi è un’esigenza logica di chiudere il processo dell’inferenza tramite la posizione di proposizioni prime, dalle quali parte l’intera sequenza del ragionamento. Nei modelli deduttivi, sono primi gli assiomi più universali, che si pongono come immediatamente evidenti alla ragione e quindi non bisognosi di deduzione della loro verità. Nei modelli induttivi, invece, sono prime le proposizioni elementari che riferiscono intorno ai fatti dell’esperienza: come vedevamo prima, però, questo riferimento è onto-logico e quindi aporetico in una visione logicista rigorosa. Detto altrimenti: le proposizioni-base non possono essere oggettive nel senso classico del termine (come espressione adeguata al fatto reale in sé), poiché hanno un’evidenza solamente psicologica e questa non è ritenuta sufficiente. L’oggettività possibile è solo quella del controllo intersoggettivo, il quale, però, non può avere a suo oggetto l’affermazione di un caso singolo, dunque una proposizione atomica, ma necessariamente solo un’asserzione dotata di una certa generalità: anche le proposizioni che hanno un contenuto immediatamente traducibile in termini di empiria, insomma, non sono del tutto singolari, esprimendo sempre una qualche regolarità e quantificabilità costante, quindi un universale.
È questo il senso in cui Popper scrive (p.30): “le asserzioni che appartengono alla base empirica della scienza devono essere a loro volta oggettive, devono cioè poter essere sottoposte a controlli intersoggettivi. Tuttavia la controllabilità intersoggettiva implica sempre che dalle asserzioni che devono essere controllate si possano dedurre altre asserzioni controllabili. Così, se le asserzioni-base devono a loro volta poter essere sottoposte a controlli intersoggettivi, non possono esserci, nella scienza, asserzioni definitive”, non passibili di controllo e quindi di falsificazione.
Bene: qual è allora il quadro finale della struttura del metodo deduttivo dei controlli? “I sistemi di teorie si controllano deducendo, da essi, asserzioni dotate di un livello di universalità più basso. A loro volta queste asserzioni, che devono poter essere sottoposte a controlli intersoggettivi, devono poter essere controllate in maniera analoga, e così via all’infinito”.
Espressa in questi termini, la tesi di Popper sembra molto poco condivisibile, poiché evidentemente del tutto contraria a ciò che nella scienza ci si aspetta dagli esperimenti. Ma intendere la cosa in questo senso, significa aver dimenticato la distinzione di principio tra piano descrittivo e piano metodologico: ciò che infatti qui Popper richiede, non è che la base empirica sia di fatto infinitamente soggetta a controllo (cosa che evidentemente impedirebbe qualsiasi sintesi e sviluppo della scienza), ma ragiona nei termini del criterio di demarcazione, e richiede dunque che una teoria possa essere definita scienza empirica, se le sue asserzioni hanno una forma logica da essere potenzialmente controllabili intersoggettivamente. Una scienza, in altri termini, è empirica se controllabile, non se è controllata, poiché se così fosse non sarebbe mai del tutto empirica, visto che il processo di controllo è infinito: Ciò, in ultima analisi, riposa sulla circostanza, che abbiamo ripetuto molte volte, che nessun numero finito di verifiche singole è in grado di verificare asserti universali. Quindi, è del tutto naturale che il metodo deduttivo dei controlli non ammetta un esito finale del controllo, ma richieda solo la controllabilità come stigma dell’empiricità di una scienza, che rimane dunque sempre potenzialmente esposta alla falsificazione. L’edificio concettuale della scienza, in altri termini, non è costruito su verità ultime e indiscutibili, ma è una struttura logica che deve ammettere sempre la possibilità di un controllo di ogni sua singola asserzione, da quelle più universali a quelle più particolari. Finché regge ai controlli, rimane stabile; quando fallisce, necessità di una correzione: la falsificazione, dunque, come cominciamo a vedere, è uno dei motori del progresso scientifico, poiché crea le situazioni che richiedono modifiche e miglioramenti, situazioni che verrebbero a mancare, se si ponessero al di fuori della possibilità di controllo le fondamenta di questo edificio.

Affrontando il problema della base empirica, abbiamo cominciato a vedere in che senso l’epistemologia, come logica della conoscenza scientifica, è in primo luogo analisi dell’esperienza, per quanto questa esperienza non si configuri affatto come osservazione immediata ed abbia come suo vero soggetto non il singolo scienziato, bensì l’intera comunità scientifica. La seconda parte del libro è intitolata significativamente proprio Alcune componenti strutturali di una teoria dell’esperienza. Questa teoria, però, è metodologica, ossia esplicitamente non psicologica: l’esperienza non viene considerata con l’intento di comprendere le strutture fisiologiche della percezione che la rendono possibile, né quelle mentali della elaborazione delle percezioni. L’esperienza, invece, viene considerata innanzitutto nella forma che acquisisce all’interno della scienza, ossia come insieme di teorie intorno alla natura: conseguentemente, l’epistemologia come teoria dell’esperienza è una teoria delle teorie, ossia una logica delle asserzioni universali che le costituiscono.
Come vedete, Popper considera immediatamente l’esperienza nella sua realizzazione linguistica e non percettiva: e, sostenendo una concezione simbolica del linguaggio, ritiene ogni espressione linguistica come intrinsecamente teorica, quindi sostanzialmente universale, mai singolarizzabile del tutto: come notavamo già, ciò corrisponde a negare la possibilità di asserzioni realmente atomiche. Eppure, nel suo costrutto, sono ovviamente da distinguersi le proposizioni universali che costituiscono le ipotesi fondamentali di una teoria, dalle asserzioni relative a configurazioni fenomeniche determinate, asserzioni che egli chiama comunque singolari, per quanto rifiuti che vadano intese come immediatamente aderenti al qui e ora del fatto singolo. La spiegazione causale, che è lo scopo della scienza, è articolata, in effetti, come una deduzione la cui premessa maggiore sono le leggi universali e la cui premessa minore sono asserzioni singolari relative alle condizioni iniziali di ciò che va esplicato.
Sulla questione della causalità torneremo più avanti, dovendo ora concentrarci sugli elementi logici costitutivi di questa deduzione. In primo luogo, vediamo in che senso e perché Popper, a differenza di quanto avviene nella logica formale, distingua tra universalità stretta e universalità numerica. Le leggi di natura, egli dice, sono strettamente universali, mentre le proposizioni numericamente universali sono, in realtà, equivalenti a congiunzioni di asserzioni singolari. Per comprendere questa differenza, però, dobbiamo rifarci all’uso invalso nella logica formale moderna di esprimere con quantificatori o operatori il tipo delle variabili contenute in una funzione enunciativa. Abbiamo detto che l’implicazione è una relazione tra due proposizioni, per cui “se p, allora q”, corrisponde in realtà a “se A è B, allora C è D”. Sulla base di questo schema, possiamo esprimere tramite operatori un gran numero di proposizioni. Prendiamo gli esempi che fa Popper: “Per tutti gli oscillatori armonici, è vero che la loro energia non cade mai al di sotto di una certa quantità”; e poi: “Per tutti gli esseri umani ora viventi sulla Terra, è vero che la loro altezza non supera una certa misura”. Come vedete, queste espressioni sembrano piuttosto pleonastiche, poiché potremmo sostituire la prima dicendo semplicemente che l’energia degli oscillatori armonici etc., e la seconda dicendo che i contemporanei non sono alti etc. Invece leggiamo, “per tutti …, è vero che …”. Questo “per tutti” corrisponde in effetti a ciò che in logica formale vale come quantificatore universale, che esprime semplicemente il fatto che le variabili che ricorrono nelle funzioni enunciative sono riferite a classi e non a singoli individui. E l’espressione corretta logicamente di quelle proposizioni sarebbe ancora più pleonastica: “Per ogni x, se x è un oscillatore armonico, allora l’energia di x non cade mai al di sotto di una certa quantità”. E ancora: “per ogni x, se x è un uomo attualmente vivente sulla terra, allora l’altezza di x non supera…”. Come vedete, sostituendo con simboli queste espressioni, abbiamo formule uguali, che usano lo stesso quantificatore universale e quindi appaiono dello stesso grado di universalità. Ciò che nota, però, Popper, è che non è di fatto così, poiché nel primo caso abbiamo a che fare con un’asserzione che pretende di essere vera sempre e ovunque, mentre nel secondo caso, l’asserzione è riferita ad una classe finita e determinata spazio-temporalmente, quindi particolare, una classe che è potenzialmente enumerabile. In funzione di ciò, è possibile esprimere quell’asserzione come congiunzione di un numero finito di proposizioni singolari.
Ora, e qui troviamo il senso di questo discorso, se effettivamente ogni espressione logica in cui ricorre un quantificatore universale fosse dello stesso tipo e, in realtà, del secondo tipo, ossia numericamente universale, si potrebbe ritenere possibile l’enunciazione di un principio di induzione: come dicevamo, infatti, già Aristotele riteneva perfetta l’induzione basata sull’enumerazione completa dei casi. Ma laddove tale enumerazione sia possibile, abbiamo a che fare con asserti particolari e non universali. In realtà, quindi, Popper cerca qui di recuperare un concetto di “particolare” che la logica formale ha in qualche misura espunto dal suo impianto. Concetto di particolare, che non è riducibile ad una somma finita di singolarità, ma alla partizione determinata e determinabile di un universale. Per spiegare ciò che voglio dire, torniamo sul secondo esempio, così come espresso tramite quantificatore universale: “per ogni x, se x è un uomo attualmente vivente sulla terra, allora l’altezza di x non supera una certa misura”. L’incipit di questa proposizione corrisponde, di fatto, a “per ogni singolo uomo attualmente vivente sulla terra”. Questa espressione sembra chiarire che abbiamo a che fare con una somma finita: posso considerare la frase come il risultato di una sequenza di frasi dello stesso ordine logico e del tipo: “l’altezza di Nicola Russo non supera questa misura”; “l’altezza di Pinco Pallino etc.”, ossia proposizioni singolari. Di fatto, però, non è così: da quell’elenco, anche se lo compissimo per intero, non sarebbe veramente deducibile quella proposizione, poiché in essa ricorre il termine universale uomo, che non corrisponde a la sequenza dei nomi “nicola russo” e così via. Anzi, a ben vedere, questo universale è anche la condizione di possibilità dell’enumerazione: dobbiamo sapere cos’è uomo, per andare a misurare l’altezza di tutti gli uomini attualmente sulla terra. E questo è uno dei sensi nel quale Popper ritiene impossibili le proposizioni assolutamente singolari: già nel nome, è implicita la classe universale, che non può risultare quindi, come si vorrebbe, dalla semplice somma dei singoli: detto altrimenti, c’è individuo, l’idea stessa di individuo, poiché c’è classe e non viceversa.
Eppure ci sono gradi di universalità e, in particolare qui, la possibilità di un’universalità numerica: questa possibilità è realizzata dalle specificazioni che nella logica formale sono riassorbite nel soggetto e che invece rappresentano una predicazione particolare, che particolarizza il genere: “tutti gli uomini viventi ora sulla terra”, infatti, non è riducibile a un semplice quantificatore universale a una variabile “per ogni x..., se x è un uomo attualmente vivente sulla terra”, contenendo già in sé altri due enunciati: “per ogni x, se x è un uomo E se x è attualmente vivente E se x abita la terra, allora…”. Questi enunciati, come vedete, corrispondono alla determinazione spazio-temporale del genere superiore, quindi ad una sua partizione: di conseguenza, “per ogni x..., se x è un uomo attualmente vivente sulla terra” è concetto particolare e non strettamente universale, ove particolare non corrisponde minimamente a insieme finito di singolari, ma appunto alla delimitazione di un universale.
Popper, al riguardo, è meno rigoroso di Aristotele, poiché tende a presentare in senso appunto numerico, e non logico, la differenza tra proposizioni universali e particolari: determinante, per lui, è il numero dei singoli che corrispondono a una classe, potenzialmente infinito nel caso delle proposizioni universali, sostanzialmente finito nel caso di quelle solo numericamente universali o particolari. Questo, che a mio parere è un difetto del suo argomento, emerge chiaramente quando egli contrappone all’enumerabilità del caso particolare, l’innumerabilità di quello universale: se possiamo considerare ogni singolo uomo attualmente vivente sulla terra, non possiamo invece considerare ogni singolo oscillatore armonico, in ogni luogo e in ogni tempo, se non, aggiunge Popper, assumendo “che il mondo è limitato nel tempo e nello spazio e che in esso esiste soltanto un numero finito di oscillatori”. Questa assunzione è metafisica e quindi non viene presa in considerazione, il che in qualche modo salva l’idea di universalità stretta. A ben vedere, però, la questione non ha niente a che fare con il numero dei singoli oscillatori, che può benissimo essere finito, senza che per questo venga meno il senso dell’universalità del concetto. In altri termini, come dicevamo prima, il concetto di oscillatore armonico è ciò che rende ogni singolo oscillatore armonico individuo della classe degli oscillatori armonici, finita o infinita che sia, e non è invece la somma degli individui che costituisce la classe. L’argomento circa il difetto dell’induzione, quindi, andrebbe espresso in questi termini, e non facendo riferimento all’infinità potenziale dei casi singoli. In altre parole: è illegittimo inferire dal singolare all’universale, non tanto, come abbiamo visto ripetere spesso a Popper, perché non possiamo enumerare infiniti casi singoli, quanto perché il singolo ha senso precisamente solo in riferimento al genere universale che lo qualifica come l’individuo che prendiamo in considerazione in quanto tale. Da questo punto di vista, la teoria dell’induzione perfetta di Aristotele acquista un altro senso: laddove l’enumerazione è possibile, ossia si ha a che fare con una classe particolare finita, i suoi risultati sono conclusivi, ma non rappresentano affatto un passaggio dal singolare all’universale e, in fondo, neanche al particolare in senso proprio: in effetti, l’universale e la sua particolarizzazione sono il presupposto dell’enumerazione completa e non il risultato.
Come che sia, la tesi di Popper è certamente preferibile alla cancellazione completa della differenza tra singolare e universale, per non parlare della perdita di senso del concetto di particolare, ottenuta tramite un uso minimale del concetto di classe o insieme. Contro questa riduzione, egli intende le leggi della natura come strettamente universali e non solo numericamente: anche se, poi, la sua spiegazione in termini di differenza tra finito ed infinito risulta debole a giustificare questo assunto se non in maniera convenzionale: “La questione se le leggi della scienza siano strettamente o numericamente universali non può essere risolta in base al semplice ragionamento. Si tratta di una di quelle questioni che possono essere risolte soltanto sulla base di un accordo o una convenzione. E dal punto di vista della situazione metodologica… io ritengo utile e fruttuoso il considerare le leggi universali come asserzioni sintetiche e strettamente universali”, quindi non verificabili induttivamente (p. 48).
Questo riferimento, qui, alla convenzionalità del metodo appare in qualche modo debole e tale da inficiare tutta la discussione preliminare che Popper ha compiuto sul problema dell’induzione: sembra quasi che il punto di vista acquisito tramite la critica all’induttivismo e poi utilizzato per la configurazione del metodo deduttivo dei controlli come criterio di demarcazione, finisca per riconoscersi come esso stesso conseguenza di quel metodo, piuttosto che come sua premessa. Questo vizio dell’argomento è in parte inevitabile, in parte apparente. Inevitabile, nella misura in cui la posizione di Popper è organica e quindi ogni sua parte dipende dalle altre, dimodoché la sua esposizione lineare è necessariamente circolare (e questo avviene in tutti i casi analoghi). Apparente, poiché Popper ha ben chiaro il presupposto della distinzione tra proposizioni universali, particolari e singolari, che non è un presupposto proprio della logica proposizionale, all’interno della quale infatti manca questa differenza, bensì è legato alla differenza tra concetti universali e individuali. Ciò che contraddistingue, infatti, le proposizioni singolari, che come previsioni sono cruciali per il controllo di una teoria, è che in esse è necessaria la presenza di concetti individuali o nomi.
In questo modo, come vedete, siamo riportati dal piano proposizionale dell’analisi logica a quello concettuale. Una proposizione universale non contiene nomi, che invece sono necessari per ogni proposizione singolare, almeno sotto forma di coordinate spazio-temporali. Sottolineiamo che Popper parla di coordinate, e non di spazio e tempo in generale, ossia non di quelle essenze o forme trascendentali che, per esempio in Schopenhauer, per il tramite di Kant, fungono da principio di individuazione. Dire coordinate significa intendere che un certo luogo e un certo tempo sono descrivibili solo in grazia di nomi individuali e non in termini assoluti. La posizione di Popper, si comprende, è qui del tutto relativistica: le coordinate sono sempre relative ad un punto convenzionale di riferimento, che è un luogo e momento individuato: Popper parla di Greenwich e della nascita di Cristo, ma in realtà il punto di riferimento spazio-temporale, ciò che individua un fenomeno e quindi rende possibile una previsione singola, è l’apparato sperimentale. Su di ciò torneremo, ma è importante notarlo da subito: il vero riduttore delle proposizioni universali, ciò che le singolarizza e dunque rende le teorie scientifiche passibili di controllo, quindi empiriche e oggettive (nel senso di intersoggettive), non è affatto la singolarità dell’evento, che non deve essere infatti singolare, ma la concretezza e individuabilità dell’apparato deputato all’osservazione. Individuabilità, e non individuazione una volta per tutte: l’importante è che la teoria contenga le regole per l’allestimento dell’apparato che individua un’esperienza, già nel senso che la colloca spazio-temporalmente.
Torniamo però ora alla distinzione tra concetti universali e nomi individuali: Popper ammette in questa categoria dei nomi individuali anche i nomi di certe classi, quindi concetti che l’antica logica definiva particolari. In effetti, individuali, rispetto ad un concetto universale, non sono solo gli elementi singoli della sua classe, ma anche le sue sottoclassi definite tramite nomi propri: Popper fa l’esempio del suo cane Lux, che è elemento sia della classe universale dei mammiferi, sia di quella particolare dei cani viennesi. In realtà, questo tipo di argomento non è altro che una versione nei termini della logica delle classi della distinzione aristotelica tra genere e specie, con una differenza evidentemente fondamentale: nei termini aristotelici, questo tipo di sottoclassi sono specie solamente accidentali del genere superiore, nel senso che non corrispondono ad una dipendenza ontologica, ma solamente convenzionale. È ancora sulla base della riduzione alla pura logica, che si può istituire un rapporto tra classe e sottoclasse fra termini come “mammiferi, cani austriaci e cani viennesi”: quando è evidente che, soprattutto per i cani, l’attributo di essere austriaco o viennese non ha un senso realmente definitorio della loro essenza, ma è appunto qualcosa di tutto sommato esteriore e casuale. Ciò che va notato è, comunque, che è possibile determinare un universale tramite nomi propri: cani viennesi significa cani che vivono a Vienna, il nome proprio di una città singola: cani viennesi, quindi, come nome di una sottoclasse, è concetto individuale e non universale, concetto che rientra in proposizioni di tipo numericamente universale. Il che equivale a dire che la classe dei cani viennesi è una classe particolare e costituita da un numero finito di elementi.

L’epistemologia, come abbiamo detto, è analisi dell’esperienza. L’esperienza ha uno statuto teorico e vige nel discorso della comunità scientifica. Ha dunque una natura linguistica, come teoria le cui asserzioni hanno sempre un certo grado di universalità e non possono mai essere completamente atomiche. Se ciò è vero, è d’altro canto necessario per il metodo deduttivo dei controlli distinguere gradi di universalità, in modo da poter pensare la deduzione di previsioni dalle leggi universali. Il problema che si pone immediatamente, dunque, è quello dello statuto logico delle premesse maggiori e minori del modus tollens.
Come ho cercato di spiegare, tutta l’operazione di Popper può essere vista come un tentativo di recuperare, per quanto modificato, il momento di mediazione tra universale e singolare, ciò che nella logica proposizionale è il giudizio particolare e nella logica concettuale è la specie rispetto al genere. Ciò avviene sulla base della distinzione tra universalità stretta e universalità numerica, distinzione non più possibile entro la logica formale moderna, che tramite l’uso di quantificatori universali tratta le due possibilità mediante uno stesso formalismo. La tesi di Popper, invece, è che vada distinta l’universalità stretta, propria di enunciati che valgono in ogni tempo e in ogni luogo e relativamente a qualsiasi elemento di un genere; e l’universalità numerica, che vale in condizioni spaziotemporali date e per sottoclassi, potenzialmente finite, di generi.
La finitezza del numero di elementi di una classe, su cui Popper si concentra, è ciò che dovrebbe garantire la possibilità dell’enumerazione dei singoli elementi e quindi legittimare un principio di induzione: come notavamo, però, questa tesi è insufficiente, poiché anche una sottoclasse finita è del tutto definita dalle determinazioni dell’universale, dalla sua particolarizzazione, e quindi il singolo continua a essere tale in quanto elemento di quella classe, mentre non è possibile intendere la classe costituita dalla somma di singoli.
Già da questo è evidente che il discorso intorno all’universalità di una proposizione deve essere affrontato nei termini dell’universalità del concetto: non è semplicemente la forma della proposizione, ossia il quantificatore che la qualifica come universale o esistenziale, ma è il grado di universalità propria al soggetto della proposizione che determina il grado di universalità della stessa.
Conseguentemente il discorso di Popper si sposta sulla distinzione tra concetti universali e nomi individuali. Questi ultimi possono essere nomi propri o contribuire alla formazione di nomi di sottoclassi numericamente universali, per lo più stabilendo coordinate spazio-temporali. In tal modo, abbiamo anche su questo piano un’articolazione triadica, con l’inserimento di un medio tra il concetto universale (genere) e il nome proprio, medio che risulta dalla particolarizzazione del primo tramite il secondo: cani viennesi.

Il primo risultato del discorso, dunque, è che anche concentrandosi sulla logica concettuale e con l’intenzione di distinguere concetti universali, ossia quelli che possono essere definiti senza ricorso a nomi propri, e concetti singolari, nei quali invece ricorrono nomi propri, si finisce per recuperare il medio del particolare, che è di volta in volta la sottoclasse di ciò che viene assunto come generalmente universale. Per andare sul concreto: è precisamente il particolare che enuncia le caratteristiche proprie di un ente singolare: particolarizzando successivamente la classe dei mammiferi, per esempio, si giunge alla sottoclasse dei cani, poi di quelli austriaci (partizione qui ovviamente solo logica, e non tassonomica, zoologica), poi di quelli viennesi, infine di quelli presenti qui ed ora, ossia il cane Lux. Ciò che però è fondamentale rimarcare, è che l’elemento singolo è sì caratterizzato dalla somma dei particolari del suo genere, ma mai integralmente definito da essa. In questo senso vanno lette le righe a p. 52: “Il tentativo di identificare un oggetto individuale unicamente per mezzo delle sue proprietà e delle sue relazioni universali [qui si parla ovviamente delle specie particolari] che sembrano appartenere soltanto ad esso e a nient’altro, è destinato al fallimento. Un procedimento di questo genere non descriverebbe un oggetto individuale singolo, ma la classe universale di tutti quegli individui a cui appartengono queste proprietà e relazioni. Anche l’uso di un sistema universale spazio-temporale di coordinate non cambierebbe nulla. Infatti, rimarrà sempre aperta la questione se esistano cose individuali che corrispondano a una descrizione fatta per mezzo di nomi universali e, posto che esistano, quante siano”. Quello che Popper vuol dire, è che una descrizione per mezzo di nomi universali non identifica un singolo, ma appunto una classe, anche se tale da contenere di fatto un unico individuo: in linea di principio, infatti, essa contiene tutti gli individui siffatti e mai un qualche “questo” in particolare. È dunque impossibile individuare un elemento singolo solo nominando le diverse classi cui appartiene, il che equivale a dire che il nome proprio è irriducibile a nomi di generi.
Insomma, qui si afferma senz’altro che la definizione, proprio nel senso aristotelico, è classificazione e non individuazione, ossia è sussunzione del singolare nel particolare e nell’universale e non deduzione del singolare dall’universale. Un singolare che fosse immediatamente definibile in termini universali sarebbe un’essenza semplice nel senso aristotelico, ossia qualcosa di puramente speculativo.
In definitiva, si chiarisce anche su questo piano di logica concettuale che la deduzione non giunge mai ad una perfetta singolarizzazione, così come, d’altro canto, è impossibile la via inversa, il procedimento per astrazione dal singolare all’universale, ossia il pendant in termini concettuali di ciò che è l’induzione in termini proposizionali: infatti, nota Popper, se una classe è definita per astrazione è definita estensionalmente con l’aiuto di nomi individuali, e dunque è, a sua volta, un concetto individuale”, in realtà, più rigorosamente, un concetto accidentalmente particolare (per esempio: i generali di Napoleone). La critica è ancora rivolta al neopositivismo, che riteneva possibile giungere per astrazione a concetti universali, che anzi riteneva questo l’unico statuto dell’universale: essere sintesi di singolarità. Enumerando un certo numero di elementi, quindi, si arriverebbe a definire una classe, che è a sua volta elemento di una classe superiore e così via: da “I generali di Napoleone”, classe ottenuta nominando tutti i singoli, si passa a “i Generali di Francia” e così via fino a “i generali”, e poi a “i militari”, con un grado sempre maggiore di astrazione. Popper, quindi, notando che “I generali di Napoleone”, pur essendo effettivamente nome di una classe non è concetto universale, bensì individuale, nega la legittimità di procedere oltre con questo metodo di astrazione. Ciò che a mio parere manca di sottolineare è che un’espressione come “i generali di Napoleone” non è affatto un concetto, ma già una definizione, ossia un asserto di natura proposizionale: i generali, che servirono nell’esercito napoleonico: genere superiore, quindi, e differenza specifica. In questi casi, di cui stiamo parlando, la differenza specifica è costituita non da un carattere ontologico o intrinsecamente tassonomico (come “i generali di brigata”), bensì storico-esistenziale: tutti quei generali (e qui abbiamo l’elemento strettamente universale) che furono tali sotto Napoleone (e qui abbiamo il nome proprio). Di conseguenza, dobbiamo dire più correttamente, che non c’è rapporto possibile di astrazione o deduzione tra concetti universali e individuali, mentre è invece possibile che questi due tipi di concetti concorrano a formare una proposizione, che avrà un carattere particolare, come determinazione finita del genere. Ciò equivale a dire il concetto particolare è sempre concetto di relazione tra universale e singolare, non potendo sussistere di per sé. Ossia, la specie è sempre specie di un genere e ogni genere può essere specie di un genere superiore, sino al sommo genere: l’essere.
Sulla base di questa articolazione tra livelli proposizionale e concettuale, Popper riprende l’analisi dell’idea di teoria, come complesso di asserzioni articolatamente universali. Per fare ciò, ha bisogno essenzialmente, però, di una definizione positiva delle asserzioni universali, definizione che sinora non ha presentato, nella misura in cui sul piano concettuale si proponeva solamente una definizione in negativo: proposizioni universali sono quelle ove non compaiono nomi propri. Questa, a rigori, è infatti solo una condizione per l’universalità di un asserto, necessaria ma non sufficiente. Il motivo di ciò è che in una proposizione non vi sono solo gli elementi categorematici, ossia soggetto e predicato, bensì anche quelli sincategorematici. Con categorematico intendiamo ogni termine che dice qualcosa di per sé, ossia che è dotato di un significato indipendentemente da ogni connessione con altri termini: categoria significa originariamente affermazione. Sincategorematico, invece, è ogni termine che a sé è privo di significato e svolge una funzione solo in collegamento con altri termini, funzione che può essere sia strettamente logica (pensiamo alle congiunzioni e alle preposizioni), sia semantica (pensiamo agli avverbi). È soprattutto in questo secondo caso che una proposizione priva di nomi propri può tuttavia non essere strettamente universale. Per esempio: è evidente che “i corvi sono neri” è una proposizione universale, ma “alcuni corvi sono neri”, pur non contenendo nomi propri, è proposizione particolare; e “c’è un corvo nero” è proposizione esistenziale.
Abbiamo di nuovo due estremi: le proposizioni strettamente universali e quelle strettamente esistenziali: tra di loro, proposizioni particolari, che hanno un proprio statuto e una propria logica, ma che si cerca di ridurre a quelle due alternative estreme. Nel caso specifico del metodo deduttivo dei controlli, peraltro, è chiaro che Popper prediliga l’analisi dei due estremi, poiché essi sono elementi della sequenza logica del modus tollens: infatti, la negazione di un’asserzione strettamente universale è precisamente un’asserzione strettamente esistenziale: “non tutti i corvi sono neri” equivale a “c’è un corvo non nero”. Per converso, le asserzioni strettamente universali, come le leggi della natura, possono essere espresse come negazioni di asserzioni strettamente esistenziali, come asserzioni di non esistenza, come dice Popper. La legge della conservazione dell’energia può essere espressa dicendo che non esiste una macchina del moto perpetuo. Le leggi di natura, quindi, possono presentarsi come divieti o proibizioni, come negazioni della possibilità di qualcosa di positivo. E vi rendete conto che è proprio questo che ne consente la falsificabilità: basta, in altri termini, certificare la possibilità, anche in un solo caso, di ciò che esse negano. Basta l’esperienza espressa da una semplice proposizione strettamente esistenziale a falsificare una proposizione strettamente universale.
Ovviamente, d’altro canto, sempre per la menzionata asimmetria tra falsificabilità e verificabilità, un’asserzione strettamente esistenziale non può essere falsificata tramite il ricorso all’esperienza: una frase come “esiste un corvo bianco” non può essere confutata neanche dall’osservazione continua di corvi esclusivamente neri. Solo una teoria universale, altrimenti giustificata, può sancirne la falsità. Queste sono considerazioni che ci sono già familiari, per quanto vengano espresse qui nei termini meno usuali dell’universalità e dell’esistenzialità delle proposizioni. Ciò che emerge come conseguenza di questo discorso è comunque in parte inaspettato: proprio le proposizioni strettamente esistenziali, che sembrano essere più prossime a proposizioni elementari, atomiche e osservative, prese isolatamente sono in realtà del tutto non empiriche e addirittura metafisiche, poiché non falsificabili.
Ci rendiamo conto che dal punto di vista logico è effettivamente così, eppure la situazione non si presenta per questo in maniera meno paradossale: una frase come: “esiste almeno un tavolo bianco” è metafisica, nonostante ci appaia come immediatamente rispondente ad un’osservazione singola, quindi integralmente osservativa. Non dobbiamo però dimenticare, che il fondamento sul quale si regge l’epistemologia del novecento è precisamente, come abbiamo detto, la messa tra parentesi della questione ontologica: di conseguenza, non abbiamo modo di ritenere logicamente giustificata un’asserzione come “esiste almeno un tavolo bianco” in base al mero dato di fatto che vediamo questo tavolo bianco. Detto altrimenti, il fatto non è un argomento logico, per cui, se vogliamo costruire un edificio di asserzioni, non possiamo fare riferimento all’esperienza immediata. Se le cose stessero altrimenti, e questa era la tesi dei vecchi empiristi, una frase singolare come “esiste un tavolo bianco” non sarebbe falsificabile non perché metafisica, ossia non sottoponibile ad un completo controllo empirico, ma poiché è empiricamente vera. Ora, entrambe le posizioni sono in qualche modo problematiche, la prima escludendo l’adeguazione tra enti logici e cose, la seconda accettandola immediatamente. L’intenzione di Popper, al riguardo, non è tanto quella di sostenere radicalmente la prima posizione, che è stata per qualche tempo il programma del neopositivismo, quanto quella di intendere l’intera questione in maniera critica, sottolineando la problematicità dell’esperienza e optando per una soluzione metodologica.
Ma proseguiamo nel suo argomento, per vedere come esso si sviluppi verso una attenuazione del paradosso. In primo luogo, Popper sottolinea che nella scienza non sono mai presenti isolatamente asserzioni strettamente esistenziali, che possono farne parte solo nel contesto di ipotesi universali. Inoltre, a rigori, un’asserzione strettamente esistenziale non è contestualizzata spazio-temporalmente, per cui è diversa da un’osservazione in qualche modo ostensiva come “questo tavolo è bianco”. “Esiste almeno un tavolo bianco”, vale sempre e potenzialmente in ogni luogo, e non qui ed ora. È questa universalità spazio-temporale delle asserzioni puramente esistenziali che le rende metafisiche, poiché è impossibile un’osservazione estesa all’intera dimensione dello spazio e del tempo. È ovvio, che in casi particolari non c’è bisogno di un controllo così esteso, poiché ci basta trovare un tavolo bianco per ritenere l’asserzione singolare verificata, ma non esiste un criterio logico per controllare formalmente qualsivoglia asserzione esistenziale. In altri termini, data la forma delle asserzioni esistenziali “Esiste un A, tale che A è B”, non abbiamo la possibilità di formalizzare un metodo per il suo controllo a prescindere dal valore delle variabili. Per questo, sostanzialmente, l’asserzione esistenziale è logicamente metafisica, pur potendo essere in molti casi semplicemente verificabile empiricamente.
La situazione, peraltro, è perfettamente speculare rispetto a quella che vale per le leggi universali: poiché esse corrispondono logicamente alla negazione di asserzioni esistenziali. L’impossibilità di verificare un’asserzione come “tutti i corvi sono neri” è identica a quella di falsificare l’asserzione “esiste almeno un corvo non nero”. D’altro canto, all’inverso, le prime sono falsificabili e le seconde verificabili. In questo senso, e qui troviamo la chiave di volta, esse sono “in linea di principio empiricamente decidibili: tuttavia, ciascuna lo è in un solo modo; sono decidibili unilateralmente” (p. 57).
Si comprende, che questo equivale a stabilire un contatto tra espressione linguistica e realtà, un contatto però parziale, unilaterale: “tutte le volte che si trova che qualcosa esiste, o è esistito, si può verificare, su questa base, un’asserzione strettamente esistenziale, oppure falsificarne una universale”. La situazione paradossale si riduce qui al fatto che l’analisi epistemologica parte dall’asserto e poi cerca di metterlo in contatto con esperienze possibili, un contatto che esibisce limitate potenzialità di decisione rispetto ai diversi tipi di proposizioni. Non si parte dunque, come più naturale ingenuamente, dall’osservazione che questo tavolo è bianco per asserire che esiste almeno un tavolo bianco, procedimento che toglierebbe subito la pensabilità stessa della falsificazione di quell’asserto, poiché esso apparirebbe immediatamente verificato. Si parte invece da una qualche asserzione: se essa è esistenziale, “esiste un tavolo bianco”, risulta potenzialmente verificabile, ma non definitivamente falsificabile; se invece è universale, risulta potenzialmente falsificabile, ma mai definitivamente verificabile.
Che questa inversione dell’ordine tra realtà e parola intorno alla realtà non sia però incoerente e capziosa, lo dimostra la circostanza, che abbiamo spesso ripetuto, che in effetti la scienza non parte dall’osservazione di singoli fatti, bensì dal ragionamento intorno a leggi universali. Quindi, metodologicamente, essa deve disporre di criteri della decidibilità empirica dei suoi asserti, se vuole essere appunto una scienza empirica. E ciò che risulta da un’analisi critica delle condizioni di possibilità circa il confronto tra proposizioni e realtà è che questo confronto non è sempre definitivo.
Da ciò si evince l’estrema coerenza del costrutto popperiano, entro cui la decisione a favore del carattere universale delle leggi di natura si giustifica in maniera logicamente rigorosa: è l’equivalenza logica tra asserzioni strettamente universali e negazioni di asserzioni strettamente esistenziali, mai falsificabili, ma potenzialmente verificabili, che garantisce la controllabilità della teoria. Un sistema falsificato, in altri termini, è quello rispetto al quale si sia verificata un’asserzione strettamente esistenziale equivalente alla negazione di un’asserzione universale. La falsificazione passa per la verificazione.
Ovviamente, affinché ciò avvenga in maniera metodologicamente rigorosa, l’edificio della scienza deve essere organizzato in maniera sistematica, ossia deve essere possibile determinare in maniera univoca le premesse dalle quali si deducono le asserzioni strettamente esistenziali che vengono poi sottoposte a verifica. Però, ciò non trova ovviamente riscontro nella situazione storica, nella pratica scientifica quale effettivamente si dà, che prevede uno sviluppo non rigidamente sistematico del sapere, in continuo mutamento e a lunghi tratti distinto in un vasto numero di ricerche particolari, non sempre strettamente connesse. L’organizzazione del sapere scientifico, insomma, è generalmente posteriore alla sua acquisizione, ma è anche essa una costante storica: dalla scienza greca a quella moderna e poi contemporanea, ogni volta che un ambito del sapere è abbastanza sviluppato, si assiste al tentativo di dare forma sintetica ai principi e sistematica all’intero costrutto. Questa forma, nella tradizione occidentale, è generalmente quella dei sistemi assiomatico-deduttivi.
Nell’ottica di Popper, questo atteggiamento non risponde solo ad una tendenza totalizzante del sapere, alla pretesa di presentarsi come compiuto e perfetto, ma è anche un prerequisito fondamentale per la controllabilità dei suoi asserti e, cosa molto importante, per la determinazione degli assunti che vengono messi in crisi da esperimenti che verifichino previsioni falsificanti. In altri termini, è la sistematicità della teoria che permette di comprendere quale dei suoi assunti in particolare è falsificato per mezzo della verifica della negazione di una previsione. Inoltre, la forma compiuta di una teoria assicura che le eventuali ipotesi ad hoc siano riconoscibili come modifiche del sistema, che dunque, nella sua forma originaria, risulta comunque falsificato. A p. 57, infatti, leggiamo: “Ciò è estremamente necessario; infatti il controllo severo di un sistema presuppone che questo sia, nello stesso tempo, sufficientemente definito e abbia una forma definitiva, che renda impossibile che in esso vengano contrabbandate nuove assunzioni. In altre parole, il sistema deve essere formulato in maniera sufficientemente chiara e definita, così da rendere ogni nuova assunzione facilmente riconoscibile per quello che è: una modificazione, e quindi una revisione del sistema”.
In sintesi: la struttura assiomatico-deduttiva di una teoria assicura: il rigore logico nella deduzione delle previsioni, e quindi la capacità di distinguere le ipotesi fondamentali eventualmente falsificate. In tal modo, un’esperienza falsificante può non coinvolgere l’interezza del sistema, ma solo gli assiomi necessari alla deduzione della singola previsione. In secondo luogo, questa struttura è necessaria per smascherare l’introduzione di ipotesi ad hoc al fine di aggirare un’esperienza falsificante. In entrambi i sensi, risulta quindi decisiva per una corretta metodologia del procedimento deduttivo dei controlli.
Vediamo, quindi, molto in generale, qual è la natura di un sistema assiomatico-deduttivo. In funzione del fatto che esso nasce a posteriori, è l’organizzazione di un sapere già in parte formato, allo scopo di una sua esposizione deduttiva lineare a partire da principi primi. La natura di questi principi primi, gli assiomi appunto, è primariamente economica: in altri termini, essi vengono assunti come i più convenienti all’ordine dell’esposizione e non come i più veri, pur avendo la caratteristica intrinseca di non essere soggetti né a deduzione, né a controllo. In effetti, come abbiamo già detto, una sequenza di inferenze ha bisogno di un punto di avvio, che non è coinvolgibile nella sequenza stessa: esso deve essere ammesso come fondamento vero dell’argomentazione e quindi non può essere dimostrato da questa stessa argomentazione. Abbiamo anche già detto, che l’empirismo e il razionalismo classici hanno frequentemente tentato di fornire un criterio di verità per i principi primi: l’empiria, da un lato, e l’intuizione, l’anamnesi, le idee innate e così via, dall’altro. La differenza radicale di prospettiva nel pensiero di Popper, e in generale nelle concezioni più moderne dei sistemi assiomatici, è che non va presentata alcuna pretesa di verità preliminare dei principi primi, la cui adeguatezza va invece valutata a posteriori, in funzione delle conseguenze che ne derivano. Ciò che essi devono assicurare è solo la deducibilità logica di tutte le asserzioni della teoria che viene così organizzata. Essi devono quindi costituire la base di un sistema coerente e completo: un sistema è coerente, se esente da contraddizioni tra due qualsiasi proposizioni deducibili dagli assiomi; completo, se ogni sua proposizione è decidibile, in base ai criteri di verità propri al sistema stesso: ossia, se ogni proposizione costruibile nei suoi termini può essere qualificata come vera o falsa, nel nostro caso verificabile o falsificabile. (Notiamo incidentalmente che la possibilità di sistemi assiomatici al tempo stesso coerenti e completi viene negata dal teorema di Gödel, in esplicita opposizione a Hilbert, celebre matematico tedesco che aveva cercato di formalizzare la fisica teorica in termini di logica matematica: tentativo che Popper ritiene, invece, in parte riuscito).
Come che sia, la condizione alla quale un sistema assiomatizzato può essere coerente e completo è quadruplice, in relazione alle caratteristiche che devono essere soddisfatte dall’insieme degli assiomi. Il sistema di assiomi, infatti, 1) deve essere privo di contraddizioni, il che assicura che le sue deduzioni siano coerenti e discrete: sappiamo infatti, dal teorema dello pseudoscoto, che da una contraddizione può essere dedotto qualsiasi asserto; 2) deve essere indipendente, ossia ogni suo assioma deve risultare indeducibile dagli altri assiomi, e questo per diversi motivi: per esigenze di economia formale, poiché un assioma deducibile da altri assiomi non sarebbe proposizione prima, ma seconda, quindi apparterrebbe alla serie delle deduzioni; quindi, per evitare circoli nell’argomentazione: infatti, un assioma potrebbe essere usato per la deduzione di se stesso, il che finirebbe per rendere la teoria incoerente, almeno nel senso di essere ridondante e pleonastica, o addirittura vuotamente tautologica; 3) in terzo luogo, oltre a queste condizioni interne al nucleo degli assiomi, questi devono essere rispetto al complesso della teoria sufficienti, ossia bastare alla deduzione di tutte le proposizioni che costituiscono la teoria e 4) in ultimo devono essere allo stesso scopo necessari, ossia non superflui, sempre per esigenze di economicità.
In sintesi, le prime due condizioni sono relative alla coerenza del sistema, le altre due alla completezza. E, in ognuna delle due coppie, la prima condizione è relativa alla possibilità della deduzione, la seconda all’economia della stessa.
Fra le varie potenzialità che ha un sistema di questo tipo, Popper mette in evidenza una conseguenza importante relativamente al discorso sulla falsificazione: una teoria assiomatizzata può essere analizzata allo scopo di determinare da quale sottoinsieme di assiomi è deducibile una singola previsione, in modo tale che l’esito eventualmente negativo di un controllo non coinvolga l’intera teoria, ma appunto solo quel sottoinsieme di assiomi. Ciò apre la possibilità di non scartare l’intero costrutto teorico falsificato, ma di operare consapevolmente alla revisione di quella parte del sistema che è risultata insufficiente. Da ciò emerge quindi chiaramente, che anche nell’ottica di Popper la falsificazione non comporta immediatamente e sempre il collasso di una teoria, come di fatto non avviene storicamente: le previsioni errate, in altri termini, possono essere prese in considerazione con l’intento di una modifica parziale del sistema, che non sia, però, introduzione di ipotesi ad hoc. Al riguardo, proprio la struttura assiomatica deduttiva può rappresentare una garanzia: infatti, un’ipotesi ad hoc si situa generalmente su un basso livello di universalità, poiché il suo scopo è rendere una previsione singola o un gruppo limitato di previsioni falsificate coerente con il complesso superiore del sistema, laddove è evidente che la revisione di cui parla Popper deve interessare sempre anche una parte dell’insieme di assiomi, quindi almeno una delle asserzioni poste al più alto livello di universalità.
Da ciò emerge piuttosto chiaramente, e in maniera tutto sommato più semplice rispetto agli argomenti che usa Popper stesso nel paragrafo 17, la natura ipotetica, e non convenzionalistica, degli assiomi. Un assioma da cui sia deducibile una previsione falsificante è, in altri termini, un’ipotesi generale che si dimostra erronea e che va quindi sostituita. Solo inteso in questo modo, peraltro, il sistema assiomatico può essere la forma più idonea per l’espressione di una scienza empirica, poiché in tutti gli altri casi esso rappresenterebbe una struttura analitica e quindi non passibile di controllo.
Cosa si vuol dire con ciò? Assumendo, per esempio, la concezione razionalista classica, che interpreta gli assiomi come immediatamente veri, autoevidenti, certi, e così via, è chiaro che tutto ciò che è deducibile da essi ha carattere analitico e quindi è altrettanto vero. Ma anche se si sostiene la possibilità alternativa di considerare gli assiomi ammissibili per convenzione si rimane entro una logica analitica, poiché, come dice Popper, “essi trascinano con sé l’uso o significato delle idee fondamentali (dei termini o concetti primitivi) che gli assiomi introducono; determinano ciò che può e ciò che non può essere detto intorno a queste idee fondamentali” (p. 59). Essi sarebbero in qualche modo “definizioni implicite” dei termini che possono ricorrere nelle deduzioni, definizioni che assicurano sin dal principio la risolubilità di ogni previsione e quindi una sorta di precisione matematica che non può essere caratteristica di una teoria empirica. Lo sviluppo del sistema assiomatico concepito in maniera convenzionalistica, insomma, procederebbe per “equazioni assertorie”, derivate dalle funzioni proposizionali tramite selezione dei valori ammissibili per la sostituzione delle variabili che vi ricorrono, in modo tale da assicurarne preventivamente la verità. La teoria scientifica, dunque, sarà analitica, quindi convenzionalmente vera per il modello che descrive, ossia per quel dominio di validità entro il quale risulta valida. In questi termini, però, essa non sarà falsificabile e quindi non sarà empirica.
La conseguenza di questa che tutto sommato è una critica all’approccio modellistico ai sistemi assiomatici, è che gli assiomi dovranno essere considerati appunto come ipotesi generali, tali che i loro termini non vadano concepiti come definiti implicitamente. E in questo contesto ritorna il problema della base empirica: infatti, una possibilità nell’interpretazione del contenuto degli assiomi è ritenere che i loro termini siano definibili empiricamente, ossia associabili a certi oggetti del mondo reale. Il concetto sarebbe quindi il segno o l’etichetta di una cosa: in tal modo, però, possiamo fissare ostensivamente solo concetti individuali, mentre i termini che ricorrono negli assiomi devono essere necessariamente nomi universali (altrimenti, gli assiomi stessi non rappresenterebbero asserzioni strettamente universali, ricorrendo in essi nomi propri). Questa circostanza, che equivale alla constatazione che almeno alcuni dei termini degli assiomi devono rimanere indefiniti, allo stesso modo che gli assiomi rimangono indeducibili, è insuperabile. Si comprende, infatti, che così come il principio della deduzione non può essere a sua volta dedotto, per evitare un processo infinito, allo stesso modo il principio della definizione deve rimanere indefinito: se definizione è specificazione della differenza rispetto al genere superiore, il processo deve trovare un limite nei generi sommi, che non sono l’esito di alcuna specificazione.
Tutto questo discorso, apparentemente molto arzigogolato, corrisponde in definitiva a ribadire che condizione dell’empiricità di un sistema non è la definizione empirica dei suoi termini universali, definizione che è impossibile per astrazione – procedimento che può generare solo nomi individuali o numericamente universali – e insostenibile in termini convenzionalistici – poiché si avrebbe in tal caso un sistema analitico e non sintetico –, bensì la possibilità che dalle asserzioni prime, gli assiomi, che contengono questi “termini primitivi”, variabili universali, siano deducibili asserzioni seconde passibili di controllo rispetto a termini individuabili. La condizione di ciò è tenere l’indefinibilità dei concetti universali fondamentali, senza cadere nella tentazione di ritenerli come implicitamente definiti e quindi immediatamente verificati da un modello specifico. L’universalità della teoria, insieme al suo carattere empirico ed ipotetico, insomma, richiede che essa sia sottoponibile a sempre nuovi controlli potenzialmente falsificanti, e che quindi non si chiuda convenzionalmente entro un ambito di validità fenomenicamente definito entro il quale risulta immancabilmente non falsificata e quindi presuntivamente verificata. In qualche modo, quindi, qui Popper sta criticando a priori la tesi che una teoria vada considerata vera entro il ristretto ambito di validità che la conferma, definendo quindi le previsioni falsificanti come appartenenti ad un altro ambito di verità. Ambito della teoria, insomma, non è lo spazio oggettivo che riesce a prevedere correttamente, bensì lo spazio oggettivo che essa può descrivere nei propri termini, compresi dunque i fenomeni che essa descrive in maniera errata.
Facciamo un esempio, per rendere tutto ciò più chiaro. Ai termini fondamentali della dinamica classica appartiene quello di traiettoria, che rappresenta la sequenza continua delle posizioni nello spazio di un corpo durante un certo intervallo di tempo. I concetti di spazio, tempo, corpo e così via, che definiscono la traiettoria, sono in questo contesto non ulteriormente definibili, sono appunto termini primitivi del sistema assiomatico con il quale può essere descritta la dinamica classica, come ha cercato di fare nei suoi Principia già Newton. Ora, è risaputo che tramite questi termini gli assiomi della teoria newtoniana possono sì descrivere la traiettoria di una carica elettrica, ma in maniera tale che le previsioni risultano spesso errate. Il modo per risolvere questo problema è assumere che la dinamica classica è valida per l’ambito dello spazio macroscopico e per velocità (concetto che coinvolge quello di tempo) notevolmente inferiori a quelle della luce: ciò, però, corrisponde a ritenere implicitamente definiti alcuni termini primitivi della teoria, appunto spazio e tempo. Questo atteggiamento salva la teoria, limitandola ai casi in cui risulta non falsificata, escludendo quindi tutto il resto di ciò che essa riesce effettivamente a descrivere e quindi significa.
Da questo punto di vista, la rivoluzione einsteiniana e quella della meccanica quantistica non rappresentano un superamento della meccanica classica, ma solo teorie parziali valide per certi ambiti di validità. E Popper evidentemente contesta questa conclusione, che interpreta come forma di strumentalismo: essa, infatti, può essere vista come la concezione per cui un sistema teorico non deve essere esaminato relativamente a tutto ciò che può spiegare nei propri termini, ma solo come mezzo di previsione di ciò che riesce a spiegare bene. La previsione, però, nella concezione di Popper non è il fine della teoria universale, ma solo il suo banco di prova. Laddove la prova fallisca, quindi, non si può semplicemente tracciare una linea e dire che al di là di essa comincia un diverso ambito di validità, che richiede una diversa teoria, ma si deve constatare che la teoria intera è fallita e che quindi vanno rivisti quegli assiomi che risultano insieme sufficienti e necessari alla deduzione della previsione falsificante. La revisione genera quindi una teoria nuova, anche se essa può contenere acquisizioni della vecchia teoria e si impegna a rendere conto di tutto ciò che essa riusciva a prevedere correttamente, oltre che a ciò rispetto a cui essa falliva: e questo è in buona misura il caso sia della relatività ristretta di Einstein, che della teoria dei quanta, che non vogliono essere modelli limitati all’ambito di validità falsificante la meccanica classica, bensì teoria complessive della dinamica.
È in funzione di tutti questi motivi che Popper rifiuta non solo le ipotesi ad hoc, ossia le integrazioni di un sistema assiomatico tramite premesse e, in qualche modo, assiomi minori in grado di risolvere fallimenti parziali, ma anche il procedimento analogo sul piano concettuale, che corrisponde a ritenere i termini primitivi come implicitamente definiti in maniera convenzionale, ossia delimitati accortamente all’ambito di validità che corrobora la teoria. Semplificando: così come non è lecito metodologicamente introdurre proposizioni indeducibili dagli assiomi primitivi, senza modificare l’insieme di assiomi e quindi l’intera teoria, così non è lecito, sempre metodologicamente, definire a posteriori i termini che costituiscono gli assiomi, in modo da ritagliare un insieme delimitato di oggetti rispetto ai quali la teoria funziona e oltre i quali non funziona più. Anche questa scappatoia, infatti, “distrugge inevitabilmente il carattere empirico del sistema”. E quindi, anche in questo caso, Popper conclude come segue: “Credo che questa difficoltà possa essere superata soltanto per mezzo di una decisione metodologica. Di conseguenza, adotterò la regola che vieta di usare concetti indefiniti come se fossero definiti implicitamente” (p. 62).
Riguardo a ciò, è il caso di aggiungere alcune considerazioni sulla differenza tra livello metodologico e livello logico, distinzione che Popper fa esplicitamente anche introducendo l’analisi logica della falsificabilità, ma che è importante pure per comprendere e distinguere la critica al neopositivismo, che si gioca sul piano logico, da quella al convenzionalismo, che ha il suo luogo d’elezione sul piano metodologico.
In primo luogo, per quanto siano posizioni epigonali e ampliamente contaminate, possiamo distinguere il neopositivismo dal convenzionalismo in base alla separazione classica tra empirismo e razionalismo. Il neopositivismo, quindi, rappresenta l’evoluzione dell’empirismo nel senso dell’analisi logica delle teorie scientifiche, laddove il convenzionalismo rappresenta l’evoluzione del razionalismo nel senso della costruzione matematica dei sistemi assiomatici. La posizione di Popper non è a rigori né razionalistica, né empiristica, bensì critica, quindi volta allo studio delle condizioni di possibilità. E alle condizioni di possibilità della scienza empirica appartiene, per motivi di cui abbiamo già parlato, la costruzione di sistemi assiomatici. In tal senso, Popper sembra essere molto vicino al convenzionalismo.
Molto chiara al riguardo è la citazione con cui iniziava il corso: “Uno scienziato, teorico o sperimentatore, produce asserzioni o sistemi di asserzioni, e li controlla passo per passo. Nel campo delle scienze empiriche, più in particolare, costruisce ipotesi, o sistemi di teorie e li controlla, confrontandoli con l’esperienza mediante l’osservazione e l’esperimento. Suggerisco che il compito della logica della scoperta scientifica, o logica della conoscenza, è quello di fornire un’analisi logica di questa procedura; cioè di analizzare il metodo delle scienze empiriche”. Sul piano logico, dunque, l’epistemologia è l’analisi logica di costrutti ideali: precisamente ciò che vuole il convenzionalismo e precisamente ciò che afferma lo stesso Popper quando introduce il discorso intorno ai sistemi assiomatici: questi, come vedevamo, sono costruiti a posteriori, in base a principi di economicità dell’argomentazione. Ciò che però contraddistingue la tesi di Popper e la rende inconciliabile con l’idea matematica di costruzione di un sistema di teorie, è che il momento economico non è quello primario: in altri termini, se è del tutto vero che il sistema assiomatico sul piano logico è un costrutto, esso sul piano metodologico, ossia il piano in cui ci si volge allo scopo della scienza, non è affatto un costrutto, bensì un’ipotesi: il tentativo di determinare la nostra esperienza del mondo. Dal punto di vista matematico dire che lo scienziato “costruisce ipotesi” non ha alcun senso, poiché ciò che è costruito non è ipotesi, bensì tesi, posizione, assunzione, certificazione per convenzione. Ciò che quindi vuole dire Popper, usando quell’espressione, è che l’elemento di costruzione è proprio della logica interna di un sistema teorico, ma non è il suo senso complessivo: possiamo dire che è condizione di possibilità della sua empiricità. Infatti, come vedevamo, è precisamente la struttura assiomatica deduttiva che permette l’istituzione del metodo deduttivo dei controlli tramite il modus tollens.
Per riassumere: possiamo quindi dire, che la distinzione tra piano logico e piano metodologico si basa sulla distinzione tra il piano delle esigenze proprie alla razionalità interna del discorso scientifico, quindi alla sua forma, e il piano del senso dell’impresa scientifica, quindi del suo fine. L’analisi della forma non è, di per sé, istituzione di un principio regolativo della ricerca scientifica, compito eminentemente filosofico, che deve essere svolto, secondo Popper, sul piano metodologico. E questo può essere visto come segnale dell’imbarazzo in cui permane lo stesso Popper rispetto alla questione della base empirica. Tutto sommato, infatti, la soluzione delle questioni gnoseologiche in termini di decisioni circa regole, per esempio la regola di considerare oggettivo ciò che è condivisibile intersoggettivamente, significa in qualche modo rimuovere il problema ontologico, come vedremo meglio.

Su falsificabilità e falsificazione:
La falsificabilità è criterio e va distinta dalla falsificazione, rispetto alla quale vanno enunciate regole circa le condizioni alle quali un sistema è considerato falsificato.
Necessario, ma non sufficiente, è che si siano accettate asserzioni-base contraddittorie rispetto alla teoria. Esse non devono riferire, però, accadimenti singoli non riproducibili. Va ricercato, dunque, un “effetto riproducibile” o meglio un’“ipotesi falsificante” che descriva tale effetto. Siamo di nuovo di fronte alla questione della base empirica (un’ipotesi, infatti, si falsifica “accettando” un’asserzione-base, in qualche modo verificandola: e a questo scopo servono regole metodologiche).
Duplice funzione delle asserzioni-base:
1) come criterio per la falsificabilità (in quanto asserzioni vietate dalla teoria);
2) le asserzioni-base accettate corroborano le ipotesi. Se contraddicono la teoria, la falsificano solo se corroborano un’ipotesi falsificante (che ha un grado di universalità tale da garantire la riproducibilità e controllabilità intersoggettiva dell’effetto falsificante).

Definizioni sintattiche di accadimento ed evento (poi Tarski spingerà Popper più decisamente verso una definizione semantica): per il momento, Popper propone regole di traduzione da un accadimento reale alla classe delle asserzioni equivalenti che lo descrivono, così come tra l’effettività dell’accadimento e la verità di quelle asserzioni. Qui siamo evidentemente su un piano definitorio, per cui il problema onto-logico non viene realmente affrontato, ma solo schematizzato mediante una serie di corrispondenze tra essere e logos: un fatto è espresso da una classe di asserzioni singolari logicamente equivalenti. L’accadere di quel fatto corrisponde alla verità di quelle asserzioni. Che un accadimento contraddica una teoria, dunque, significa che ogni asserzione singolare equivalente e corrispondente ad esso è logicamente contraddittoria con la teoria, assunte certe condizioni iniziali.
Ciò che va sottolineato, però, non è l’apparato di queste regole sintattiche di traduzione, quanto il fatto che qui Popper parla di contraddizione della teoria da parte di un accadimento e non di falsificazione. Un semplice accadimento, infatti, può contraddire, ma non falsifica di per sé una teoria. Perché ciò avvenga, bisogna che l’accadimento singolo esemplifichi un evento, termine che denota ciò che vi è di tipico, o di universale, in un accadimento, ciò che di esso può essere espresso tramite nomi universali. In sostanza, l’evento è la classe degli accadimenti, fatta astrazione degli elementi individuali, spazio-temporali, contenuti in essa.
Se è l’evento il vero falsificatore potenziale di una teoria, dunque, questa va concepita, affinché sia empirica e scientifica, come divieto non di accadimenti, bensì di eventi: “La classe delle asserzioni-base vietate, cioè la classe dei falsificatori potenziali della teoria, conterrà sempre, se non è vuota, un numero illimitato di asserzioni-base; una teoria, infatti, non si riferisce a un individuo come tale” (pp. 80 s.).

Circa la metafisicità delle asserzioni strettamente esistenziali: esse sono verificate da un evento, ma falsificate da nessun evento. Non negano alcun evento, pur seguendo da ogni asserzione singolare, poiché da queste segue anche ogni tautologia (la tautologia, sempre vera, segue da ogni asserzione).
Circa la contraddizione: da essa può essere dedotta qualsiasi asserzione. Distinzione tra asserzioni sintetiche false, che implicano materialmente ogni asserzione (l’implicazione “se p, allora q” è sempre vera se p è falsa) e asserzioni autocontraddittorie, dalle quali è logicamente deducibile ogni asserzione (Pseudoscoto), insomma distinzione tra la struttura dell’implicazione materiale e il sillogismo per modus ponens con premessa maggiore costituita da un’autocontraddizione. Ciò che nota Popper, è che sulla base del criterio di verificabilità si può considerare corroborata l’autocontraddizione in tutti i casi in cui l’asserzione dedotta è vera (o assegnare ad un’autocontraddizione un certo grado di probabilità), mentre il principio della falsificazione impedisce un paradosso del genere, poiché sancisce solamente che la classe dei falsificatori potenziali di un’autocontraddizione “è identica con quella di tutte le possibili asserzioni-base: è falsificata da qualsiasi asserzione” (p. 82). Il che significa, che non escludendo alcuna possibilità, l’autocontraddizione non dà alcuna informazione positiva, non opera alcuna sintesi e cernita.
L’autocontraddizione non va rifiutata perché in sé falsa, dal momento che asserzioni false possono comunque risultare parzialmente utili, ma va rifiutata sulla base della constatazione che “un sistema autocontraddittorio non ci fornisce nessuna informazione” (p. 83), nella misura in cui tutte le proposizioni possibili sono trattate in esso allo stesso modo, ossia ambiguamente: esse possono essere al tempo stesso vere e false. Un sistema non contraddittorio, invece, distingue le proposizioni possibili nei propri termini in compatibili e incompatibili: la non-contraddittorietà, quindi, è condizione analoga a quella della falsificabilità di un sistema di teorie, che è appunto la richiesta di una distinzione tra le proposizioni-base empiriche compatibili e quelle incompatibili. In tal senso, la coerenza è sul piano scientifico complessivo, ciò che la controllabilità è sul suo versante empirico.

Sull’ammissibilità delle asserzioni-base:
la metodologia della decisione circa le asserzioni-base ammissibili ha tra le sue regole prime quella di scegliere proposizioni facilmente controllabili. Questa esigenza, peraltro, l’abbiamo già incontrata quando parlavamo delle condizioni di empiricità di una teoria e delle modalità di confronto tra teorie: preferibile, dal punto di vista scientifico, è precisamente la teoria più controllabile. E questo, lo abbiamo già accennato, per due motivi: non solo, perché la migliore controllabilità è anche garanzia di maggiore oggettività, nel senso che è più facile raggiungere un accordo intersoggettivo rispetto a ciò che facilmente si lascia sottoporre a controllo critico, ma anche perché il maggior grado di controllabilità corrisponde ad un contenuto maggiore di informazioni circa il mondo.
Tutto il discorso, ovviamente, comporta che vi sia una gradazione nell’empiricità e falsificabilità delle teorie e non semplicemente l’aut aut tra empirico e metafisico. Nonostante ciò, ossia nonostante la relativizzazione dei termini del principio di demarcazione, il discorso circa i gradi di controllabilità segue un criterio preciso: la scala della falsificabilità è ricostruita tramite l’analisi delle classi dei falsificatori potenziali. La classe dei falsificatori potenziali di una teoria, come abbiamo già visto, è la classe delle asserzioni-base omotipiche, ossia riferite ad eventi e non ad accadimenti, che la teoria contraddice. Relativamente ad un ambito di esperienza dato, questa classe può essere più o meno estesa e quindi la teoria che falsifica può essere più o meno controllabile, ossia più o meno piena di contenuto positivo rispetto a quell’ambito: infatti, la teoria non dice nulla sulla classe di asserzioni che ammette, ma solo su quella che vieta, e quindi l’accrescersi di questa classe a discapito della prima corrisponde ad un incremento di sapere positivo: scrive qui Popper, “il contenuto empirico di una teoria cresce col crescere del suo grado di falsificabilità” (p.110).

Ovviamente, un residuo di proposizioni ammesse deve sempre rimanere, affinché la teoria sia coerente: coerente, infatti, significa non contraddittoria e tipica della contraddizione all’interno delle premesse è la possibilità di dedurre qualsiasi proposizione, quindi anche proposizioni contraddittorie. Un sistema assiomatico contraddittorio, quindi, al tempo stesso vieta e ammette tutto: in sostanza, non definisce esclusivamente le due sottoclassi delle asserzioni-base in ammesse e vietate. Ma anche una teoria di cui possiamo dire in prima approssimazione che vieta tutte le asserzioni logicamente possibili nei suoi termini risulta a ben vedere contraddittoria, poiché non può evitare di contraddire eventi alternativi: ossia, finisce per ledere il principio del terzo escluso. Per esempio, a condizioni date, questa teoria potrebbe dire al tempo stesso che l’evento Pk è vietato, ma anche che l’evento non-Pk è vietato. In altre parole, l’esigenza di un alto grado di controllabilità non può essere spinta fino al termine ultimo della controllabilità, che si pagherebbe con la perdita di coerenza del sistema. Affinché la controllabilità rimanga criterio di empiricità, insomma, deve rimanere un margine rispetto al quale la teoria non è controllabile: già formalmente, quindi, risulta impossibile una teoria perfetta.
Lo scopo della scienza, conseguentemente, è quello di restringere al massimo l’ambito delle asserzioni ammesse, senza poterlo però cancellare integralmente. L’ideale, quindi, è raggiungere una teoria talmente controllabile, che ogni ulteriore restrizione di quell’ambito comporterebbe immediatamente la falsificazione della teoria. Una scienza che raggiungesse questo grado, sarebbe l’espressione compiuta del mondo della nostra esperienza, ossia la selezione, tra tutti i mondi di esperienza logicamente possibili, di quello che effettivamente incontriamo: questa teoria ammetterebbe solamente gli eventi che osserviamo. Ovviamente, però, questo è un ideale irraggiungibile, poiché raggiungerlo equivarrebbe a un ribaltamento del baricentro della teoria: un sistema che ammettesse tutto ciò che osserviamo e solo ciò che osserviamo sarebbe verificato dall’esperienza, ossia sarebbe un sistema induttivo.
Al di là di queste considerazioni circa la concezione globale della scienza empirica dal punto di vista del falsificazionismo, affrontando la questione dei gradi di controllabilità di una teoria, il primo problema che si pone è quello del confronto tra classi di asserzioni omotipiche falsificanti, confronto che intende stabilire la maggiore o minore ampiezza di queste classi, e quindi la maggiore o minore controllabilità della teoria, e che è reso difficile dalla circostanza che queste classi sono intrinsecamente infinite, poiché universali. Come si paragona l’ampiezza di classi universali?
Popper scarta la comparazione in funzione del numero cardinale (o potenza) di una classe, poiché le classi di falsificatori potenziali hanno lo stesso numero cardinale per tutte le teorie (la corrispondenza biunivoca è garantita dalla coincidenza delle condizioni iniziali: “sotto certe assunzioni, ogni classe di asserzioni è numerabile). Maggiormente utile sembra la comparazione in funzione delle dimensioni delle classi, concetto questo che proviene dalla logica degli insiemi e denota la maggiore o minore ricchezza di relazioni istituibili dagli elementi di classi altrimenti egualmente infinite. Infine, è possibile un confronto in funzione della relazione di sottoclasse: è evidente, che due classi infinite possono essere paragonate in relazione alla loro estensione nel caso in cui l’una sia integralmente parte dell’altra. Nel caso in cui, però, due classi di falsificatori potenziali hanno solo alcuni elementi in comune, la comparazione non potrà essere attuata nel senso della relazione di sottoclasse.
Riassumendo brevemente gli argomenti sviluppati considerando le relazioni tra classi, possiamo dire che una teoria è maggiormente falsificabile rispetto a un’altra, se la classe dei suoi falsificatori potenziali contiene integralmente come sua sottoclasse quella dei falsificatori potenziali della seconda teoria. Nel caso in cui le due classi di falsificatori coincidano, il grado di falsificabilità sarà evidentemente lo stesso. Mentre nel caso in cui differiscano non sarà possibile in questi termini un paragone circa il grado di controllabilità.
Di seguito, Popper aggiunge considerazioni apparentemente piuttosto banali e ripetitive circa le proposizioni tautologiche, metafisiche ed autocontraddittorie, che però sono significative perché presentano la struttura formale del successivo discorso sulla probabilità. Come già sappiamo, le asserzioni tautologiche e metafisiche non hanno falsificatori potenziali, ossia, le classi dei loro falsificatori sono vuote e quindi identiche tra loro. Il grado di falsificabilità è zero. Un’asserzione empirica, invece, ha un grado di falsificabilità positivo, che non è però integrale. Infatti, la piena falsificabilità, che coincide con la falsificazione immediata, è propria solo delle asserzioni contraddittorie, la cui classe di falsificatori potenziali comprende tutte le asserzioni-base possibili. Quindi, un’asserzione empirica ha un grado di falsificabilità compreso e oscillante tra l’estremo della falsificazione di fatto propria ad un’autocontraddizione e l’estremo della non-falsificabilità proprio di un’asserzione metafisica o tautologica. Questi estremi possono essere simbolizzati tramite i numeri 1 e 0, che sono anche i simboli che nella logica della probabilità descrivono la necessità (1) o l’impossibilità (0). Ovviamente, è impossibile determinare una metrica rigorosa, ossia assegnare valori determinati alla frazione che esprime il valore della falsificabilità di un’asserzione empirica, ma possiamo nondimeno ragionare nei termini della maggiore o minore controllabilità, purché, come detto, le classi di falsificatori potenziali si contengano integralmente.
Questa possibilità di esprimere formalmente, seppur non numericamente, comparazioni tra i gradi di falsificabilità è però la condizione, in positivo, dell’interpretazione della probabilità nei termini appunto del falsificazionismo. Infatti, ogni qual volta è possibile confrontare i gradi di falsificabilità di due asserzioni, possiamo dire che l’asserzione meno falsificabile è anche la più probabile logicamente. La probabilità logica, che è ben diversa da quella numerica e ancor più da quella fisica, è quindi complementare al grado di falsificabilità, il che equivale a dire che una proposizione molto controllabile è al contempo molto poco probabile logicamente (con il che non si è detto ancora niente sulla sua verità o falsità). Ciò risulta piuttosto evidente se pensiamo a due estremi della falsificabilità: la tautologia, non falsificabile, è del tutto probabile, ossia necessaria logicamente. La contraddizione, integralmente falsificabile, o meglio ipso facto falsificata, è logicamente impossibile. Meno evidente è la piena probabilità delle asserzioni metafisiche, che non sembrano affatto logicamente necessarie, ma su questo problema, così come sulla teoria compiuta della probabilità in Popper torneremo più avanti.
Come abbiamo detto, la maggiore falsificabilità corrisponde al maggiore contenuto empirico di una asserzione. Tralasciando, qui, la distinzione tra il contenuto empirico e il contenuto logico, come definito da Carnap, notiamo che questa idea di contenuto empirico riassume alcune regole presentate sul piano metodologico. In primo luogo, infatti, la regola che prevede la preferenza per le teorie più severamente controllabili, può essere tradotta come preferenza per le teorie dal maggiore contenuto empirico. Ma anche le regole che prevedono il più alto grado di universalità delle premesse e il più alto grado di precisione delle deduzioni sono esprimibili in questi termini. Il grado di universalità è esprimibile come deducibilità di una teoria dall’altra: esemplificando, se da una proposizione universale è derivabile una seconda proposizione universale, ma non viceversa, la prima è più universale della seconda. Il grado di universalità corrisponde immediatamente, dal punto di vista logico, al grado di probabilità e, inversamente, di falsificabilità. Ossia: una proposizione altamente universale è più falsificabile e meno probabile logicamente, poiché la falsificazione della proposizione dedotta falsifica anche la proposizione premessa, ma non accade necessariamente l’inverso (nei termini dei falsificatori potenziali, questo equivale a dire che tra le classi di falsificatori di teorie deducibili l’una dall’altra sussistono relazioni di sottoclasse e precisamente che i falsificatori potenziali di una teoria dedotta sono una sottoclasse dei falsificatori potenziali di una teoria premessa).
In particolare, il grado di universalità è evidente nelle relazioni logiche tra i soggetti delle proposizioni: una stessa predicazione è più universale se il suo soggetto è più generale di un altro soggetto, o meglio, se il secondo è una sottoclasse del primo. Se, invece, i soggetti sono gli stessi, ma la predicazione è più o meno specifica, si ha a che fare con il grado di precisione di un enunciato.
Ciò che è notevole e dimostra la capacità sintetica del principio della falsificabilità, è che il contenuto empirico, ossia precisamente l’ampiezza della classe dei falsificatori potenziali, esprime al contempo sia il grado di universalità che di precisione: “a un grado più elevato di universalità o di precisione (o, evidentemente, di entrambi) corrisponde un maggiore contenuto empirico e quindi un più elevato grado di controllabilità”. In questo modo, Popper acquisisce, in ultima analisi tramite assunzioni di carattere metodologico, un principio che gli rende possibile trattare in maniera unitaria tutta una serie di concetti e problemi di carattere strettamente epistemologico.
Questo discorso, in realtà, corrisponde alla definizione nei termini della falsificabilità di due tesi classiche della logica antica, come Popper riconosce in nota: i teoremi logici del dictum de omni et nullo e della nota notae, che riguardano l’estensione del soggetto (grado di universalità) e la restrizione del predicato (grado di precisione).
Nota notae est nota rei ipsius: l’attributo di un attributo è attributo della cosa stessa (cui il primo si riferisce): principio kantiano del sillogismo. Ciò corrisponde al principio aristotelico, per cui “quando un termine sia predicato di un altro in quanto soggetto, tutto ciò che venga detto del predicato sarà detto anche del soggetto”: ciò che i medievali esprimevano con il dictum de omni et de nullo. Ossia, se si attribuisce a un soggetto un dato predicato, questo va attribuito a tutte le specificazioni di quel soggetto. E, all’inverso, se si non si attribuisce a nessuno un predicato, non lo si attribuisce neanche al singolo o all’universale. Il che non significa dire che ciò che non è predicato di un concetto universale non è neanche predicato di un concetto singolare, poiché invece ciò di regola avviene: il singolare ha più determinazioni dell’universale. In realtà, in questi principi di logica concettuale è rispecchiata l’asimmetria propria dei modi ponens e tollens del sillogismo ipotetico. Infatti, ciò che si afferma del concetto più universale va affermato anche del concetto più particolare, così come affermando l’antecedente di un’implicazione affermiamo anche il conseguente (modus ponens). E ciò che si nega per il particolare, si nega anche per l’universale, così come la negazione del conseguente è negazione dell’antecedente (modus tollens). Non si può invece negare un attributo del particolare poiché lo si nega per l’universale (il sillogismo avrebbe la forma scorretta: se p allora q, ma non p, allora non q: non è possibile argomentare in questo senso, poiché dalla negazione dell’antecedente possiamo derivare sia l’affermazione che la negazione del conseguente: un enunciato falso implica ogni enunciato).
A parte questo legame immediato tra logica concettuale e logica proposizionale, che è in realtà una possibilità, non sempre agibile, di intendere in senso concettuale le differenze tra proposizioni, vediamo nell’esempio di Popper come sono definibili quei due teoremi: ciò che si predica per i corpi celesti si predica anche per i pianeti, poiché questi sono corpi celesti. Ciò che il cerchio non predica, non lo predica neanche l’ellissi: tutte le orbite dei pianeti sono ellissi dice di meno che tutte lo orbite dei pianeti sono cerchi. La regola metodologica che prevede il più alto contenuto empirico possibile, ossia il più alto grado di controllabilità possibile, ossia il più alto grado di universalità e precisione possibile, prevede quindi la ricerca incessante di proposizioni riferite a soggetti altamente universali e predicati altamente particolari, finché queste proposizioni risultino, ovviamente, non falsificate di fatto, come è avvenuto per esempio con la tesi che tutti i corpi celesti hanno orbite circolari, che, delle proposizioni esemplificative proposte da Popper è appunto la più universale e la più precisa.
Tutti questi concetti, quindi, ossia improbabilità logica di una proposizione o universalità e precisione di un’asserzione, non hanno niente a che vedere con la sua verificabilità, anzi sono condizioni che rendono la proposizione meno verificabile e proprio in tal senso più controllabile: quanto più un’asserzione è improbabile logicamente, quanto più è generalizzabile e specifica, tanto meno può risultare sempre vera, tanto più può essere controllata in un ampio spettro di fattispecie.

Molto brevemente circa il problema della semplicità. Mach, Avenarius, Kirchhoff: simplex sigillum veri. Questo principio della semplicità va al di là di ciò che voleva Occam: non sunt multiplicanda entia sine necessitade. Ossia, sia ontologicamente che logicamente, non è necessario assumere più di ciò che è sufficiente per spiegare qualcosa. Sul piano ontologico, per esempio, non è necessario indagare più cause di quelle strettamente necessarie per produrre un effetto; sul piano logico-conoscitivo, non è necessario ammettere più principi di quelli sufficienti a giustificare un asserto. Simplex sigillum veri intende dire questo e qualcosa in più: la verità, delle cose o delle parole, è caratterizzata dalla sua semplicità. In Mach la considerazione è puramente epistemologica: egli pretendeva che scopo della scienza fosse esprimere concettualmente nel modo più semplice i fatti. Era quindi una considerazione di carattere ampiamente economico e per niente ontologico. Ossia, assumeva che di fronte a due spiegazioni di uno stesso fatto va preferita quella più semplice non perché necessariamente più vera, ma perché più consona al carattere sintetico proprio della conoscenza. In termini ontologici, ovviamente, le cose non stanno così: la spiegazione più semplice sarebbe la più vera, se avessimo ragione di ritenere che la dinamica stessa del reale possiede un’intrinseca semplicità.
Il problema, secondo Popper, è in entrambi i casi definire l’idea di “semplice”, cosa che a sua detta non è perlopiù avvenuta nei contesti epistemologici che hanno fatto più ricorso al principio di semplicità, appunto l’empiriocriticismo da un lato e il convenzionalismo dall’altro, Mach e Poincaré (ma esiste anche una posizione di Wittgenstein circa la semplicità). In primo luogo, va rifiutato un concetto estetico o pragmatico di semplicità: l’eleganza di un argomento o la facilità nel seguirlo, entrambi i caratteri essendo di natura estrinseca al problema epistemologico.
Come va dunque interpretato questo termine: secondo Popper, identificando la semplicità con il grado di falsificabilità: una teoria è tanto più semplice, quanto più è facilmente falsificabile. Ossia, quanto più rigorosamente controllabile. Ossia quanto più universale e quanto più precisa. E Popper riassume qui questi termini parlando di grado di rigorosità. Una teoria è rigorosa, quanto tramite pochi parametri consente molte determinazioni: quindi, come è evidente anche intuitivamente, quando è appunto semplice.

Sulla probabilità:
In primo luogo dobbiamo distinguere tra la probabilità degli eventi e la probabilità delle ipotesi, quindi tra le espressioni statistiche di certe dinamiche naturali e il grado di corroborazione di un’ipotesi che ha superato un certo numero di controlli.
La questione della definizione della probabilità degli eventi può essere presentata come la questione dell’assiomatizzazione di un sistema per il calcolo di questa probabilità. Il primo compito epistemologico è quindi delineare principi per il calcolo della probabilità.
Vi è però anche un’altra questione, quella relativa al rapporto tra probabilità ed esperienza: in altri termini, come si osserva una probabilità?, ossia: come si controllano i valori calcolati? E, nei termini del metodo deduttivo dei controlli, è possibile falsificare un’asserzione probabilistica? È infatti evidente che asserendo non la necessità, ma la probabilità di una cosa, la corroborazione di un’asserzione-base che descrive un evento improbabile non è affatto falsificazione di quella teoria. Esemplificando: se assumo che è vi è una certa possibilità di incontrare un corvo bianco, l’osservazione di un corvo nero non contraddice il mio asserto. Il secondo compito epistemologico, quindi, è chiarire i rapporti tra probabilità ed esperienza, ossia, nei termini di Popper, articolare il problema della decidibilità delle asserzioni probabilistiche.
Prima distinzione, rispetto alla questione del calcolo delle probabilità: probabilità numerica o non numerica. Per la prima, partiamo da una definizione classica: il valore di una probabilità si ottiene dividendo il numero dei casi favorevoli per il numero dei casi egualmente possibili: la possibilità che lanciando un dado esca uno è di uno a sei. Questa asserzione è, secondo Popper, non di carattere soggettivo, ma oggettivo e verte, in particolare, sulla frequenza relativa con cui un certo evento compare all’interno di una sequenza di accadimenti e non sull’accadimento singolo prossimo della sequenza. L’impostazione di Popper, quindi, è a favore di una teoria frequenziale della probabilità.
Vediamo dunque come si applica questa teoria al calcolo delle probabilità di eventi casuali, ossia non determinabili precisamente e in maniera univoca, non rigorosamente prevedibili, ma rispetto ai quali si può calcolare appunto un valore per la frequenza relativa in cui si presentano. E questa, dice Popper, non è la sanzione della nostra ignoranza, come pretende un’interpretazione soggettivistica dei valori probabilistici, bensì l’espressione di un sapere positivo, ancorché limitato. Solo in tal senso, peraltro, è possibile comprendere in quale modo “un’asserzione di ignoranza, interpretata come un’asserzione frequenziale, possa essere controllata e corroborata empiricamente” (p. 155), così come avviene effettivamente nella pratica scientifica. Questo viene definito da Popper “il problema fondamentale della teoria del caso”, la cui soluzione riesce tramite l’analisi delle assunzioni necessarie a passare dalla irregolarità degli accadimenti singoli alla regolarità frequenziale degli eventi.
Ma vediamo sinteticamente come si articola una teoria frequenziale, per esempio quella classica di von Mises: il calcolo della probabilità è in essa la teoria di sequenze di eventi casuali. Questa teoria si regge su due assiomi fondamentali: l’assioma di convergenza e quello del disordine. Per comprendere il senso del primo, dobbiamo chiarire il concetto di frequenza: entro una serie di accadimenti che hanno un numero discreto di possibili configurazioni, dette proprietà (per esempio, lanciando una moneta possiamo ottenere due eventi possibili, testa o croce: quindi, questa è una serie a due proprietà), la frequenza relativa di una proprietà è data dalla divisione del numero di uscite di quella proprietà per il numero di accadimenti totale. Se ad ogni accadimento ricalcoliamo la frequenza relativa, abbiamo una sequenza delle frequenze, che è distinta dalla sequenza degli accadimenti e possiamo chiamarla sequenza degli eventi. L’assioma di convergenza assume che la sequenza degli eventi tende a un limite definito. L’insieme dei limiti di frequenza di una sequenza è la sua distribuzione.
Dal canto suo, l’assioma del disordine assume che è impossibile un sistema di scommesse, ossia che selezionando entro una sequenza solo gli esiti che, a partire da considerazioni probabilistiche di qualsiasi genere, potremmo ritenere favorevoli per un certo evento determinato, abbiamo una sequenza di frequenze per quell’evento il cui limite è uguale a quello della sequenza di tutti gli accadimenti. La probabilità, in questo contesto, è dunque precisamente il limite della frequenza relativa di un evento ed è un’idea applicabile, quindi, solo a sequenze di eventi.
Le debolezze di questa teoria sono perlopiù identificate nella contraddizione, in termini matematici, tra l’assunzione con l’assioma di convergenza di una tendenza al limite (e quindi di un principio di regolarità) e l’assunzione, con l’assioma del disordine, dell’assenza di ogni regolarità prevedibile. Questo tipo di difficoltà spinge anche Popper a proporre una revisione di questi due assiomi, nel senso di un miglioramento dell’assioma del disordine e dell’eliminazione dell’assioma di convergenza.
In base a ciò, però, il problema della decidibilità delle asserzioni probabilistiche è aggravato: in base all’assioma del disordine, esse non sono falsificabili in alcun, poiché non mettono fuori causa nulla che sia osservabile, neanche le sequenze di accadimenti più improbabili. In altri termini, le previsioni statistiche non contraddicono alcuna asserzione-base, non hanno quindi alcun falsificatore potenziale, poiché non negano alcun evento possibile. Ma come osare dire che sono pertanto prive di informazioni empiriche, visto il successo che l’espressione statistica delle leggi ha in fisica? Per risolvere la questione Popper intraprende l’analisi di due questioni, quella circa la forma logica delle asserzioni probabilistiche e quella circa le relazioni di queste con le asserzioni-base.
Le stime probabilistiche non sono né falsificabili, né ovviamente verificabili. Quindi asserzioni probabilistiche e asserzioni-base non si contraddicono, né si implicano reciprocamente. Eppure vi sono relazioni logiche tra loro, la cui analisi, peraltro, non necessita di alcuna logica probabilistica speciale, del tipo di quelle proposte dagli epistemologi della teoria dei quanta. Infatti, in quanto non falsificabili, le proposizioni probabilistiche non hanno conseguenze falsificabili, né possono essere conseguenze di asserzioni verificabili, ma l’opposto non è escluso. È possibile che abbiano conseguenze verificabili unilateralmente (puramente esistenziali) o che siano conseguenze di asserzioni universali unilateralmente falsificabili.
Rispetto alla prima possibilità, più interessante della seconda, possiamo specificarla dicendo che da ogni proposizione probabilistica è deducibile una classe infinita di asserzioni esistenziali, ma non viceversa. In particolare, queste asserzioni avranno la forma di ipotesi esistenziali universalizzate (per ogni x, esiste un y che ha la proprietà osservabile, o controllabile estensionalmente, b), che rimangono non verificabili, né falsificabili, ma sono tuttavia confermabili parzialmente, nel senso che possiamo verificare molte, poche o nessuna delle loro conseguenze esistenziali.
Uso delle asserzioni probabilistiche in fisica: certe regolarità vengono interpretate come “macroleggi”, ossia formulazioni complessive e statistiche di fenomeni composti da microeventi ipotetici non osservabili. Il che comporta la possibilità di usare questa pratica in maniera sostanzialmente speculativa, ossia metafisica: infatti, è possibile ipotizzare una dinamica microscopica tale, che da essa siano calcolabili e come “prevedibili a posteriori” i risultati che si ottengono dagli esperimenti sul piano macroscopico. Insomma, laddove constatiamo un evento ripetibile sul piano macroscopico, che non riusciamo però a spiegare rigorosamente in termini di dinamica classica, possiamo spostare il piano eziologico sul livello microscopico, ove siamo meno condizionati dalle esigenze del controllo, poiché questo livello può essere definito come esplicitamente non osservabile. Le asserzioni che produciamo circa le dinamiche microscopiche sono in tal senso non falsificabili, così come non falsificabili sono le leggi statistiche che proponiamo per spiegare i fenomeni macroscopici, considerandoli il risultato della somma di innumerevoli eventi microscopici, un risultato che tende ad assumere una conformazione regolare a causa della legge dei grandi numeri. Questa, per esempio, è la via percorsa da Boltzmann per spiegare il valore sempre crescente dell’entropia.
Anche su questo piano, quindi, è necessario operare scelte metodologiche tali, da impedire l’uso metafisico delle teorie probabilistiche.
Ma quali regole sono in grado di assicurare un uso congruo delle ipotesi probabilistiche? Per rispondere a questa domanda, Popper fa di nuovo ricorso alla pratica scientifica, in particolare alla definizione fisica della probabilità: questa parte dalla constatazione dell’esistenza di esperimenti a risultati variabili, alcuni dei quali sono tali che, se ripetuti un gran numero di volte, evidenziano frequenze precise nei loro esiti, che tendono ad approssimarsi ad un valore fisso, che rappresenta appunto la probabilità dell’evento. Popper cerca di salvare questa definizione, pur riconoscendone i difetti dal punto di vista logico. Infatti, a partire dalla formulazione rigorosa del calcolo delle probabilità, non vi è garanzia alcuna che un segmento finito mostri una tendenza dei valori a convergere sempre verso lo stesso limite, così come si pretende avvenga in ogni serie ripetuta di esperimenti. Peraltro, non è chiaro quale sia il criterio della lunghezza di queste serie: quante volte va ripetuto un esperimento di questo tipo, quando dobbiamo ritenere di aver raggiunto un grado soddisfacente di approssimazione?
Eppure, nota Popper, nonostante questi difetti epistemologici, la definizione fisica di probabilità è l’unica in grado di impedire un’applicazione illimitata e quindi metafisica delle ipotesi probabilistiche. Infatti, assumendo che è trascurabile la possibilità di imbattersi proprio in una serie anomala di risultati, tali da falsare i valori di probabilità, il fisico tratta le stime probabilistiche sostanzialmente come falsificabili.
Oltre a questa assunzione non fondata sul piano epistemologico, ma estremamente ragionevole, vi è poi l’attitudine del fisico a intendere l’espressione probabilistica delle regolarità come fondata nella natura del fenomeno, che quindi, pur non potendo essere descritto in maniera univoca, appare intrinsecamente dotato di una propria dinamica. La regola metodologica che Popper trae da queste considerazioni, quindi, è quella di “non spiegare mai gli effetti fisici, cioè le regolarità riproducibili, come accumulazioni di accidenti”.
Questo discorso equivale alla constatazione che la probabilità in fisica non è semplicemente l’esito di un’analisi matematica delle possibilità di certe distribuzioni di valori casuali, ma viene considerata perlopiù come grandezza dotata di un certo contenuto fisico, quantomeno di un significato fisico. Facciamo un esempio, che viene solitamente proposto per spiegare il concetto boltzmanniano di entropia. Immaginiamo di far cadere una goccia d’inchiostro in un bicchiere, considerando l’inchiostro e l’acqua come composti di particelle dotate delle sole qualità primarie del movimento. Dal punto di vista dinamico deterministico, le interazioni tra tutte le particelle d’acqua e d’inchiostro dipendono dalle posizioni e dai momenti di ognuna di essere all’inizio dell’esperimento. Tutto il processo, quindi, è strettamente deterministico e reversibile, in linea di principio descrivibile perfettamente e quindi prevedibile rispetto ad ogni sua variabile. Dal punto di vista pratico, però, ciò è impossibile, poiché non possiamo conoscere posizione e momento di ogni singola particella, essendo il loro numero enorme. Il fenomeno, quindi, va descritto sul piano macroscopico, piano sul quale è evidente l’estrema probabilità che, dopo un certo tempo, si raggiunga nel bicchiere una distribuzione uniforme delle particelle, ossia che l’inchiostro si dissolva completamente nell’acqua, colorandola interamente. Questo tipo di distribuzione, però, sul piano matematico, pur essendo enormemente più probabile come macrostato di una distribuzione irregolare dell’inchiostro nel bicchiere, è di per sé, come microstato, equivalente ad ogni altro microstato, quindi anche ad un eventuale microstato che si manifestasse sul piano macroscopico come separazione nel bicchiere dell’acqua e dell’inchiostro. Considerando in tal senso l’uso della probabilità, ossia ammettendo completamente la possibilità che un esperimento manifesti appunto un andamento estremamente improbabile, rendiamo l’uso delle previsioni probabilistiche non falsificabile, poiché ogni accadimento che le contraddicesse potrebbe essere inteso come uno di questi eventi estremamente improbabili.
Al contrario, intendendo la probabilità che l’inchiostro si sciolga di fatto nel bicchiere non come mero accidente, ma come effetto normale, ciò che avviene di norma, naturalmente, dotiamo di significato fisico quella stima e la rendiamo tale che, qualora dovesse dimostrarsi in alcuni casi contraddetta, la considereremo quasi-falsificata, in ogni caso bisognosa di revisione.
Questo vuol dire Popper, quando sostiene l’abitudine del fisico a trascurare le improbabilità estreme, a non prendere in considerazione i macrostati compatibili con la dinamica microscopica, ma del tutto improbabili. Su questa attitudine, infatti, si fonda la possibilità di conservare anche in questo campo una precisa dimensione di oggettività scientifica. Oggettività che non si fonda sulla negazione della possibilità di ciò che è estremamente improbabile, ma sulla sanzione della sua non-pertinenza per il lavoro di ricerca scientifica: infatti, un evento estremamente improbabile è per sua natura non riproducibile a piacere e quindi non è legittimamente oggetto della scienza, che abbiamo visto interessarsi solo agli effetti fisici riproducibili, agli eventi appunto. Che un evento estremamente improbabile si verifichi, in altri termini, è un accadimento, non un evento in senso rigoroso: conseguentemente, non può essere oggetto di un controllo intersoggettivo, ossia non è affatto un fenomeno oggettivo.
Appare così del tutto giustificato il consiglio di Popper di intendere la probabilità come espressione di una tendenza oggettiva del fenomeno, in quanto il suo svolgimento altamente probabile è quello normale e quasi sempre riproducibile. Di conseguenza, se un fisico riesce a riprodurre variazioni regolari rispetto ai valori che dovrebbe attendersi di norma sulla base delle sue stime probabilistiche, queste possono ritenersi falsificate in maniera oggettiva. Come vedete, tramite la decisione metodologica di intendere la probabilità a prescindere dall’accadere di eventi estremamente improbabili, considerando quindi il fenomeno non come accumularsi di accidenti, ma come una dinamica fisica normale, Popper riesce a pensare la falsificabilità di asserzioni che altrimenti, data la loro forma logica e la struttura matematica del calcolo delle probabilità, risulterebbero mai falsificabili. Ossia, Popper riesce a pensare il contenuto fisico empirico delle previsioni probabilistiche, ammettendo appunto sul piano regolativo che esse debbano avere un significato fisico e non solo matematico.
In questo modo si configura la questione della decidibilità delle ipotesi probabilistiche: di per sé, esse non sono falsificabili, quindi sono metafisiche; eppure, ne è possibile un uso empirico, che le rende falsificabili. Come è possibile quest’uso? Semplicemente, assumendo come regola di corroborazione di un’ipotesi probabilistica l’assenza di ricorrenze sperimentali prevedibili e riproducibili di deviazioni sistematiche dai valori previsti. Le ipotesi probabilistiche sono considerate non falsificate solo finché constatiamo il “miglior accordo possibile per tutto ciò che è riproducibile e controllabile; in breve, per tutti gli effetti riproducibili”.
La soluzione qui prospettata da Popper è estremamente interessante, ma consente almeno due interpretazioni fondamentali circa lo statuto delle previsioni probabilistiche. Infatti, la preferenza nel considerare l’evento probabile come “normale” chiama necessariamente in causa l’idea di norma del fenomeno, ossia di legge naturale. È legittimo asserire che un’ipotesi probabilistica esprima una legge naturale? La posizione che Popper difende nella Logica della scoperta scientifica è decisamente dipendente dalla prospettiva einsteiniana che è qui dominante. Nella sua lunga polemica contro l’interpretazione di Copenaghen della meccanica quantistica, Einstein soleva ripetere che “Dio non gioca a dadi”, ossia che non ha senso parlare di leggi strettamente statistiche, poiché non esistono fenomeni intrinsecamente casuali. L’elemento casuale, in altri termini, è dovuto ad un’insufficiente conoscenza della ragione sufficiente dei fenomeni, ragione che deve avere una struttura legale in senso rigidamente deterministico. L’evoluzione “normale” di un fenomeno, quindi, è la sua evoluzione legale, che non risulta pienamente descrivibile in termini deterministici non perché sfugga ad essi, ma o perché non conosciamo completamente la legge e constatiamo solo le regolarità riproducibili dei fenomeni, oppure conosciamo la legge, ma non siamo di fatto in grado di acquisire una conoscenza adeguata delle condizioni iniziali (per esempio, nel caso del lancio dei dadi).
Nel contesto della sua discussione circa la probabilità, Popper, dopo aver stabilito un uso oggettivo delle stime probabilistiche, affronta la questione circa la legalità della natura, propendendo per le tesi einsteiniane, che però non può difendere esplicitamente sul piano epistemologico, poiché esse sono sostanzialmente metafisiche. È infatti tesi del tutto metafisica, che la natura abbia una dinamica integralmente legale, deterministica e reversibile. Popper, però, sottolinea come anche la tesi opposta sia sostanzialmente metafisica, ossia che è impossibile “affermare in modo definitivo che in un campo particolare non esistano leggi”, circostanza che è legata all’impossibilità della verificazione. In questo momento dell’evoluzione del suo pensiero, Popper ritiene fondata su questa impossibilità la necessità di una concezione soggettiva del caso: in altri termini, esiste il caso quando la nostra conoscenza è insufficiente alla formulazione di una previsione deterministica, nei due sensi prima specificati: o perché non possiamo conoscere adeguatamente le condizioni iniziali o perché non conosciamo ancora la legge (non abbiamo comunque garanzie che essa sia conoscibile o anche semplicemente esista).
Questa posizione, che è in sostanza quella di Boltzmann ed è certamente in sintonia con la fede einsteiniana, pur non potendo formularla rigorosamente, conduce Popper ad una critica sommaria delle tesi di Heisenberg. Egli scrive, infatti, “contro questo punto di vista soggettivistico è stata spesso sostenuta una dottrina oggettivistica. Siccome tale dottrina fa uso dell’idea metafisica che gli eventi sono, e non sono, determinati in se stessi, non l’esaminerò qui ulteriormente”. E poi continua: “Se la nostra predizione ha successo possiamo parlare di «leggi»; altrimenti non possiamo sapere nulla sull’esistenza o la non-esistenza di leggi o di irregolarità”.
Questa aggiunta è estremamente significativa: infatti, la questione che poneva Heisenberg non era affatto quella dell’impossibilità di formulare leggi intorno a quegli ambiti dell’esperienza che egli riconosceva come non determinati in sé. Tutt’altro: il tentativo di Heisenberg era precisamente quello di riformulare la concezione della “legge naturale”, al fine di poter intendere come leggi definitive rispetto al moto delle particelle subatomiche ipotesi probabilistiche e non deterministiche. Insomma, le leggi non sono necessariamente deterministiche, anzi, nell’ottica della fisica quantistica, le leggi hanno una natura essenzialmente statistica; essenzialmente, proprio perché la loro formulazione soggettivistica non è dovuta all’ignoranza di fatto, bensì all’indeterminazione di principio dei fenomeni così descritti, un’indeterminazione che ammette comunque livelli di prevedibilità dei fenomeni.
Se le cose stanno così, la posizione di Popper non sembra affatto tanto distante da quella di Heisenberg: “Se la nostra predizione ha successo possiamo parlare di «leggi»; altrimenti non possiamo sapere nulla sull’esistenza o la non-esistenza di leggi o di irregolarità”. Così Popper – e teniamo presente che ciò è ammesso senza alcuna concessione alla logica operazionista o strumentalista, coma la stigmatizzava lo stesso Popper, criticandola nella maniera più aspra possibile. Ma ciò, era precisamente quanto andava ripetendo Heisenberg, sulla fiducia da accordarsi alle equazioni di stato dell’atomo, nella misura in cui le risultanze sperimentali mostravano una straordinaria concordanza con esse. Fiducia non solo come strumento di calcolo e di previsione, ma come formalizzazione matematica delle leggi relative a tendenze oggettive operanti nel mondo atomico e subatomico, a possibilità oggettive intese esplicitamente nel senso della dynamis. Le leggi statistiche della meccanica quantistica, insomma, sono intese da Heisenberg come descrizioni oggettive non della necessità deterministica delle dinamiche materiali, bensì della propensione della materia verso certe disposizioni. Tutto sommato, sono leggi che intendono la causalità non in termini di causa efficiente, ma di causa finale.
Ebbene, proprio Heisenberg, più che la scuola di Copenaghen nel suo insieme, è oggetto in questo libro di Popper di una critica molto violenta, che peraltro attirò l’attenzione e il sostegno di Einstein. Eppure, lo stesso Popper avrebbe finito per sostenere una tesi circa la natura del caso molto vicina a quella heisenberghiana e del tutto opposta a quella di Einstein. Ciò avviene nel Poscritto, ma ve ne è un accenno anche in una nota alla Logica: “In questo paragrafo ho ignorato, a causa del suo carattere metafisico, una teoria metafisica che ora, nel Postscript, raccomando fortemente, perché mi sembra aprire nuove prospettive, suggerire la risoluzione di serie difficoltà, e perché mi sembra che, forse, sia vera. Quando scrivevo questo libro ero ben consapevole di sostenere credenze metafisiche, e mettevo anche in evidenza il valore di suggerimento che le idee metafisiche hanno per la scienza; tuttavia non ero sensibile al fatto che alcune dottrine metafisiche possono essere dibattute razionalmente, e, pur essendo inconfutabili, possono essere esaminate criticamente”.
Come comprendete, questa nota è di importanza capitale, sia per ciò che dice tra le righe circa la comprensione delle leggi probabilistiche, sia per ciò che afferma molto chiaramente circa il senso del discorso filosofico. Egli non ammette più solamente la possibilità che concezioni non empiricamente controllabili diano uno stimolo, come aiuto esterno, alla scienza, la cui formulazione rigorosa deve però espungere quelle idee, ma sostiene chiaramente che è possibile un’interpretazione filosofica della scienza criticamente valida, rispetto alla quale si possono avanzare, prudentemente, pretese di verità. Ciò che invece viene detto tra le righe, è che in sostanza Heisenberg aveva ragione nel ritenere possibile una concezione oggettiva del caso e non soggettiva: il caso non è proprio solamente di una conoscenza imperfetta, ma rappresenta una categoria dell’essere naturale, non però come caso matematico, ossia indifferenza degli accidenti, bensì come dimensione di spontaneità delle dinamiche naturali, che possiamo legittimamente comprendere come intrinseca tendenza a manifestazioni di un certo tipo: dirà il Popper maturo, come propensione. Che certi eventi siano più probabili rispetto ad altri, quindi, è il risultato di una propensione del fenomeno a manifestarsi in quel modo e non diversamente, anche in assenza di una determinazione rigida della dinamica della manifestazione.
Vi cito solamente alcuni passi delle ultime pagine del Postscript che sono molto chiare al riguardo: “Propongo di interpretare la probabilità oggettiva di un singolo evento come una misura di propensità oggettiva – della forza della tendenza, inerente alla situazione fisica specifica, a realizzare l’evento – a farlo accadere” (p. 401). Questa posizione, pur se interpretabile ancora matematicamente nei termini della teoria frequenziale difesa nella Logica della scoperta scientifica, è però esplicitamente riconosciuta da Popper come discontinua rispetto ad essa: “Infatti”, scrive, “ho cambiato idea. Sotto il profilo storico, il cambiamento è avvenuto, in primo luogo, come conseguenza del mio ininterrotto sforzo di comprendere la situazione nella teoria dei quanta” (p. 404). Questo comporta, evidentemente, che il capitolo della Logica della scoperta scientifica dedicato a questa teoria e in particolare alla posizione di Heisenberg va considerato sostanzialmente superato e quasi ribaltato, dallo sviluppo successivo del pensiero di Popper (ed è questo il motivo per cui non lo discuteremo in questo corso), così come possiamo ipotizzare un cambiamento di atteggiamento rispetto alla posizione di Einstein, cambiamento che proprio in queste pagine del Poscritto è confermato chiaramente: l’interpretazione propensionale “è incompatibile con l’interpretazione soggettivistica del calcolo delle probabilità. La tesi che dobbiamo ricorrere alla probabilità soltanto a causa della nostra mancanza di conoscenza è stata ampiamente diffusa fra molti dei più grandi fisici sin dai tempi di Laplace; essa è stata difesa da Einstein in due lettere a me indirizzate (una delle quali pubblicata nella Logica della scoperta scientifica). Questa è stata, indubbiamente, la ragione principale per cui ho accumulato in questo libro così tanti argomenti, in un tentativo di mostrare, nel modo più esauriente possibile, che l’interpretazione oggettivista risolve il problema, mentre l’interpretazione soggettivista è incapace di farlo. La famosa obiezione di Einstein al «dio che gioca a dadi» è indubbiamente basata sulla sua concezione della teoria della probabilità come tappabuchi richiesto dalla nostra mancanza di conoscenza, dalla nostra umana fallibilità; in altri termini, sulla sua credenza nell’interpretazione soggettivista della teoria della probabilità, concezione palesemente legata al determinismo” (pp. 405-406).
Insomma, il cambiamento di prospettive è abbastanza chiaro e molto netto, un cambiamento apparentemente delimitato alla questione dei rapporti con la meccanica quantistica circa l’interpretazione delle leggi statistiche, ma in realtà esteso alla concezione del senso delle leggi di natura e delle dimensioni trascendenti il sapere scientifico. Quindi un cambiamento molto importante, che però è a mio avviso nient’altro che la prosecuzione sullo stesso percorso inaugurato con la Logica della scoperta scientifica, la cui struttura portante rimane legata ad un ideale in qualche modo «metafisico» di oggettività del sapere, cui sostanzialmente ripugna una teoria soggettivistica del caso. Ad ogni modo, noi non cercheremo di ricostruire nei particolari il mutamento che avviene nel pensiero di Popper quando questi trova il coraggio dell’espressione più pura delle sue convinzioni di fondo, ma chiuderemo con sintetiche osservazioni circa l’idea di corroborazione delle teorie scientifiche, per poi passare direttamente alla formulazione matura delle tesi circa lo scopo della scienza nel Poscritto, tralasciando, di questo testo, tutte le sezioni che riprendono gli argomenti trattati sinora, integrandoli e in parte modificandoli.

“Le teorie non sono verificabili, ma possono essere «corroborate»” (p. 275). Come dicevamo introducendo il discorso circa la probabilità, la considerazione della probabilità delle ipotesi è declinata da Popper all’interno del tema della corroborazione di una teoria. Una teoria è corroborata, se ha “dimostrato il proprio valore” superando dei controlli. La severità di questi determina il “grado di corroborazione” di una teoria. Questo grado di corroborazione, però, non corrisponde ad un grado di probabilità, per la teoria, di essere vera. Ma cosa intendiamo, esattamente, parlando di gradi di probabile verità di una asserzione?
La logica classica ammette solamente due valori di verità, vero e falso. Conseguentemente, nei suoi termini, non ha senso parlare probabilità come grado intermedio di verità. Negli anni in cui Popper scriveva, comunque, si andavano proponendo sistemi logici a più valori di verità, in particolare quelli di tipo induttivistico, che Popper definisce come “logica della probabilità”. In buona sostanza, si tratta di sistemi verificazionisti, espressione di quello che potremmo chiamare un “verificazionismo debole”, basato sull’ammissione di una vera e propria gradazione della verificazione di un asserto.
Un modo per intendere la verificazione in questo senso, è quello di ritenere verificata una teoria per l’ambito di fenomeni che descrive correttamente: rimane impossibile dichiarare la verità inconcussa di quella teoria, ma non ci si preoccupa più di tanto dell’eventualità che nuovi esperimenti la contraddicano, ritenendo sufficiente appellarsi al dato immancabilmente positivo, che gli esperimenti condotti rispetto a tutta una classe di previsioni dedotte da questa teoria la confermano costantemente. In questo senso, anche una teoria irrimediabilmente invecchiata e superata conserva un grado di validità come caso limite di una nuova teoria.
Questo argomento, come nota Popper, chiama in causa un assunto sostanzialmente metafisico e ritiene di potersi giustificare pienamente in base ad esso: l’assunto della uniformità della natura. Le regolarità che sono controllabili sperimentalmente non variano ed è per questo che una teoria in grado di descrivere un buon numero di queste regolarità ha un suo valore di verità.
Se teniamo presente quanto sinora detto circa la concezione popperiana della logica, possiamo subito capire per quale motivo questo tipo di argomento non può apparirgli convincente: tutto sommato, infatti, Popper è fortemente incline ad accettare un concetto oggettivo della verità, in base al quale una teoria che si dimostra anche in un solo caso falsa non può vantare alcuna verità, poiché non descrive oggettivamente la realtà. Eppure, Popper ammette il principio dell’uniformità della natura, che peraltro descrive in maniera molto chiara e rigorosa come principio dell’invarianza spazio-temporale delle leggi di natura, un principio di carattere essenzialmente metodologico.
In sostanza, ciò che si chiede ad una teoria è che la sua validità non sia limitata a contesti spaziotemporali determinati: e ciò, a dispetto di quanto pretende l’induttivismo sulla base del principio dell’uniformità della natura, equivale proprio a negare, non solo sul piano logico, ma anche su quello fisico, la legittimità di inferire da un caso particolare all’universalità dei casi generali. Il caso singolo, che sia previsto correttamente dalla legge, non garantisce che non si possa dare una circostanza apparentemente analoga nella quale la legge risulta contraddetta. Di conseguenza, in base alla regola che impone l’invarianza spaziotemporale della legge, questa è falsificata e bisogna trovarne una nuova, che renda conto sia dei nuovi esiti, che dei vecchi. La legge di natura non deve ammettere eccezioni.
È su questa base che dobbiamo affrontare la questione della probabilità di un’ipotesi, tenendola ben distinta da quella degli eventi, poiché, che un’asserzione sia probabilmente vera non ha niente a che fare con la probabilità del verificarsi di un evento (critica a Reichenbach). Infatti, la probabilità di un evento non è confutata dal verificarsi di un evento diverso (la probabilità della proprietà testa di una sequenza non è confutata dall’accadimento croce), mentre la probabilità di un’asserzione è ridotta a zero anche se risulta falsa una sola volta. E anche provando a ritenere la probabilità di un’asserzione come la stima del rapporto tra i controlli che la teoria ha superato e quelli che non sono stati ancora tentati o che hanno dato esito indifferente, le cose non cambierebbero granché: nel primo caso, la probabilità sarebbe sempre uguale a zero; nel secondo caso avremmo a che fare con controlli che non sono effettivamente tali.
La confusione tra questi due livelli: la probabilità delle asserzioni e quella degli eventi, è dovuta secondo Popper ad un’incomprensione della differenza tra leggi deterministiche e leggi statistiche: quasi come se alle prime fosse pertinente un grado pieno di verità o falsità, mentre alle seconde solo un grado parziale di verità o falsità, quindi una maggiore o minore probabilità di essere vere. Le cose, però, non stanno affatto così: le asserzioni probabilistiche, in altri termini, non sono affatto essere stesse probabili, ma vere o false: e la situazione nell’ambito della scienza è tale, che non possiamo mai asserire senz’altro la verità di queste asserzioni, ma solo che sino ad un certo momento non sono state ancora falsificate: il che non le rende più probabili, ma solo più corroborate e solo se sono state effettivamente controllate con la migliore buona volontà di falsificarle. Per quanto riguarda le ipotesi probabilistiche, che sono per la loro forma logica metafisiche e quindi in sé né verificabili, né falsificabili, la possibilità che vengano trattate come le altre asserzioni empiriche riposa sulla regola metodologica di cui abbiamo parlato precedentemente e che è ricavata dal concetto fisico di probabilità. Nella misura in cui decidiamo di considerarle falsificabili, esse hanno lo stesso statuto epistemologico, nonostante la loro forma logica differente. Ed è solo in grazia dell’acquisita falsificabilità, che esse divengono anche più o meno corroborabili (altrimenti, come è evidente, sarebbero sempre corroborate).
Ma cosa intendiamo esattamente con corroborazione, se questa parola non deve intendere la maggiore o minore probabilità di essere vera di una teoria? Ciò che ha in comune il discorso sulla corroborazione con il discorso sulla probabilità di un’ipotesi è l’idea del modo di valutare una teoria, di giudicare il suo valore in relazione alla sua base empirica. Le teorie scientifiche si presentano come congetture circa la realtà e il loro grado di corroborazione equivale al valore che esse dimostrano di possedere, un valore che è proporzionale al grado di controllabilità della teoria ed alla severità dei controlli cui è stata di fatto sottoposta. Grado di corroborazione che non è un grado di verità, ma in primo luogo la constatazione che la teoria ha retto bene, ossia che si è dimostrata compatibile con le asserzioni-base accettate. Ma ciò non è sufficiente: se infatti l’incompatibilità equivale alla falsificazione, la compatibilità non è sufficiente ad un’autentica corroborazione, poiché rimane sempre possibile, dato un numero discreto di asserzioni-base, costruire diverse teorie compatibili con esse (con un atteggiamento che abbiamo chiamato modellistico). Questa annotazione equivale alla constatazione della differenza tra idea di corroborazione e valutazione del grado comparativo di corroborazione tra diverse teorie. Ed evidentemente è questo secondo punto quello importante: infatti, che una teoria non sia falsificata è condizione del tutto ovvia affinché essa valga come sapere positivo circa la natura; più problematico è stabilire il valore relativo tra due teorie non falsificate.
In prima approssimazione, Popper afferma che al riguardo non è tanto determinate il numero di controlli e quindi di asserzioni-base riconosciute compatibili, quanto la severità dei controlli, che a sua volta è in stretta relazione con il grado di controllabilità e con tutto ciò che è connesso ad esso: l’ipotesi più semplice, ossia più generale e precisa, è più controllabile, più facilmente falsificabile, in positivo è corroborabile ad un grado più alto. Ma ciò, se ricordate bene le tesi circa la controllabilità, equivale a dire che il grado di corroborazione potenziale di una teoria, essendo proporzionale al suo grado di falsificabilità, è complementare al grado della sua probabilità logica. Badate bene, però, che qui parliamo solo della corroborazione potenziale, che non coincide pienamente con la falsificabilità, poiché questa è impermeabile alla falsificazione di fatto, mentre la corroborazione evidentemente non lo è. In altri termini, il grado di falsificabilità di una teoria rimane lo stesso, anche dopo che la teoria è falsificata; il grado di corroborazione, invece, che è potenzialmente analogo a quello di falsificabilità, crolla dopo che una teoria è stata falsificata di fatto.
In ogni caso, che vi sia qui un contatto tra corroborazione e probabilità è legato alla circostanza che la probabilità logica non è un valore di verità materiale, ossia non si predica del contenuto di un’asserzione, ma solo della sua forma, essendo legata alla maggiore o minore vicinanza alle asserzioni formalmente sempre vere, le tautologie, o sempre false, le contraddizioni. In positivo: la corroborazione potenziale è dipendente dalla forma logica della teoria, la corroborazione di fatto è dipendente dal suo contenuto. La corroborazione potenziale è inversamente proporzionale al grado di verità formalmente logica di un’asserzione; la corroborazione di fatto non è affatto un valore di verità di questa, ma solo una valutazione relativa alla non-ancora-falsificazione della stessa. E su questo voglio insistere un attimo: corroborazione e verità sono concetti del tutto diversi, sostanzialmente poiché il primo descrive una situazione temporalmente condizionata, mentre il secondo enuncia un carattere idealmente atemporale: un’asserzione vera è sempre vera, un’asserzione corroborata lo è sino ad ora, ma non abbiamo alcuna garanzia che lo rimanga.
Che Popper insista su questa differenza tra vero e corroborato non è solo indice di coerenza con le sue tesi circa l’impossibilità della verificazione di un’asserzione universale, ma risponde anche al preciso intento di evitare qualsiasi formulazione strumentale circa il valore di una teoria, nel senso dell’utilitarismo.

II modulo:

Lo scopo della scienza e il realismo.

È proprio con considerazioni sullo scopo della scienza che Popper concludeva la Logica della scoperta scientifica, presentando una concezione al tempo stesso profondamente antica, classica, e radicalmente investita dalla rivoluzione kantiana del pensiero moderno, una rivoluzione che, non lo si dimentichi, è stata il preavviso, se non la prima espressione, del nichilismo. I romantici erano profondamente consapevoli di questo, addirittura dolorosamente consapevoli del fatto che Kant aveva chiuso le porte alla ricerca della verità metafisica, quindi alla maggiore aspirazione del sapere filosofico. Il senso di tutta la filosofia successiva può essere interpretato come una rivolta contro Kant, un tentativo di neutralizzarlo, soprattutto nell’idealismo, ma in fondo anche in Schopenhauer, o come un approfondimento della sua critica, per esempio in Nietzsche. E, come ho detto proprio all’inizio di questo corso, l’intera epistemologia è in qualche modo erede diretta della Critica della ragion pura.
Popper, in particolare, dimostra una conoscenza profonda delle tesi kantiane e sviluppa la propria proposta epistemologica in una sorta di dialogo ideale continuo con Kant, con cui condivide alcune tesi fondamentali circa natura e limiti del pensiero umano. Eppure, come dicevo, nella sua concezione circa lo scopo della scienza è presente anche un elemento in qualche misura prekantiano: una concezione oggettiva della verità, che Popper fa risalire ad Aristotele. A pagina 20 del Poscritto leggiamo: “Io sostengo l’antica teoria della verità (pressoché esplicita in Senofane, Democrito e Platone e del tutto esplicita in Aristotele) secondo la quale la verità consiste nella corrispondenza ai fatti di quanto viene asserito”. E scopo della scienza è precisamente la verità in questo senso. Il problema, è che la conoscenza dell’uomo, che è contraddistinta dal fatto di poter essere “formulata in un linguaggio, in proposizioni” (p. 24), rimane per questo soggetta ai limiti logici, in particolare a quello relativo all’impossibilità di fornire ragioni oggettive positive empiriche per la giustificazione di una teoria: in altri termini, non possiamo garantire mai la verità di quello che conosciamo. Quindi lo scopo della scienza, la verità, è qualcosa che possiamo anche conoscere, ma senza poter essere mai certi che la possediamo.
Questa idea dello scopo della scienza comprende in sé ovviamente anche il secondo elemento del sottotitolo al Poscritto: il realismo, che per Popper è esattamente la condizione di possibilità della critica razionale come percorso maestro della scienza. A p. 36 del Poscritto, un testo prevalentemente polemico, leggiamo un altro proclama di Popper: “Io sono un razionalista. Con il termine razionalista intendo dire un uomo che desidera comprendere il mondo e imparare discutendo con gli altri”, ispirato “dall’interesse di avvicinarsi alla verità sul mondo”. E poi: “Io credo che il cosiddetto metodo della scienza consista in questo genere di critica”. Come vedete, la critica razionale, ossia la conoscenza del mondo fondata sulla discussione entro una comunità, conoscenza a sua volta possibile sulla base di un assunto metafisico realista, è la via della scienza, poiché suo scopo è appunto la verità, o meglio, “avvicinarsi alla verità”, se è vero, come dicevamo prima, che la certezza di essa non può essere argomentata.
Su questi termini, però, ossia sulla definizione completa di realismo e sulla chiarificazione dell’idea di “avvicinamento alla verità”, un’idea tutto sommato stridente con la critica di Popper alla concezione della corroborazione come acquisizione di un grado di probabilità di essere vere delle teorie, torneremo dopo aver discusso più approfonditamente sull’impostazione critica del pensiero di Popper.
Le indicazioni più importanti al riguardo le ritroviamo ancora una volta nell’ambito della distinzione, frequentemente ribadita da Popper, tra la questione epistemologica e quella storica circa lo sviluppo della scienza. “Come ho già tentato di chiarire nel 1934, non considero la metodologia come una disciplina empirica da controllare, forse, attraverso i fatti della storia della scienza. Essa è, piuttosto, una disciplina filosofica – metafisica – forse anche, in parte, una proposta normativa. Essa si basa, in gran parte, sul realismo metafisico e sulla logica della situazione: quella di uno scienziato che indaga sulla realtà sconosciuta che sta dietro le apparenze e che è ansioso di imparare dagli errori” (p. 14). Quindi: l’epistemologia non si controlla tramite la storia della scienza, poiché non è una disciplina empirica, eppure deve rendere conto della logica della situazione dello scienziato, della logica della ricerca della verità al di là delle apparenze. E quindi comprendiamo il seguito di questo passo: “Tuttavia, ho sempre pensato che la mia teoria – della confutazione, seguita dall’emergere di un nuovo problema, seguito, a sua volta, da una nuova e forse rivoluzionaria teoria – fosse del massimo interesse per lo storico della scienza, poiché portava ad una revisione del modo in cui gli storici dovrebbero guardare alla storia”. E poi, a p. 19, dopo aver elencato una serie di esempi storici di confutazioni di teorie, che aprirono il campo a rivoluzioni scientifiche: “Naturalmente, è sottinteso che queste confutazioni crearono soltanto nuove situazioni problematiche che, a loro volta, stimolarono il pensiero immaginativo e critico. Le nuove teorie che si svilupparono non erano quindi risultati diretti delle confutazioni: erano, bensì, le conquiste del pensiero creativo, di uomini di pensiero”. E infine, a p. 20: “La mia teoria della scienza non intendeva essere una teoria storica, né essere suffragata da fatti storici o da altri fatti empirici, come ho detto in precedenza. Dubito, tuttavia, che esista una teoria della scienza capace di gettare così tanta luce sulla storia della scienza come la teoria della confutazione seguita da una ristrutturazione rivoluzionaria e, cionondimeno, conservatrice”.
Come vediamo in tutti questi passi, Popper stesso dimostra che il falsificazionismo è implicitamente declinabile come teoria circa la storia della scienza, una storia dominata da uno sviluppo scandibile in tre momenti: il primum è l’immaginazione, come tentativo, tutto razionale, di cogliere la verità con un atto del pensiero. Il secondo, è la confutazione empirica delle teorie sorte in tal modo. Il terzo, è la riconfigurazione del problema, che rappresenta lo sfondo per un nuovo tentativo. Eppure, Popper esige che la sua teoria epistemologica non venga confrontata con la storia effettiva della scienza, al fine di trarre da essa conferme o smentite. E questo sostanzialmente perché essa vuole rimanere sul piano puramente critico, senza avventurarsi troppo esplicitamente sul piano genealogico. A questo punto, però, è necessario che chiariamo meglio di quanto non abbiamo fatto sinora il senso di questa distinzione tra analisi critica e ricostruzione genealogica, sfuggendo ai termini con i quali Popper descrive l’alternativa, riducendo l’ambito genealogico alla questione psicologica dell’acquisizione della conoscenza. La genealogia può fare uso di argomenti psicologici, ma il suo impianto è molto più ampio e complesso e probabilmente l’articolazione problematica che consente è superiore anche a quella propria dell’analisi critica.
Come abbiamo visto, per Popper l’epistemologia è legata all’analisi razionale entro una comunità in dialogo, analisi critica, che kantianamente è ricerca delle condizioni di possibilità: in effetti, il falsificazionismo è per larga parte proprio l’analisi circa le condizioni logiche, metodologiche, epistemologiche e addirittura anche metafisiche della scienza come conoscenza della verità. A che condizioni una teoria è scienza empirica e rappresenta il nostro mondo di esperienza possibile? Questa la domanda fondamentale della Logica della scoperta scientifica. Rispetto a questo tipo di domande l’impianto della genealogia non è alternativo, ma integrativo: in altri termini, la genealogia comprende un’analisi sulle condizioni di possibilità, ma il suo scopo fondamentale è l’interpretazione della genesi effettiva, quindi l’analisi delle occasioni reali.
Torniamo un attimo a Kant: la sua Critica è analisi delle condizioni di possibilità della metafisica in quanto scienza a priori dell’essere, ossia di qualcosa che si pretende esista (Wolff, Leibniz) e che dovrebbe essere precisamente il primo scopo della filosofia. Ebbene, Kant trova le condizioni di possibilità, solo che queste risultano tali, da confutare non certo l’esistenza della metafisica, quanto la sua pretesa scientificità. Condizione di possibilità essenziale della metafisica è la ragion pura, ossia le categorie dell’intelletto nel loro uso speculativo, un uso che non garantisce la verità della metafisica, poiché fatalmente la coinvolge in antinomie irresolubili.
Come si vede, la ricerca delle condizioni di possibilità approda qui al rinvenimento di a priori, come ciò che è sempre preliminare e garantisce la possibilità della conoscenza sintetica, ma solo di quelle matematica ed empirica. Rispetto all’idea di a priori, la genealogia va in cerca dell’origine come ciò che dà inizio: gli a priori sono principio logico, l’origine è principio ontologico. Nell’arché dei presocratici queste due accezioni del termine principio, insieme ad altre, sono contemporaneamente valide.
Trasponendo il discorso di Kant nei termini tipici dell’ontologia, possiamo dire che il principio a priori della conoscenza vera dell’essere è la struttura della mente umana, è il pensiero, che però non è, nella sua forma categoriale, anche principio genetico della metafisica, se non in un senso particolare. La metafisica, infatti, proprio in relazione alle condizioni di possibilità garantite dalla struttura della mente, è impossibile come scienza, ma ciò non definisce ancora il motivo della sua esistenza reale in quanto presunta scienza. In altri termini, nel pensiero umano riposa la possibilità della metafisica, ma questa possibilità non spiega la sua esistenza storica. Qual è dunque l’origine della metafisica?
Lo stesso Kant risponde in qualche modo a questa domanda, definendo le asserzioni metafisiche come esito di un uso speculativo della ragione. Quindi, la possibilità della metafisica è data dalle forme della ragione, la sua esistenza dall’uso speculativo di queste forme come “idee” della ragione. Uso speculativo che è la pretesa di farsi bastare la forma, a prescindere dal contenuto, dal fenomeno come dato dell’esperienza.
Ora, il problema fondamentale di questa concezione, peraltro straordinariamente ben articolata e limpida, è considerare le forme della ragione solo come condizioni dell’esperienza e non come esse stesse esperienze, quindi dotate non solo di un significato logico-formale, ma anche fenomenico-ontologico (questa possibilità è forse adombrata nello schematismo del senso interiore, che non a caso è la dottrina kantiana cui si rivolge maggiormente Heidegger nella sua interpretazione ontologica di Kant).
In qualche modo, questa limitazione corrisponde ad un residuo cartesiano del pensiero di Kant, evidente nella separazione tra il pensiero e l’essere, nella misura in cui il pensiero non può presentarsi come un essere, ma solo come la forma della conoscenza dell’essere. Quindi la testimonianza della ragione circa se stessa non può valere come testimonianza sull’essere, poiché è solo rispecchiamento delle condizioni di possibilità della conoscenza.
Proprio esponendo in questi termini i principi di fondo del criticismo, ci rendiamo conto della portata degli attacchi dell’idealismo e di Schopenhauer a Kant, attacchi che sono espressioni di una posizione del tutto opposta e non semplicemente diversa, come si sostiene criticando le pretese, tutto sommato analoghe, di Fichte e Schopenhauer di aver perfezionato e completato la Critica della ragion pura. Infatti, ciò che entrambi hanno compiuto, ognuno a modo suo, è stato proprio il ribaltamento della tesi kantiana: la forma mentis (l’io o la volontà che penso immediatamente come realtà metafisica del mio corpo) non è solo principio logico della conoscenza, ma anche origine ontologica o quantomeno fenomenologica della conoscenza e addirittura dell’essere stesso. Ovviamente, in tal modo entrambi giustificano perfettamente, con un argomento schiettamente metafisico, l’uso speculativo della ragione e cercano di dare autentica dimensione di principio genetico alle idee, per quanto lo facciano in maniera storicamente, antropologicamente e filologicamente insufficiente.
Questo sviluppo da Kant all’idealismo e poi a Schopenhauer, che corrisponde ad un passaggio dal principio critico a quello genealogico, però, introduce la vera grande riforma del criticismo kantiano, che non è il tentativo di neutralizzarne la carica antimetafisica, bensì l’espansione più sistematica possibile della critica all’uso speculativo della ragione dal piano logico a quello genealogico: mi riferisco ovviamente a Nietzsche, che è il vero rifondatore, dopo Aristotele, della genealogia filosofica, tramite il suo assioma fondamentale che origine, senso, forma e scopo di qualcosa non coincidono necessariamente, in particolare che l’origine non va intesa alla luce dello scopo. La mano, p.e., serve per afferrare, ma non può nascere a questo scopo, viene solo usata e reinterpretata in funzione di esso, il che comporta naturalmente la presenza di una potenza superiore ad essa. Analogamente, la ragione non nasce allo scopo della conoscenza, e quindi la metafisica allo scopo di cogliere la verità dell’essere.
Tralasciamo qui la determinazione precisa dell’arché in Nietzsche: diciamo solamente in generale che essa ha a che fare con la vita, come potenza affermatrice, sempre determinata e finita, sempre imperfetta, eppure pervasa da una dynamis erotica che la spinge all’ipostatizzazione di se stessa e, se è abbastanza ricca e vasta, dell’essere in totalità. La metafisica, quindi, quando è glorificazione dell’essere e non atto di accusa, può essere uno dei grandi gesti d’amore di una vita riconoscente. E proprio come gesto d’amore, o alternativamente di vendetta, essa è necessariamente ingiusta, falsifica sistematicamente, come diceva Stendhal “cristallizza” o altrimenti, analogamente, calunnia, in ogni caso sovrappone senza scrupoli la propria interpretazione e quindi sostituisce al testo fondamentale della natura la sua rappresentazione: al divenire sostituisce l’essere, al caos l’ordine, a ciò che è privo di senso lo scopo, alla falsità del mondo la verità, alla potenza la bellezza, all’inoffensività il bene. E tutte queste sostituzioni sono altrettante genealogie inverse, poiché ciò che così viene all’essere è effettivamente generato come concetto dalla realtà che nasconde e misconosce. Così è evidente anche qui che origine e fine non coincidono.
Ciò che emerge complessivamente da questa breve e schematica storia della filosofia da Kant a Nietzsche è che la genealogia certamente può comprende al suo interno un’analisi sulle condizioni di possibilità, ma tenderà perlopiù a identificarle diversamente dalla critica. Per esempio, Nietzsche troverà le condizioni di possibilità dei concetti metafisici non negli a priori dell’intelletto, concetto questo di apriori anch’esso metafisico, ma nelle strutture storiche del linguaggio; e comprenderà le idee della metafisica come reinterpretazioni e quindi invenzioni poetiche, di fondamenti vitali essenzialmente eterogenei, ossia di “genesi altra”.
Cosa comporta tutto ciò per le relazioni tra epistemologia (logica della situazione), metodologia (assicurazione delle condizioni di possibilità della scienza), logica in senso stretto e gnoseologia? Come vedevamo, Popper vuole tenere separata la critica dalla genealogia, assumendo però che la posizione maturata epistemologicamente sia effettivamente di aiuto per la comprensione della storia della scienza. Questo, però, è possibile solo ammettendo che le condizioni di possibilità della scienza riflettano anche i suoi principi genetici. È proprio così. In un passo molto interessante, Popper quasi confessa quanto segue “Si dà il caso che il vero perno del mio pensiero sulla conoscenza umana sia il fallibilismo e l’approccio critico; e che io pensi, e pensassi già anche prima del 1934, che la conoscenza umana sia un caso molto specifico di conoscenza animale. La mia idea centrale nel campo della conoscenza animale (quella umana inclusa) è che essa si basa sulla conoscenza ereditaria, abbia il carattere delle aspettative inconsce. Essa si sviluppa sempre come il risultato di modificazioni di una conoscenza precedente. La modificazione è (o è simile a) una mutazione: proviene dall’interno, ha la stessa natura di un pallone sonda, è intuitiva o audacemente immaginativa. È, quindi, di carattere congetturale: l’aspettativa può andare delusa, il pallone o la bolla possono venire forati: tutte le informazioni ricevute dall’esterno sono eliminative, selettive” (pp. 23-24).
Questa teoria gnoseologica è di carattere nient’affatto epistemologico, ma chiaramente genealogico ed è tale, peraltro, da spiegare anche l’opportunità del falsificazionismo in metodologia. Infatti, lo scopo della scienza, ossia ciò che la metodologia deve salvaguardare, è insito nella natura propria della conoscenza, che è, addirittura già nell’animale, conoscenza volta alla verità, nell’antica accezione di questo termine come corrispondenza con ciò che è reale. Che sia così, è evidente dagli argomenti che Popper oppone ai tentativi di ridurre il falsificazionismo a variante del relativismo o del pragmatismo.
Questo argomento è trattato in particolare alle pp. 53-55 del Poscritto. Popper discute qui le critiche alla sua posizione gnoseologica, intesa come sostituzione del problema della giustificazione con il problema della corroborazione. Il problema fondamentale della gnoseologia, dice Popper, sarebbe relativo ai criteri di valutazione del grado di approssimazione alla verità delle teorie, un problema che è stato poi declinato come ricerca dei criteri di verificazione delle teorie, ossia come problema della giustificazione. La critica all’induttivismo della Logica della ricerca scientifica dimostra che la giustificazione è impossibile: quindi, rispetto a questo problema, la posizione di Popper è scettica e relativista. Ma, dice, questo problema non è quello fondamentale e rispetto al primo vero problema, quello della valutazione delle teorie, il falsificazionismo risponde positivamente: è possibile, non tramite ragioni positive empiriche, ma tramite ragioni critiche anch’esse dotate di una dimensione empirica, stabilire il grado di corroborazione di una teoria e quindi valutarla.
La critica più seria a questa posizione, è quella che mette in dubbio la sua possibilità di evitare veramente le tesi relativiste, scettiche o pragmatiste (la verità è funzione del punto di vista; la verità è inconoscibile; la verità è l’utilità). Nei termini di questa critica, infatti, assumendo che non possiamo rispondere alla domanda se una teoria è vera, ma solo se è preferibile a un’altra, ammettiamo in qualche modo un criterio eterogeneo a quello puro della verità, criterio che ha in sostanza a che fare con il successo nel superamento dei controlli da parte delle teorie. Ma, protesta Popper, io “non dico che dovremmo sostituire la questione se una teoria sia vera con quella se sia meglio di un’altra; e neppure che una teoria sia migliore di un’altra ogni volta che ha più successo in qualche senso pragmatico […]. La mia posizione è questa: io sostengo che la ricerca della verità – o di una teoria vera che possa risolvere il nostro problema – è importantissima: tutta la critica razionale è una critica della pretesa che una teoria sia vera, e che sia in grado di risolvere i problemi alla cui soluzione è stata destinata. In questo modo, non sostituisco la questione se una teoria sia vera con quella se sia migliore di un’altra. Piuttosto, sostituisco la questione se possiamo produrre ragioni valide (ragioni critiche) a favore della verità di una teoria con quella se siamo in grado di produrre ragioni valide (ragioni critiche) contro il suo essere vera, o contro la verità delle sue rivali. Inoltre, sostengo che descrivere una teoria come migliore di un’altra, o superiore ad essa, o che altro, equivale ad indicare che essa appare più vicina alla verità. La verità, quella assoluta, rimane il nostro fine; e rimane il parametro implicito della nostra critica”, che è appunto il tentativo di dimostrare che una teoria non è vera. “Noi siamo quindi sempre alla ricerca di una teoria vera, anche se non possiamo mai esibire delle ragioni per mostrare di avere effettivamente trovato la teoria vera che stavamo cercando. Nello stesso tempo, potremmo avere delle buone ragioni per pensare di avere imparato qualcosa di importante; di aver fatto progressi verso la verità”.
E ancora: “nel sostituire il problema della giustificazione con quello della critica, non abbiamo bisogno di abbandonare né la teoria classica della verità come corrispondenza con i fatti, né l’accettazione della verità come uno dei nostri parametri critici”. Quindi, benché non possiamo sapere se possediamo la verità, “l’idea classica di una verità assoluta o oggettiva” è “un’idea regolativa” [infatti: è il criterio che indirizza nella proposta delle regole metodologiche]. “Il cambiamento effettuato non riguarda l’idea di verità, ma qualsiasi pretesa di conoscerla”. Con il che, badate bene, non è il problema della conoscibilità della verità a venire sollevato, ma quello dell’accertamento della conoscenza vera. E in ultimo: “Non occorre che rimaniamo sconcertati dalla scoperta che non possiamo giustificare” una teoria. “Infatti, il ragionamento critico ha ancora una funzione di primaria importanza rispetto alla valutazione delle teorie: noi possiamo criticare e discriminare tra le nostre teorie come risultato della discussione critica. Benché in tale discussione non possiamo, di regole, distinguere (con certezza, o quasi) fra una teoria vera e una falsa, possiamo a volte distinguere tra una teoria falsa e una che potrebbe essere vera. E possiamo spesso dire di una particolare teoria che, alla luce dello stato attuale della nostra discussione critica, essa appare molto migliore di qualunque altra teoria presentata; migliore, cioè, dal punto di vista del nostro interesse per la verità; o migliore nel senso di avvicinarsi maggiormente alla verità”.
Riassumendo molto schematicamente: esiste una verità oggettiva assoluta del mondo. Questa verità è conoscibile e la sua conoscenza è lo scopo della scienza. Dal momento, però, che non possediamo criteri per accertarci della verità delle nostre conoscenze, l’idea della verità assoluta oggettiva è “idea regolativa”, proprio nel senso kantiano di questo termine. Positivamente: il metodo critico della scienza, costruito sulla base di tale idea regolativa, permette di discriminare tra una teoria falsa e una potenzialmente vera. E, inoltre, permette di discriminare gradi di corroborazione di una teoria, che vengono qui intesi come gradi di avvicinamento alla verità. Ora, tutto questo discorso è coerente, tranne forse l’ultima sua assunzione: infatti, se la verità cui si tende è assoluta, non ha senso l’idea di approssimazione alla verità. La corroborazione rimane quello che era nella logica: non ancora falsificazione.
A prescindere da ciò, notiamo che evidentemente la questione fondamentale per comprendere le tesi di Popper sullo scopo della scienza e sul realismo, e il loro difficile equilibrio tra critica e genealogia, è appunto il problema della verità. Rispetto alla definizione di questo problema come possibilità di rinvenire ragioni positive per accertare la verità di una proposizione, quindi come problema della giustificazione, però, dobbiamo evidenziare che il problema della verità è prima di tutto il problema dell’essenza della verità e solo dopo quello della conoscenza della verità (problemi ontologico e gnoseologico). Popper dichiara la preferenza per l’idea classica intorno alla verità, ma vi ho già detto che è più che fondato il dubbio che egli pensasse non all’idea aristotelica, ma a quella cartesiana della verità come rappresentazione chiara e distinta, giusta, dell’oggetto. In ogni caso, sul versante gnoseologico della questione, la sua posizione è nettamente scettica (vedi p. 36: tre tesi scettiche). Ora, il primo problema, relativo alla antichità e classicità dell’idea assoluta di verità, non è di ordine semplicemente storico: non ci viene niente in tasca se difendiamo Aristotele dal sospetto di aver fondato l’idea cosiddetta classica di verità. Il primo problema è che l’idea di verità è quanto di più complesso e variabile e ancora problematico esista nella storia della filosofia e che, quindi, l’assicurazione di Popper di non essere un relativista poiché crede nell’idea classica di verità è del tutto vuota, se non comprendiamo quale sarebbe questa idea.
Per quanto riguarda il secondo problema, quello gnoseologico: esso esiste e cade con l’idea di una verità oggettiva o meglio ontologica, ossia dell’essere, ed è dipendente dai caratteri che associamo a questa verità. A seconda di come concepiamo la verità, insomma, ha senso interrogarsi o meno circa la sua conoscibilità e i modi di questa. E in particolare, possiamo separare gli ambiti ontologico e gnoseologico solo se riteniamo che la verità è indipendente dalla conoscenza e quindi possiamo chiederci come la conoscenza conosca la verità. Il problema è che la conoscenza è conoscenza vera o non è conoscenza, bensì fede, credenza, illusione e così via. Quindi il vero problema gnoseologico è precisamente quello circa l’essenza della conoscenza e non quello circa i modi della conoscenza della verità, ossia i metodi per passare, secondo la distinzione leibniziana, dalla verità di fatto alla verità di ragione.
Tutto ciò, ovviamente, a partire dall’assunto che vi sia verità oggettiva. Una posizione autenticamente scettica, nichilistica, non si limita a negare la conoscibilità della verità, ma la verità stessa: anche qui, ovviamente, il problema è intendersi circa l’essenza della verità. Se la verità è l’esser-così di una cosa, atemporale e immutabile, veritas aeterna dell’essere, quindi se è ciò che volevano Socrate e Platone, e che in realtà vuole anche Popper, allora è possibile un nichilismo filosofico, ossia una coerente negazione razionale della verità oggettiva. Se verità è invece la parvenza di una cosa, la sua presenza nella luce del mondo ed in quella, minore, della conoscenza, allora è possibile solo un nichilismo attivo, ossia la negazione della verità del mondo come suicidio. Il nichilismo filosofico, conseguentemente, è possibile solo come negazione della verità eterna dell’essere, quindi come concezione dell’essere in quanto divenire e parvenza assoluta (non parvenza di un’essenza, ma essenza parvente, quindi sempre nella relazione, nella prospettiva, nella molteplicità).
Torniamo, però, alla posizione di Popper circa la presunta idea classica di verità. E quindi rimandiamo a dopo la discussione dell’aporia radicale della concezione popperiana, tutto sommato evitata nella Logica, che è più prudente da diversi punti di vista, ma evidentissima nel Poscritto: che significa che una teoria corroborata, che integra e sostituisce la vecchia teoria falsificata, valga come più prossima alla verità, in assenza di un criterio di verità (o dei suoi gradi)?
Poniamo prima di tutto una domanda: che significa la distinzione tra conoscenza e verità? È una domanda a prima vista banale, apparendo ovvio che la verità si può predicare di una conoscenza e dunque si distingue da essa. È questo esattamente uno dei modi di procedere di tutta la logica occidentale: una conoscenza, espressa da una proposizione, può essere vera o falsa; la verità e la falsità sono attributi, che si escludono a vicenda (almeno nelle logiche a due valori di verità), di ogni proposizione con un contenuto reale, di ogni conoscenza. In particolare, che una proposizione sia vera significa che essa corrisponde, in qualche modo, al suo oggetto. È quanto leggiamo anche nella Critica della ragion pura: “l’accordo della conoscenza con l’oggetto è la verità”. Eppure questa concezione, di gran lunga dominante nel pensiero occidentale, la concezione della verità come adaequatio rerum et intellectus, non finisce per rendere superflua proprio quella distinzione tra conoscenza e verità su cui ci interroghiamo? Infatti, se la conoscenza è il possesso di cognizioni positive relative ad uno stato di cose oggettivo, è sensato pensare ad una conoscenza falsa? Una proposizione il cui contenuto non corrisponda alla realtà è ancora una conoscenza?
Ovviamente, tutto questo discorso è valido sinché si assume che la conoscenza è un sapere determinato e positivo. È possibile, però, anche intendere la parola nel senso del procedimento che conduce a tale sapere. In questa accezione, la verità non è più un attributo della conoscenza, ma il suo fine. La conoscenza è quella facoltà tramite la quale acquisiamo credenze circa la realtà, che possono poi essere vere o false, verità o parvenze, ancora nel senso di corrispondere o meno a quella realtà (qualunque cosa significhi questo corrispondere). In questo ambito, i problemi filosofici che si presentano sono quelli relativi all’accesso al reale ed al criterio della verità. Questa prospettiva sembrerebbe sancire del tutto la banalità della domanda che si poneva all’inizio, ma vedremo che almeno in certi sviluppi del pensiero filosofico non è così. Per il momento, però, cerchiamo di comprendere bene l’articolazione di questa proposta, per cui la conoscenza (meglio, il conoscere) è un modo dell’aver a che fare con la realtà, che nell’apprenderla può riuscire o fallire rispetto alla verità.
A questo punto, però, va definito meglio l’ambito della verità, per comprendere a cosa si volge il conoscere al fine di cogliere la verità. Come abbiamo già accennato, di verità si parla tradizionalmente in relazione all’esser-vero di un enunciato predicativo: la verità è logica, ha a che fare con un dire e precisamente con quella modalità del dire che consiste nell’affermazione di un nesso tra soggetto e predicato. Un simile enunciato è vero se quanto esso rappresenta logicamente corrisponde a quanto effettivamente è: la verità è un modo della relazione tra logos e on, il modo della Ñmo…wsij. Ammettiamo in linea preliminare la possibilità di sostenere una simile concezione e dunque rinunciamo a volgere contro di essa le numerose critiche di cui è stata oggetto nella storia della filosofia, per non deviare su di un piano gnoseologico che in questo momento farebbe perdere la traccia che si intende seguire. Chiediamoci piuttosto se, tenendo per vera questa “definizione” della verità come carattere dell’esser vero di enunciati sulla realtà il cui contenuto corrisponde ai fatti (alla Tatsache, nei termini di Wittgenstein), non ci troviamo di fronte ad un nuovo paradosso relativamente al rapporto tra conoscenza e verità, anche concependo la verità come fine della conoscenza e non come un suo attributo. La conoscenza, coerentemente con quanto assunto, sarebbe infatti quel procedimento tramite il quale arriviamo a formulare enunciati coerenti con la realtà, sarebbe l’istituzione di un rapporto logico vero con il reale, ma affinché la conoscenza giunga a ciò ed affinché sia in grado di conoscere la stessa verità dei suoi enunciati essa deve poter confrontare il contenuto predicativo dei suoi asserti con l’articolazione della realtà e ciò non può farlo se non conoscendo la realtà. La corrispondenza, in questo senso, non sarebbe che coincidenza della conoscenza con se stessa, un diallele secondo il Kant della Logica, che nello stesso luogo nota come questa impostazione del problema consista nella riduzione della domanda “che cos’è la verità” alla richiesta di un criterio della verità certo e universale, che è possibile solo dal punto di vista formale, mai da quello materiale. Dal punto di vista formale, però, non si ha più a che fare con la verità come adeguazione tra l’intelletto e le cose, ma semplicemente con una regola di correttezza della correlazione tra proposizioni logiche, che può essere tutt’al più condizione dell’espressione della verità, mai via ad essa. La via kantiana, come si sa, non è la logica formale, ma quella trascendentale, che insieme all’estetica fornisce lo schema puro dell’esperienza possibile, che è fonte di ogni verità, ossia precisamente dell’accordo della conoscenza con gli oggetti, dal momento che fonda la possibilità di ogni esperienza in cui possano esserci dati oggetti ed invero già in una forma tale da essere a priori in relazione con le categorie dell’intelletto.
Lasciamo, però, almeno per il momento, da parte la soluzione kantiana e torniamo alle implicazioni che comporta una concezione della conoscenza come ricerca della verità nel senso dell’adeguazione di enunciati al reale. Rigorosamente, infatti, se la verità è solo l’attributo di un enunciato (e lasciamo perdere anche la domanda sulla verità di questa definizione…), quella situazione paradossale per cui, al fine di conoscere la verità di un enunciato, si ha già bisogno di una conoscenza del reale, tale da potervi confrontare l’enunciato in questione (ma già da potervelo, in senso ampio, dedurre), non interessa la questione dell’essenza della verità, ma solo quella della verifica e del criterio della verità, come vedeva appunto Kant. Il che non toglie che ci troviamo di fronte a diversi problemi. In primo luogo, infatti, ci troveremmo di fronte ad una duplicazione, almeno, della conoscenza: da un lato vi sarebbe la conoscenza compiuta negli enunciati che, delle due l’una, è vera o falsa (e che finisce per ricadere nella fattispecie della verità come attributo necessario della conoscenza autentica, per cui solo una conoscenza vera è veramente conoscenza) e dall’altro lato la conoscenza come processo di discoprimento e visione del reale, una conoscenza che verrebbe prima dell’enunciato, come via ad esso (nell’impostazione induttivistica), o dopo l’enunciato, come pietra di paragone della sua verità (nell’impostazione deduttivistica falsificazionista), senza però essere né vera, né falsa, poiché non enuncia ancora niente (e forse si potrebbe parlare di un terza conoscenza, quella della verità degli enunciati, ossia della corrispondenza tra la prima e la seconda). Sembra che ci stiamo avvolgendo in una serie di distinzioni sterili e forse sofistiche, ma in realtà tutto questo discorso in buona misura corrisponde alle vecchie questioni dei rapporti tra ragione ed esperienza, intelletto e sensibilità, verità e parvenza. E tutte le domande e le aporie che presentiamo sono riconducibili ad un’unica questione, invero bifronte: la conoscenza da che lato sta, quello della verità o quello della parvenza? e la verità, da quello dell’intelletto o da quello dell’intuizione? O entrambe da entrambi i lati? E dell’on, dell’essere, che ne è in tutte queste scansioni? Che significa la distinzione tra conoscenza e verità?
“L’enunciato «la neve è bianca» è vero solo e solamente se la neve è davvero bianca”, questa, parafrasata, la formula tarskiana, che Popper recepisce, sulla verità come adeguazione. La parola più importante che vi è contenuta è “davvero”. Un enunciato è vero solo se è vero ciò che enuncia. Ma questa, a dispetto delle apparenze, non è una tautologia: da un lato vi è un ente linguistico, dall’altro una Tatsache; l’intero è un enunciato metalinguistico. Paradossalmente, proprio la parola più importante è quella più superflua: “L’enunciato «la neve è bianca» è vero solo e solamente se la neve è bianca”. In termini di logica formale non si è detto niente di diverso da prima. La verità del fatto che la neve è bianca è superflua alla verità che “la neve è bianca”. Abbiamo a che fare con due verità diverse? La verità di ragione (in questo caso logica) e la verità di fatto, per riprendere con un senso diverso la distinzione di Leibniz? E la conoscenza qual è? Che “la neve è bianca” o che la neve è bianca? La prima sarebbe una conoscenza vera (o quantomeno passibile di essere vera o falsa), ammesso che la neve è bianca, la seconda sarebbe una conoscenza, né vera né falsa, probante la verità di “La neve è bianca”, ma da dove ci verrebbe questa verità? O la conoscenza è la via da la neve è bianca a “la neve è bianca”, e come è possibile in quanto questa via alla verità? E se fosse invece una via a partire dalla verità?
La logistica, soprattutto con Tarski, ha preteso di riportare in auge, con questa formulazione, la teoria della verità oggettiva di Aristotele. Ma nella Metafisica di Aristotele troviamo parole differenti: “la neve è bianca [per usare lo stesso paragone, ovviamente parafrasando] non per il fatto che noi, in conformità col vero, crediamo che essa sia bianca, ma, al contrario, proprio per il fatto che la neve è bianca, noi siamo nel vero quando lo confermiamo”. Aristotele non usa le virgolette e non perché la sua logica non fosse abbastanza evoluta per certe finezze, ma perché la sua localizzazione della verità è sin dall’inizio ontologica e non meramente logica. E non solo: essa cade dal lato dell’on e non da quello del logos. Così come avviene per la conoscenza: solo se sappiamo che la neve è bianca possiamo dire con verità che “la neve è bianca” (e questa ovviamente non è più un’implicazione formale, ma materiale). In altre parole, la verità degli enunciati non è negli enunciati stessi, ma è in virtù della verità delle cose, e della nostra conoscenza di essa, che gli enunciati sono veri o falsi ed anche veridici o menzogneri. Ma che cos’è la verità delle cose? E cos’è la sua conoscenza?
Nello stesso capitolo della Metafisica, il decimo del libro nono, Aristotele distingue le cose che ammettono mutamento, relativamente alle quali le opinioni possono essere alternativamente vere o false, e le cose non soggette a mutamento, in primo luogo quelle non composte, le essenze semplici, e si chiede: relativamente a queste ultime, “in che consiste il loro essere o il loro non-essere, la loro verità o la loro falsità?” (ricordiamo un’altra affermazione celebre del secondo libro della Metafisica: “ciascuna cosa possiede tanto di verità quanto possiede di essere”). Invero, Aristotele sta distinguendo la verità come credenza corrispondente al reale (“è nel vero chi crede che sia diviso ciò che è diviso) da un’altra verità: “il vero che è presente nelle cose non composte non è lo stesso, proprio come non è lo stesso l’essere, ma il vero e il falso sono presenti in esse nel senso che il vero sta nell’aver contatto con una cosa e nell’enunciarla, mentre l’ignoranza sta nel non aver contatto diretto con essa”. Si badi bene, a questa verità non si contrappone l’errore, la falsità, ma l’ignoranza. E ciò perché non è possibile conoscerle falsamente, ma solo pensarle o non pensarle, ove ovviamente pensare non significa associare un predicato ad un soggetto, ma “toccare l’essere” e precisamente nel senso della qewr…a come quella capacità di vedere l’essenza delle cose. Questa è verità oggettiva, per continuare ad usare un’espressione troppo usurata, in Aristotele, non la conoscenza vera di un oggetto da parte di un soggetto che se lo rappresenta logicamente in maniera corrispondente alla realtà, ma l’atto stesso per cui alla conoscenza come pensiero si offre la visione degli enti nella loro essenza. Nel primo caso è la conoscenza a fondare la verità, nel secondo è la verità a rendere possibile la conoscenza, anche quella conoscenza logica del mutevole, che trova poi nel principio dell’adeguazione il suo criterio di verità.
È ancora possibile dopo più di due millenni quest’idea di conoscenza e verità? Soprattutto oggi, nell’epoca della fine della filosofia e del nichilismo? Dopo le critiche radicali all’oggettività ed alla conoscenza portate da Nietzsche e Heidegger? Per quanto riguarda Heidegger, va notato subito che egli è stato il primo ad evidenziare come nell’idea greca di verità, almeno presocratica, non predominasse l’adeguazione, come la verità non fosse un semplice modo della relazione tra la conoscenza e la realtà, ma in quanto ¢l»qeia, non nascondimento, fosse la possibilità stessa, l’apertura originaria, all’interno della quale avviene l’istituzione (™pist»mh) di un rapporto tra conoscenza e realtà (si pensi ai saggi Aletheia, La dottrina platonica della verità, Dell’essenza della verità, ed alle lezioni Principi metafisici della logica e Vom Wesen der Wahrheit, per fare solo pochi esempi). Attraverso la sua critica all’idea di verità come adeguazione, dunque – con la sua evoluzione dalla Ñmo…wsij, attraverso la ÑrqÒthj, la adaequatio e la certitudo, fino alla volontà di potenza e alla tecnica -, egli in fondo cerca di recuperare una dimensione più originaria della verità (e della conoscenza: si veda Scienza e Meditazione), distinguendosi peraltro almeno sotto due riguardi essenziali dall’idea di Aristotele. In primo luogo, infatti, egli ricomprende nella dinamica della ¢l»qeia non solo il momento della manifestazione, della luce, ma anche quello del nascondimento: ogni disvelatezza è anche sempre un velamento, ogni darsi dell’essere comporta un suo oblio. In secondo luogo, all’interno della connessione originaria tra l’essenza della verità e la verità dell’essenza, il rapporto dell’uomo con la verità non si gioca solo o primariamente sul piano della conoscenza teorica, ma su quello della libertà come lasciar-essere esistente che svela l’ente ed invero sempre sullo sfondo di una Stimmung all’interno della quale si dispone ogni comportamento. Non è questo comunque il luogo per approfondire il paragone, bastandoci notare che la critica heideggeriana alla verità come adeguazione, che risulta essenziale per la comprensione del senso che acquisisce la parola nichilismo nella sua filosofia (il nichilismo come stadio terminale della metafisica compie l’oblio dell’essere, che si realizza precisamente come oblio del suo vigere come disvelatezza, ¢l»qeia), non ha un carattere negativo: con essa si intende invitare all’insistenza su quello spazio esistenziale di libertà che solo consente anche l’apertura (Lichtung) entro la quale può darsi una nuova verità dell’essere, il che ovviamente non dipende da noi.
Ma come stanno le cose con Nietzsche e con la sua affermazione che la verità è quel genere di errore senza di cui l’uomo non potrebbe vivere? Nella sua prima formulazione del problema della verità, Nietzsche parte dalla già citata critica kantiana alla possibilità di una logica materiale universale: tutto ciò che la logica può presumere di fornire è una corretta relazione di concetti, laddove rimane indecisa la misura in cui questi concetti sono designazioni valide delle cose in sé. La cosa in sé rimane necessariamente una x inconoscibile, pur essendo l’unica pietra di paragone legittima della verità. Ciò equivale a dire che la verità come adeguazione non è possibile. Immediatamente, dunque, Nietzsche va ben oltre le conclusioni kantiane e sostanzialmente ciò dipende dalla sua scelta di impostare la questione non nei termini delle condizioni di un’esperienza possibile, ma come genealogia degli enti di ragione. Per riassumere brevemente, possiamo dire che, secondo Nietzsche, affinché sia anche solo possibile ipotizzare l’adeguazione di ciò che è predicato in un enunciato con la realtà, bisogna stabilire in che modo le strutture logiche elementari dell’enunciato rispecchino gli elementi della realtà, in che modo i nomi rendano conto delle cose. Questo modo è, in tutte le sue dimensioni, una falsificazione. In particolare, il concetto si sviluppa dall’intuizione tramite un processo di rarefazione che comporta l’uguagliamento di ciò che non è uguale (illusione dell’identità: ridurre l’ignoto al noto e non, come vuole Popper, l’inverso) e la soppressione delle particolarità: è un processo evidentemente di “astrazione” – e abbiamo visto come Popper contesti lo statuto dei concetti come astrazioni: il che, però, avviene proprio per gli stessi motivi che conducono Nietzsche a definire i concetti come equazioni falsificanti, come semplificazioni, non veritiere, della molteplicità delle intuizioni. La differenza essenziale, quindi, non è nell’analisi critica dell’astrazione, che è comune, ma nell’impostazione epistemologica in Popper, che lo spinge a rifiutare una definizione di concetto come astrazione, e in quella genealogica nietzschiana, che invece riconosce questa origine spuria del concetto e quindi sanziona l’irrimediabile falsità degli elementi fondamentali del linguaggio e del pensiero. A sua volta, anche l’intuizione è una metafora, niente affatto il rispecchiamento immediato dell’aspetto delle cose nella coscienza percettiva: essa ha un carattere fortemente attivo di con-figurazione creativa delle immagini, di nuovo priva di ogni relazione vera con la cosa in sé. In fondo, in questa genealogia Nietzsche non ha fatto altro che spostare progressivamente il luogo della verità dal rapporto tra enunciati e realtà, al rapporto tra concetti e cose, ed infine al rapporto tra intuizione e stimolo, notando come su ogni livello non si abbia minimamente a che fare con un processo di adeguazione, ma sempre con processi conoscitivi implicanti una forte componente di modificazione attiva del “dato”, a partire dal momento fondamentale della percezione, intesa come “inconscia forza costitutiva di forme”.
Ora, lasciamo perdere tutta l’ulteriore speculazione nietzschiana sul modo in cui questa attività metaforica diviene pathos della verità, speculazione legata ai termini «memoria», «abitudine», «imposizione sociale» e che trasforma ben presto il problema della verità in quello della veridicità. Cerchiamo piuttosto di inquadrare questa dottrina della verità sulla base di quanto detto sinora: vediamo subito che Nietzsche pare condividere un’idea della verità come adeguazione, solo che ritiene impossibile una siffatta verità. Ciò è dovuto al fatto che la conoscenza, ossia il modo precipuamente umano di instaurare una relazione con il mondo, si comporta verso un ipotetico reale in sé in maniera del tutto immorale dal punto di vista della verità. Ciò viene tradotto da Nietzsche nell’affermazione che il pensiero è incapace di impadronirsi dell’essere, anche perché il suo scopo è sin dall’inizio la vita, e non la verità. L’organo della conoscenza esplica la sua funzione inventando, a partire dal caos delle sensazioni, un cosmo ordinato all’interno del quale poter risiedere e prosperare. La conoscenza è determinata dalla prospettiva della vita. Ciononostante, quell’affermazione per cui la verità è un errore biologicamente favorevole rimane aporetica: com’è possibile parlare di errore, senza presupporre una qualche verità? Ciò è altrettanto contraddittorio dell’affermazione che non c’è la verità. La soluzione di queste aporie è data al termine della breve storiella del Crepuscolo degli idoli su “Come il «mondo vero» finì per diventare favola”: “abbiamo tolto di mezzo il mondo vero: quale mondo ci è rimasto? forse quello apparente?… Ma no! col mondo vero abbiamo eliminato anche quello apparente”! In questa affermazione c’è il rigetto definitivo non solo dell’idea di verità come adeguazione, ma anche dell’idea regolativa di cosa in sé. Il carattere illusorio della conoscenza del mondo, in altri termini, non è più la sanzione negativa dell’incapacità di cogliere l’essere, ma la determinazione positiva di un rapporto con l’essere che non si dà come rappresentazione soggettiva di un oggetto in sé, bensì come relazione vitale di una parte al tutto in cui è sempre inestricabilmente coinvolta. In questo senso, la parvenza di cui parla Nietzsche non è deformazione di un’essenza (che, al pari della verità, non si dà), ma l’unico modo in cui siamo in un mondo che non è più duplicabile nel mondo per noi e nel mondo in sé, senza per questo presumere che la nostra conoscenza ci fornisca la totalità del reale. A ben vedere, dunque, anche in Nietzsche si fa valere un’idea ulteriore, e positiva, di verità: è la parvenza stessa in quanto modo (dinamico e mutevole) della realtà del mondo (parvenza sempre falsa, nella prima accezione della verità, nella seconda però sempre vera, per quanto ciò non ci garantisca dalla possibilità di venirne ingannati). E anche in Nietzsche è questa idea di verità a legittimare la conoscenza, impossibile come acquisizione della verità come adeguazione: la conoscenza, concepita ancora a partire dalla sua genesi nella percezione (Wahrnehmung: presa del vero), è la prospettiva vitale sulla verità, sulla parvenza del reale, che ritaglia all’interno di esso il suo orizzonte vitale.
A conclusione di queste riflessioni e riprendendo la domanda che vi si poneva all’inizio sul rapporto tra conoscenza e verità, domanda che pareva sensata solo supponendo che la verità venga dopo la conoscenza, sia il suo fine (o addirittura il suo prodotto), possiamo dire che così come in Aristotele, anche in Nietzsche e Heidegger si fa valere una prospettiva inversa, per cui la conoscenza (sia essa connessa alla qewr…a, alla vita o alla libertà) risulta possibile solo sulla base di una verità più originaria, legata all’essere, al divenire o all’evenire, una verità che in Aristotele può essere pura e assoluta, mentre in Heidegger e Nietzsche è sempre parziale e mutevole. Una verità che è condizione di possibilità della conoscenza, e quindi mai un costrutto della conoscenza: come avviene irrimediabilmente nella concezione oggettiva della verità. Infatti, in essa si pensa l’esser-così di un oggetto, di fronte a cui si pone la conoscenza, istituendone la verità in se stessa: ossia conoscendolo per quello che è. Invece, la verità che abbiamo definito originaria è il darsi del mondo, e solo perché il mondo si dà, che è possibile anche conoscere. Ove è ovvio, che questa conoscenza è del tutto predeterminata dal modo in cui il mondo si dà, e quindi non può mai essere assolutamente pura e oggettiva. L’oggettività deve essere in generale rifiutata, poiché non si dà affatto una separazione tra soggetto e oggetto, nella misura in cui la conoscenza stessa, il pensiero, appartiene al darsi del mondo. E la purezza o l’assolutezza non può costitutivamente essere un carattere della conoscenza, nella misura in cui questa è sempre avvicinamento alla verità: come vedete, ciò che nella concezione di Popper risulta del tutto problematico, ossia l’idea di approssimazione alla verità oggettiva, è in questo contesto l’unico vero senso della conoscenza: essa inizia come avvicinamento, prossimità. Ma perché si dà questo avvicinamento? Perché il pensiero procede presso l’essere? Certo non per conoscerlo, giacché la conoscenza è precisamente questo procedere. E certo non per “cogliere la verità”, come si usa dire: perché questa via del pensiero è a partire dalla verità e non verso essa. Questo è precisamente quanto Jaspers non ha compreso e che condiziona del tutto la sua opera monumentale Von der Wahrheit, all’inizio della quale leggiamo: “Noi non viviamo immediatamente nell’essere, e per questo la verità non è il nostro saldo possesso. Noi viviamo nell’esistenza temporale: la verità è la nostra via”. Ove è evidente che questa distinzione tra essere ed esistenza temporale è del tutto pregiudiziale e sostanzialmente platonizzante: si assume un essere al modo della sostanza, quindi autonomo, assoluto ed eterno, perfetto, pendant della verità assoluta, e gli si contrappone l’esistenza temporale che ci è propria, come imperfezione, che è anche incompiutezza nella conoscenza della verità. È una posizione tutto sommato analoga a quella di Popper, che, al di là del modo in cui egli la esplica, con un riferimento a Tarski che sarà utile sul piano della discussione epistemologica, ma non regge ad una critica seria del concetto di verità, possiamo descrivere dicendo che rimane a metà strada tra la concezione cartesiana della verità come rappresentazione intellettuale giusta dell’oggetto e quella veramente antica, della verità come prossimità all’essere. Infatti, quando Popper parla della verità assoluta comprendiamo che non si riferisce ad un attributo della conoscenza, ma parla della realtà come incondizionata dalla conoscenza, condizionante la conoscenza. D’altro canto, quando sottolinea l’oggettività della conoscenza, torna ad una posizione che comprende la relazione tra pensiero ed essere come scissione e la verità come appropriamento dell’essere da parte del pensiero: e quindi può concepire la verità oggettiva come scopo della scienza.
Come notavamo prima, però, pensando la verità in senso stretto “originaria”, quindi come arché e non come telos della conoscenza, ci rimane oscuro il senso della conoscenza, che non può essere né essa stessa, né la verità. In altri termini, la concezione originaria circa l’essenza della verità comporta una reinterpretazione dell’essenza della conoscenza. E abbiamo, infatti, visto che i filosofi che hanno pensato la verità come manifestazione, hanno determinato la conoscenza al di là del suo rapporto con l’oggettività della verità: Aristotele come theoria, ossia visione estatica, Heidegger come libertà, che è cura dell’essere; Nietzsche come vita. E tutte queste determinazioni hanno il loro sfondo comune nell’idea presocratica, che risuona ancora in Platone, della conoscenza come eros.

Dopo questa diversione, riprendiamo la discussione circa il punto cruciale del Poscritto, ossia la concezione della corroborazione delle teorie come approssimazione alla verità. Questo punto va affrontato precisamente nei termini della distinzione tra interpretazione critica e genealogica della logica della situazione scientifica, ossia la situazione di uno scienziato che ricerca entro la natura la verità oggettiva. Ed abbiamo visto che cosa intende effettivamente Popper con “verità oggettiva”, al di là della sua accettazione della teoria semantica di Tarski. In particolare, comprendiamo che la tesi di Popper ha decisamente il carattere del realismo metafisico, come egli stesso in più luoghi ammette, e che quindi la verità è in primo luogo verità dell’essere e non del pensiero. Verità dell’essere che è ovviamente compatibile con un’idea di approssimazione alla verità da parte del pensiero, che anzi ammette in fondo solo questo. Come puro attributo della conoscenza, invece, e sul piano rigorosamente logico, non ha alcun senso ritenere le teorie non falsificate e corroborate in qualche modo prossime alla verità, poiché esse devono rimanere falsificabili e quindi possono mostrarsi in qualsiasi momento di fatto false: e questo esclude ogni gradazione di verità.
Ovviamente, questa situazione comporta che la tesi circa i gradi di approssimazione alla verità sia esprimibile solo sul piano genealogico e non su quello epistemologico: la cosa è abbastanza evidente, se pensiamo che Popper ha escluso dal piano epistemologico il problema della giustificazione e quindi tutte le questioni circa l’accesso al reale come fonte della conoscenza. Epistemologicamente e metodologicamente l’unico accesso possibile al reale è quello che avviene in sede di controllo di una teoria: quindi, il reale ha solo la facoltà di eliminare le teorie falsificate, non di verificarle, in nessun grado. Questa è precisamente la critica di Popper all’induzione come criterio della verità probabile di una teoria.
Finché Popper rimane su questo piano epistemologico, conseguentemente, non ha il diritto egli stesso di parlare di gradi di approssimazione alla verità. Laddove però ha il coraggio di affrontare le questioni genealogiche, gli si apre la possibilità di questo discorso. E ciò che di fatto noi notiamo, leggendo il Poscritto, è esattamente questo, che nonostante le ripetute prese di distanza dalla prospettiva genealogica, Popper riesce a presentare argomenti positivi circa l’idea di approssimazione alla verità solo in termini genealogici, laddove in termini epistemologici il suo argomento si limita a porre immediatamente come uguale corroborazione e verisimiglianza, con l’aggiunta solamente di poche considerazioni di carattere fattuale, come vedremo.
Ma cerchiamo di sviluppare con un po’ di ordine la questione, appoggiandoci al testo. A pp. 59 ss. Popper presenta ancora una volta la situazione problematica apertasi con l’opera di Hume e la sua critica logica all’induzione. Il problema di Hume sarebbe generato dall’inconciliabilità di tre proposizioni ritenute incontrovertibili: 1) l’esistenza di regolarità apparenti in natura, descritte dalle leggi di natura; 2) l’invalidità logica dell’inferenza; 3) la necessità per la scienza di avvalersi dell’esperienza. In altri termini, se la scienza deve partire dall’esperienza, ma non può rigorosamente servirsi dell’induzione, essa non può giustificare le leggi di natura che enuncia. La soluzione di Hume era l’abbandono del razionalismo: lo scienziato effettivamente opera in maniera illogica, inducendo da osservazioni singolari leggi universali, sostenuto in ciò dall’abitudine nella constatazione delle apparenti regolarità della natura. Per Popper, però, non è necessario abbandonare il razionalismo, che anzi è elemento indispensabile per rendere l’esperienza realmente decisiva per la scienza e non solo coacervo di associazioni e ripetizioni abitudinarie. Il principio del razionalismo critico che Popper oppone alla soluzione di Hume al problema dell’induzione è precisamente questo: “l’adozione o il rifiuto delle teorie scientifiche dipende dal nostro ragionamento critico in combinazione con i dati della sperimentazione”. E ciò è possibile intendendo in maniera più accorta la seconda e la terza delle proposizioni in conflitto secondo Hume: la seconda, il problema logico dell’induzione, va riformulata dicendo che non possiamo indurre da proposizioni singolari proposizioni universali, il che non toglie, ovviamente, che possiamo fare il contrario: falsificare proposizioni universali tramite asserzioni-base singolari. E la terza, il principio dell’empirismo, la modifichiamo assumendo che l’esperienza è sì essenziale alla scienza empirica, ma non come fonte delle sue teorie, bensì solo come pietra di paragone. Il che comporta, che le teorie universali non sono tratte dall’esperienza, ma sono congetture circa la natura, che vanno appunto confrontate con la testimonianza della natura stessa.
Questo è l’impianto complessivo del problema dell’induzione e dei principi elementari del falsificazionismo in Popper. Ma le questioni che l’induttivismo solleva non si limitano a queste, di natura puramente logica: infatti, nota Popper c’è una dimensione né logica, né metodologica, né metafisica, che richiede estrema attenzione: la dimensione, appunto, genealogica: anche se Popper non la chiama con questo nome, ma dice semplicemente che ha a che fare con i “Fatti” relativi all’induzione e all’apprendimento. Insomma, con il carattere apparentemente induttivo della formazione psicologica di credenze e conoscenze. Come si acquisisce una conoscenza, come è strutturato l’apprendimento, come si accede all’essere, che la scienza vuole descrivere nei termini della verità oggettiva? E qui Popper non si limita affatto a negare la pertinenza di questo discorso, né a criticare le ipotesi induttiviste circa l’apprendimento, ma sviluppa una propria teoria positiva intorno alla genesi della conoscenza, ampliando quanto aveva già accennato alle pp. 53 ss. che abbiamo già letto e sviluppando il discorso proprio verso la questione dell’approssimazione alla verità.
In linea preliminare, Popper ripresenta l’abituale ormai distinzione dei piani e ribadisce che: “La questione storica, fattuale e psicologica” è del tutto “irrilevante per la questione logica, metodologica ed epistemologica della validità” (p. 63). Il che non toglie, in questo contesto, che lui affronti di petto la questione appunto storica, fattuale e psicologica, ossia la questione genealogica.
Il suo primo momento è la critica all’induzione come realtà psicologica dell’apprendimento, ossia alla teoria che noi apprendiamo fondamentalmente tramite ripetizioni di osservazioni, come riteneva appunto Hume e come dopo di lui sostiene una significativa corrente della pedagogia, nel senso proprio di teoria dell’apprendimento, soprattutto di quella anglosassone. Ebbene, Popper contesta completamente questo presunto fatto, e a mio avviso ha del tutto ragione: noi, dice, non compiamo mai inferenze induttive, poiché tutto il nostro modo di conoscere fondamentale, ossia quello che comporta un accrescimento della conoscenza, si articola nel meccanismo del tentativo e dell’errore, congettura e confutazione.
Solo tramite questo meccanismo scopriamo cose nuove: un meccanismo nel quale non gioca alcun ruolo la ripetizione di certe esperienze, ma è fondamentale la persistenza di un problema, che cerchiamo di risolvere in vari modi, con vari tentativi, finché non ci riusciamo. Rispetto a questo modo creativo dell’apprendimento, la formazione di abitudini mediante ripetizione non ha alcun elemento di accrescimento della conoscenza, poiché non avviene al fine di risolvere un problema, quanto a quello di automatizzare una risposta risultata non confutata, quindi proveniente dal meccanismo per tentativi ed errori. Conseguentemente, l’apprendimento per ripetizione fa tutt’altro che portare la conoscenza alla consapevolezza, operando invece al contrario in direzione della trasformazione della conoscenza in aspettativa inconscia, ossia pregiudizio. Oltre a questi due tipi di apprendimento, poi, vi è quello per imitazione, nel senso più vasto come apprendimento dalla tradizione accumulata del sapere, che è una fase fondamentale per la comprensione dei problemi ancora esistenti, ma non va al di là di questo carattere preparatorio e quindi è anch’esso inattivo e non originale. Peraltro, nota Popper, anche in questo tipo di apprendimento, l’imitazione è perseguita con un processo per tentativi ed errori.
Questa pedagogia popperiana è evidentemente in grave dissenso rispetto ad alcuni dei più importanti dogmata della pedagogia moderna: quello dell’apprendimento per associazione e per riflessi condizionati. Ed è proprio nell’accenno di critica verso queste posizioni, che emergono punti centrali della concezione di Popper, soprattutto riguardo a ciò che egli non ha chiarito: ossia lo statuto del tentativo, della congettura. Che cos’è psicologicamente il tentativo di soluzione? Sul piano umano più evoluto, possiamo dire che è un’idea o un’intuizione, ma sul piano generalmente animale che Popper dichiara di analizzare cos’è? Ebbene, troviamo alcune indicazioni proprio nella critica alla teoria dei riflessi condizionati. Questa teoria parte da un problema: ossia, come è possibile concepire il modo in cui ciò che riteniamo uno stimolo non legato ad aspettative divenga un segnale in grado di indurre determinati comportamenti. Come vedete, anche qui si ha a che fare con un’induzione, seppure in senso molto diverso da quello logico. Ed anche qui Popper critica precisamente la tesi che esistano riflessi elementari che compongono il riflesso condizionato complesso e che ciò sia il fondamento di tutto l’apprendimento, che sarebbe quindi precisamente solo il condizionamento di riflessi. Ciò che questa teoria cancella, infatti, è “l’elemento di invenzione o di azione creativa che va molto al di là di qualsiasi riflesso puro e semplice; e qui, dove l’invenzione e la plasticità dell’azione sono sovrane, parlare di «condizionamento dei riflessi» suggerisce erroneamente che tutto l’apprendimento, persino la scoperta e l’invenzione, possa venire spiegato mediante la ripetizione” (p. 71).
Queste sono righe molto importanti: è vero che Popper non si dilunga più di tanto a specificare la struttura di questa plasticità dell’azione e inventività dell’ideazione, ma è del tutto essenziale che egli intenda il tentativo come primo momento della conoscenza in maniera del tutto creativa e non come mutazione casuale di comportamenti istintivi rigidi, esattamente come ha fatto l’evoluzionismo riformato, anche in pedagogia. Insomma: qui è evidente che Popper è in contraddizione con se stesso, ossia con la sua teoria della conoscenza come mutazione, che viene poi selezionata, nella misura in cui la mutazione ha carattere del tutto casuale e passivo, mentre l’invenzione e l’azione plastica sono creative e quindi “intelligenti”, a contatto, consapevolmente, con il mondo, un contatto che non è mera ricezione, ma appunto invenzione, operazione, tentativo in un senso del tutto positivo. Peraltro, è proprio in funzione di ciò che il persistere di un problema ha una funzione così essenziale: nei termini del mutazionismo, infatti, non può esservi affatto un problema, nella misura in cui il comportamento precedente è adattato all’ambiente e quindi nient’affatto problematico: il rapporto tra vivente e ambiente, insomma, è statico e il principio del mutamento risiede solo in accadimenti del tutto materiali e privi di senso, che avvengono nella costituzione del vivente. Nel caso di Popper, invece, è evidente che deve esservi un problema, quindi un’esigenza, un bisogno, una necessità, affinché si mettano in atto tentativi di risoluzione: poiché essi sono concepiti come consapevolmente tali, anche ai bassi livelli della consapevolezza animale. Senza un problema e l’intelligenza di un problema, la consapevolezza di esso come tale, non avrebbe senso parlare di tentativi attivi di risoluzione. E quindi Popper arriva addirittura a pensare ai cani di Pavlov come esseri che sviluppano teorie circa la relazione tra il suono di un campanello e l’arrivo di cibo: cosa che io non trovo affatto insensata.
Queste tesi di Popper si sostengono, peraltro, sulla considerazione critica che la condizione di possibilità della teoria dei riflessi condizionati, così come di quella dell’associazione, è l’esistenza di “una materia prima della conoscenza sotto forma di percezioni o osservazioni o impressioni sensoriali o «dati» sensoriali che ci vengono «forniti» dal mondo esterno senza il nostro personale intervento. Questa è un’insostenibile teoria psicologica, ampiamente confutata dai fatti” (p. 72). Come vedete, qui Popper ragiona in maniera tutto sommato analoga a Nietzsche, il quale sottolineava fortemente il carattere creativo della percezioni e quindi negava del tutto la possibilità di una conoscenza oggettiva come rispecchiamento del dato sensoriale. Lo stimolo semplice, in realtà, e ritorno a Popper, si presenta sempre in situazioni complesse e come istante di una durata temporale, situazioni complesse ed estese nel tempo entro le quali giocano un ruolo essenziale le condizioni del vivente: problemi, timori, speranze, bisogni e soddisfazioni, così come le esperienze precedenti, le anticipazioni, le aspettative, che forniscono “una specie di struttura concettuale schematica alle nostre reazioni”. È evidente in questa citazione il rimando a Kant, ossia alle categorie, che ovviamente Popper intende come mutevoli e complesse, ma in ogni caso come a priori della conoscenza, in un senso, però, molto attivo: “Se noi apprendiamo, nel senso di aumentare la nostra conoscenza, mediante le nostre osservazioni o percezioni, allora ciò accade perché osservare o percepire consiste nel modificare, precisare, correggere, e spesso falsificare le nostre anticipazioni. Quindi la teoria induttivista è sempre superficiale: un’analisi [ovviamente genealogica] più ravvicinata mostra che ciò che l’induttivismo assume ingenuamente come «dato» dei nostri sensi consiste, in realtà, in un complesso dare e avere fra l’organismo e il suo ambiente”.
Ora, io trovo queste tesi molto condivisibili, non integralmente, ma certo molto più di quelle che Popper giustamente critica. E le trovo anche risolutive circa il problema della prossimità alla verità: l’ambiente, il mondo, è qui polo reale della relazioni organismo-ambiente, ossia vi è una autentica relazione e non semplicemente una dinamica della compresenza, come nel caso della teoria mutazionale dell’apprendimento, né un’azione unilaterale dell’ambiente sull’organismo, come nel caso della teoria dei riflessi condizionati, che comprende tutto la spontaneità del vivente nei soli termini della reazione a stimoli. La relazione autentica ambiente-organismo è reciproca e attivo-reattiva: ed è su questa base che è effettivamente possibile all’intelligenza animale istituire un rapporto reale con il mondo, ossia entrare in contatto con esso: avvicinarsi alla sua verità.
Eppure Popper non sfrutta questa possibilità, perché si è precluso la via genealogica per la costruzione della sua metodologia e quindi deve trovare argomenti di carattere puramente epistemologico, a mio avviso non riuscendoci. Ma vediamo il luogo ove ciò è più chiaro: si tratta della discussione del problema della credenza razionale, un problema ancora legato all’induzione, che Popper analizza nel paragrafo dedicato a “Una famiglia di 4 problemi dell’induzione”.
Il problema della credenza razionale, che Popper mostra di considerare tutto sommato poco importante, mentre è in realtà decisivo, consiste nel problema di giustificare il contenuto positivo della scienza rifiutando l’induzione: infatti, scrive Popper, “Anche se ammettiamo che non esiste nessuna difficoltà logica nel mostrare che, e come, le osservazioni possono a volte aiutarci a distinguere tra teorie «buone» e «cattive», dobbiamo insistere sul fatto che non si è data alcuna spiegazione dell’attendibilità della scienza, o del fatto che è ragionevole credere nei suoi risultati”, ossia tenerli per veri. Apparentemente, anche qui la questione è psicologica, ma in realtà non è così: ciò che si cerca sono argomenti logici per sostenere un grado di ragionevole credenza nella verità di una teoria. E il problema è precisamente conciliare la credenza del tutto condivisibile che nella scienza è contenuta un’enorme quantità di sapere positivo con la critica di Hume all’induzione.
Popper, come detto, snobba il problema, che invece è centrale. E lo risolve grazie alla categoria più dubbia del Poscritto: l’oggetto della credenza razionale, dice, non è la verità di una teoria, ammesso che le teorie siano congetture, ma la sua verisimiglianza, nella misura in cui ha superato i controlli. L’argomento è del tutto insostenibile, già nel suo inizio: infatti, il carattere di congettura della teoria non può essere tale da rendere impossibile una credenza in qualche modo fondata circa la sua verità, nonostante la consapevolezza che si è proceduti tramite un’ipotesi. Insomma, anche il tentativo ipotetico lo si attua cercando di indovinare la verità e quindi, quando pare che l’ipotesi funzioni, si ha fede nella sua verità, e non nel fatto che è un tentativo verosimile. In fondo, non ha senso l’idea di «tentativo verosimile», o se lo ha richiama alla mente un tentativo fallito, ossia falso, per quanto verosimile. Eppure Popper dice esattamente questo: raggiunto un “accordo sul carattere congetturale delle teorie scientifiche: che le teorie scientifiche rimangono incerte, per quanto riuscite e ben sostenute dall’evidenza”, ne consegue che “parlando di «credenza razionale» non intendiamo dire che sia razionale credere nella verità di una particolare teoria […]. Io sostengo che non sia la verità [oggetto della credenza razionale], ma ciò che potremmo chiamare la somiglianza alla verità, o verisimilitudine, delle teorie della scienza, nella misura in cui hanno superato una severa critica, controlli inclusi. Ciò che noi crediamo (a torto o a ragione) non è che la teoria di Newton o quella di Einstein siano vere, ma che siano buone approssimazioni alla verità, sebbene passibili di venir soppiantate da altre migliori” (pp. 82 s). Ora, il problema, evidentemente, è che questa idea di verisimiglianza coincide con quella di corroborazione, ma al tempo stesso contraddice i criteri della corroborazione, poiché afferma un grado di verisimiglianza anche per le teorie falsificate: infatti, dicendo che una buona approssimazione può essere soppiantata da una migliore, non si sta dicendo che la prima è per questo non più una buona approssimazione, mentre ovviamente è una teoria non più corroborata. Questo è esplicito poche righe dopo: “Questo approccio, che assicura la sopravvivenza della teoria soppiantata in quanto approssimazione, è richiesto dal realismo e dal metodo scientifico”. E ancora: “Queste considerazioni mostrano che la credenza nella verisimilitudine dei risultati ben corroborati della scienza (come le leggi della meccanica) è senz’altro razionale, e lo rimane anche dopo che questi risultati sono stati soppiantati”. Insomma, qui Popper sta sostanzialmente ritornando sui suoi passi e recuperando la possibilità di parlare in termini positivi di teorie falsificate, non considerandole ovviamente come dotate di un certo grado di probabilità, che non hanno perché false, ma come dotate di un certo grado di verisimiglianza. E noi comprendiamo quello che vuole dire, ma comprendiamo anche che lo dice male, perché non chiarisce l’idea di verisimiglianza o lo fa in maniera contraddittoria: se equivale al grado di corroborazione, allora non possiamo salvare le teorie falsificate; se non equivale a questo grado, che cos’è dunque? Solo la loro efficienza nella descrizione del proprio dominio di validità? L’approssimazione buona dei risultati che forniscono in certe situazioni note? E allora in che si differenzierebbe questa idea di grado di verisimiglianza dai criteri pragmatici di giustificazione delle teorie? Evidentemente in niente! Insomma, è evidente che l’equilibrio da tenere tra pragmatismo, convenzionalismo e induttivismo è assai labile, se non si accetta di ampliare la prospettiva dalla dimensione epistemologica a quella genealogica.
Ma vediamo come in particolare Popper cada in queste contraddizioni: egli prova a distinguere due scale graduate: quella dei gradi di somiglianza al vero di una teoria e quella dei gradi di “razionalità della nostra credenza nel fatto che una certa teoria ha ottenuto un certo grado di somiglianza al vero”. Come vedete, si naufraga da subito in distinzioni del tutto artificiose e iperpedanti. La prima scala misura il grado di verisimilitudine di una teoria, che non sappiamo ancora cos’è, e la seconda, dice espressamente Popper, misura il “grado di corroborazione”. Entrambe valgono come scale comparative, quindi che ci permettono di scegliere tra teorie. E, in particolare, “se due teorie rivali sono state criticate e controllate nel modo più completo possibile, con il risultato che il grado di corroborazione di una è maggiore di quello dell’altra, avremo, in generale, motivo di credere che la prima è una migliore approssimazione alla verità della seconda”. Insomma: il grado di verisimilitudine è proporzionale a quello di corroborazione, con l’integrazione di essere insensibile alla falsificazione. E ciò sarebbe almeno dicibile, se l’argomento non fosse decisamente viziato da un circolo: infatti, il grado di corroborazione come qui definito è stato appena detto grado di “razionalità della nostra credenza nel fatto che una certa teoria ha ottenuto un certo grado di somiglianza al vero”. Insomma, siamo di fronte alla classica situazione dell’uovo e della gallina: che cosa viene prima, la corroborazione o la verosimiglianza?
L’essenziale, che sfugge a Popper, è che tutto sommato avrebbe fatto meglio ad ammettere il carattere fondativo delle sue tesi genealogiche, il che gli avrebbe permesso immediatamente di giustificare la tesi dell’approssimazione: una teoria corroborata, che risolve problemi, che si innesta entro la tradizione del sapere, etc., è più prossima al reale precisamente perché ha una maggiore intelligenza di esso. E questo non ha niente di pragmatico: perché assume una conoscenza reale, e non solo utile, una conoscenza che è sempre interrelazione tra organismo e ambiente, pensiero ed essere, ed è sempre avvicinamento del primo al secondo, sulla base dell’apertura originaria del secondo al primo.
La posizione di Popper, insomma, è in qualche modo scissa tra il piano storico e quello critico e solo sul primo, che io insisto a definire genealogico, è possibile una soluzione dell’aporia relativa al concetto di approssimazione alla verità. Questo peraltro emerge caratteristicamente al termine della discussione del problema della credenza razionale, nella definizione che Popper dà del criterio reale, delle nostre “effettive ragioni per credere nella verisimilitudine” di una teoria, effettive ragioni che non sono affatto legate a tutto quell’apparato di discorso epistemologico circa i gradi di verisimilitudine o i gradi di corroborazione, bensì “consistono nella storia della discussione critica”, in altri termini, nella “tradizione” della ricerca scientifica.
Come vedete, questo termine, della cui importanza avvertivo all’inizio del corso, ma che poi abbiamo incontrato raramente in contesti decisivi, comprare qui rispetto al problema cruciale del Poscritto: è la ricostruzione storica della discussione critica della scienza circa un problema il solo modo che può evidenziare il progresso della scienza non come consolidamento di teorie, ma come storia del “progressivo rovesciamento di teorie”. Progresso che è sempre, per Popper, progresso “verso la verità” (pp. 84-85).
Ma in che modo lo è, però, dal punto di vista della storia della critica? Lo è come una progressiva sostituzione dei “testimoni” della natura, con testimoni sempre più attendibili, degni di fede. Questo paragone di Popper è molto interessante: in effetti, il testimone è “sempre parziale, in quanto ogni testimonianza, anche quando è limitata all’osservazione, è selettiva (come ogni pensiero), così che l’ideale del «tutta la verità e nient’altro che la verità» è, a rigor di termini, inattingibile” (p. 86). Come vedete immediatamente, parlare delle teorie come testimoni della natura implica il carattere necessariamente prospettico e parziale della verità della testimonianza, quindi della verità come attributo della conoscenza. E, in sostanza, dire ciò significa negare precisamente l’ideale della verità oggettiva come scopo e idea regolativa della scienza: questa, sarà sempre solo testimonianza, ossia sarà sempre intelligenza della natura, un’intelligenza condizionata storicamente e prospetticamente, quindi costitutivamente approssimazione alla natura. Ed è su ciò che si fonda la nostra distinzione di gradi di verisimiglianza dei testimoni, che è il grado della loro intelligenza e della loro veridicità. Solo in questo senso diviene coerente parlare della credenza razionale come credenza nella verisimiglianza e non nella verità di una teoria: ossia solo intendendola come veridicità di un testimone, come maggiore veridicità e intelligenza, rispetto al precedente: è essenziale, in altri termini, impostare storicamente la questione, dicendo per esempio che la descrizione di Keplero è più verosimile di quella copernicana, che sostituisce e quindi vale come progresso verso la verità, anche se non possiamo minimamente dire quanto e come è vicina ad essa, poiché non la possediamo e non la possederemo mai. Ciò che ci consente la storia della discussione critica sono, quindi, solo ragioni per credere, in certe situazioni, di aver fatto un progresso, perché la teoria di cui disponiamo spiega di più o più precisamente, ha un maggiore e/o migliore contenuto di sapere positivo sul mondo. È quindi solo a causa della decisione di Popper di definire la verità oggettiva come scopo della scienza, che egli finisce per trovarsi coinvolto nella questione epistemologicamente insolubile della verisimiglianza.
Per chiarire questo punto, tralasciando tutte le altre argomentazioni specifiche di Popper intorno alla questione dell’induzione, è di particolare importanza per noi la sua discussione di ciò che chiama il “problema metafisico dell’induzione”, che può essere formulato così:
1) esistono leggi di natura vere
2) questo lo sappiamo dall’esperienza delle regolarità
3) perciò Hume è in errore e va dimostrato perché sbaglia.

Ora, questa formulazione non è molto distante da quella principale, che Popper ha chiamato logica, distinguendosi da essa, solo perché non si limita ad assumere che osserviamo in natura certe regolarità più o meno apparenti, ma enuncia una tesi metafisica: esistono leggi di natura vere. Questa asserzione è metafisica in diversi sensi: in primo luogo, intendendola come “esiste almeno un enunciato universale vero che descrive regolarità invariabili della natura”, poiché è una proposizione strettamente esistenziale e singolare: e ricordiamo il discorso che ha fatto Popper circa questo tipo di proposizioni. Inoltre, espressa come “qualche possibile enunciato universale che descrive regolarità invariabili della natura è vero”, è un’asserzione non appartenente alla scienza della natura, poiché dice qualcosa circa la scienza della natura e dunque appartiene ad una metateoria e non alla teoria scientifica.
Queste due prime accezioni non hanno ovviamente lo stesso significato: la prima assume che almeno una delle leggi di natura di cui disponiamo è vera, anche se non possiamo sapere quale; la seconda, assume solamente che è possibile una legge di natura vera. Quindi la seconda parla solo della conoscibilità della natura in termini di leggi; mentre la prima afferma l’effettiva conoscenza di qualche regolarità della natura. Entrambe queste posizioni si muovono entro una cornice oggettiva della verità come attributo del pensiero. La terza possibile accezione, però, che è quella poi più interessante per Popper, oltre a essere la più decisamente metafisica, è al di fuori di questa cornice: essa dice: “esistono in natura delle regolarità, (sia mai espresse, che esprimibili, oppure no)”. Ed è precisamente questo inciso, che caratterizza la terza interpretazione come non necessariamente oggettiva: la struttura della natura non è necessariamente tale da consentire ad un pensiero di adeguarvisi, in modo da poterla descrivere con verità. In ogni caso, essa non ha né natura metodologica, né natura meta-teorica, ma è una teoria sul mondo, una teoria metafisica: il mondo è in qualche modo ordinato, non è puro chaos. Ed è ordinato in sé e non dalla conoscenza che lo costruisce logicamente. Il mondo è, almeno in parte, intrinsecamente cosmo.
È questa accezione più radicalmente metafisica quella che Popper sostiene di condividere e che sostanzia la sua idea di realismo: di per sé, tradizionalmente, il realismo è semplicemente la posizione opposta all’idealismo nel difendere una realtà a sé del mondo, indipendente dalla conoscenza, nel difendere quindi un’autonomia dell’essere rispetto al pensiero. E rispetto a questa posizione, la tesi di Popper aggiunge molto poco: l’autonomia dell’essere è effettivamente, in certe sue dimensioni, auto-nomia in senso letterale, ossia autolegislazione, possesso in sé di strutture definite e regolari: “Io credo che noi viviamo in un mondo reale, un mondo che esibisce una sorta di ordine strutturale che si presenta a noi in forma di leggi. Si può mostrare che questa credenza è ragionevole?” (p. 103). Le leggi scientifiche della natura, quindi, cercano di essere, hegelianamente, le strutture del mondo per noi. Ma questa possibile piccola concessione all’idealismo è compensata dall’assunzione metafisica che il nostro sguardo sul mondo non può fare altro che cercare di avvicinarsi, con tutti i suoi limiti costitutivi, ad una realtà per sé, che non è a sua volta oggettivazione dello spirito.

Questo il senso fondamentale del realismo metafisico di Popper, di una concezione che egli riconosce non argomentativamente fondativa delle sue tesi epistemologiche, per quanto forse giochi un ruolo molto più importante di quanto non ammetta lui stesso. A p. 104 scrive: “il realismo metafisico non è usato da nessuna parte a sostegno delle soluzioni proposte nella Logica” (e infatti, aggiungo io, non è il loro sostegno a posteriori, ma un punto di partenza, almeno come punto di vista, nell’impostare la questione metodologica), “non si identifica con nessuna delle tesi della Logica, né svolge da nessuna parte il ruolo di assunzione. E tuttavia è molto presente. Esso costituisce una sorta di retroterra che motiva la nostra ricerca della verità”, ossia esattamente ciò al cui servizio si pone la metodologia. “La discussione razionale, cioè l’argomentazione critica alla scopo di avvicinarsi alla verità, sarebbe immotivata senza una realtà oggettiva, senza un mondo che ci poniamo come compito di scoprire: un mondo sconosciuto, o in gran parte sconosciuto: una sfida alla nostra ingegnosità intellettuale, al nostro coraggio, e alla nostra integrità. Nella Logica non esiste alcun compromesso con l’idealismo, nemmeno con la tesi che noi conosciamo il mondo soltanto mediante le nostre osservazioni – tesi che conduce così facilmente alla dottrina che tutto ciò che conosciamo, o possiamo conoscere, sono le nostre stesse esperienze osservative”.
Questo passo è di importanza fondamentale, e conferma un po’ tutto quel che ci sembrava dover essere postulato per ammettere la sensatezza dell’idea regolativa dell’approssimazione alla verità: qui Popper dice molto chiaramente che il motivo, il movente, ciò che spinge e dà senso, alla ricerca della verità, è precisamente il retroterra di una fiducia nella realtà esterna come ciò che è prima della conoscenza, ciò verso cui ci atteggiamo con “ingegnosità intellettuale” (quel che chiamavo “intelligenza” parlando dell’apprendimento), “coraggio” e soprattutto “integrità”, termine questo veramente decisivo: l’integrità, la veridicità, è precisamente quel che Aristotele richiede per la sua definizione della verità delle cose che mutano: è nel vero chi conferma che sono divise le cose che sono divise e unite quelle che sono unite. Questo elemento della conferma, del ribadire enfaticamente ciò che si mostra, con integrità, e quindi adoperandosi affinché il proprio dire sia il più sincero possibile: questa è la verità come verisimiglianza di cui in fondo parla Popper o parlerebbe, se la sua analisi non fosse così condizionata da certi limiti epistemologici (che ritornano anche qui, a p. 105, dove leggiamo che “la storia dell’origine di una teoria non ha quasi nessun legame con il problema della sua verità”, ove chiaramente con “problema della verità” si intende ancora il problema della giustificazione logica).
Al di là di ciò e al di là delle critiche che Popper svolge poi contro l’idealismo e l’empirismo, che ritiene intrinsecamente condannato ad assumere una qualche declinazione idealistica, anche quando ha un’ispirazione di fondo essenzialmente realistica, notevole del discorso di Popper è il suo tentativo di dare corpo ad argomenti ragionevoli a favore del realismo, per quanto non definitivi, visto il carattere metafisico di questa tesi, soprattutto tramite una concezione oggettiva della conoscenza, più che della verità. L’empirismo e l’idealismo falliscono, proprio perché ritengono tutta la conoscenza soggettiva, laddove essa è, in realtà, quasi integralmente oggettiva: ossia, non possesso della mente del ricercatore, ma oggettivata nella tradizione materiale della scienza, che è il luogo da cui ogni scienziato attinge le sue, limitate, conoscenze soggettive e soprattutto i problemi che lo stimolano ad ulteriori ricerche, che assumono poi lo statuto di conoscenza solo quando sono anch’esse oggettivate e assorbite dalla tradizione.
Gran parte, e la parte sostanziale, della scienza, quindi, è conoscenza oggettiva, non possesso delle menti, ma sapere disponibile, incarnato in un’istituzione sociale, qual è appunto la scienza. Ed è precisamente lo studio del modo in cui gli scienziati operano all’istituzione della scienza, che Popper descrive come “la parte più interessante e fertile della teoria della conoscenza, vale a dire, della teoria della conoscenza oggettiva” (p. 119).
Ora: questa distinzione tra conoscenza soggettiva e oggettiva, che Popper propone in seno al suo tentativo di difesa del realismo, è cruciale, perché è precisamente ciò che gli permette di superare le sue stesse critiche allo psicologismo della metodologia intesa come scienza empirica. In effetti, ponendo al centro la conoscenza oggettiva, il discorso sulla logica della situazione non deve necessariamente prendere in considerazione la psicologia dello scienziato all’opera, e quindi scadere su un piano naturalistico, ma può tranquillamente affrontare la logica storica, ossia la genealogia, dell’istituzione della scienza. La teoria della conoscenza oggettiva, insomma, è il collegamento tra la gnoseologia e pedagogia che Popper presenta a partire dal livello biologico come procedimento dell’accrescimento della conoscenza per tentativi ed errori (e lo fa di nuovo proprio qui, per spiegare il formarsi della conoscenza oggettiva, e l’epistemologia come logica della scienza). Un collegamento che consente all’epistemologia di radicarsi, in qualche modo, su una considerazione non meramente logica, ma appunto metafisica e realistica: la conoscenza oggettiva è la prova vivente che la conoscenza non è solo dominio mentale di un soggetto, bensì la sedimentazione e la tradizione di una lunga storia della conoscenza come intelligenza del mondo e apprendimento.
In qualche modo, anche spingendo un po’ il testo verso la direzione che ci interessa, al fine di comprenderlo in maniera unitaria, ci rendiamo conto che tutti i nodi che rimanevano insoluti, trovano su questo piano metafisico una sistemazione e coerenza che sul piano epistemologico non riescono a trovare. E la trovano proprio mediante l’insistenza su questa categoria fondamentale della “tradizione” della scienza, intesa come il risultato dei processi di adattamento al mondo di un organismo non concepito come recettore di dati elementari sensibili, ma come vivente attivo-reattivo in un ambiente, a partire dal quale egli costruisce la propria intelligenza del reale: “non si può costruire niente su questi dati” scrive Popper a p. 124, contestando ancora l’empirismo, “anche se si assume la loro stessa esistenza. Ma essi non esistono: non ci sono «dati» non interpretati; non c’è niente, semplicemente, di «dato» a noi senza essere interpretato; niente da prendere come base. Tutta la nostra conoscenza è interpretazione alla luce delle nostre aspettative, delle nostre teorie, ed è perciò, in un modo o nell’altro, ipotetica”. E “questo è precisamente ciò che dovremmo aspettarci se il realismo fosse vero”.
Quindi, tutto sommato, se il realismo è vero il falsificazionismo è giusto. Il che significa, che la condizione metafisica di possibilità del falsificazionismo è appunto il realismo, insieme ad una concezione creativa della conoscenza soggettiva come intellezione interpretativa, prospettica, vitale, conoscenza soggettiva in costante interazione e interdipendenza con l’enormemente più vasta conoscenza oggettiva in quando tradizione istituzionalizzata della scienza.
Questo l’asse portante del Poscritto, che getta una luce del tutto indispensabile per comprendere anche l’articolazione della Logica della ricerca scientifica: l’asse che collega il realismo con le tesi circa lo scopo della scienza, collegamento chiarito alla luce di una analisi critica dell’idea popperiana di verità e approssimazione alla verità.

Appendice:
Su episteme, techne e doxa in Tre punti di vista…

Distinguendo tra scienza come episteme, techne o doxa, Popper intende questi nomi come emblemi rispettivamente dell’essenzialismo, dello strumentalismo e del falsificazionismo. È una distinzione criticabile per certi versi, soprattutto perché fraintende il senso dell’episteme, ma che in fondo descrive una situazione storica reale, ossia il passaggio dalla episteme antica alla scienza moderna. Proviamo quindi a ricostruire questo passaggio, non riferendoci alla disputa tra Galileo e la Chiesa, come fa Popper in questo saggio, ma cominciando con un’analisi di alcune tesi di Bacone.
In uno dei più celebri Aforismi sull’interpretazione della natura e sul regno dell’uomo del suo Novum Organum, Bacone delinea quello che sarà il programma scientifico e tecnico della modernità occidentale: “La scienza e la potenza umana coincidono, perché l’ignoranza della causa preclude l’effetto, e alla natura si comanda solo ubbidendole: quello che nella teoria fa da causa nell’operazione pratica diviene regola”. La scienza e la tecnica, il sapere delle cause e la potenza, la teoria e l’operare pratico, vi sono posti come addirittura coincidenti, concezione che – in seguito quasi ovvia per la mentalità della rivoluzione industriale – rappresentava all’epoca un momento di netta rottura con la tradizione antica e medievale e di lucida formulazione di quanto ancora confusamente andava già realizzandosi nella realtà scientifica ed economica dell’Europa rinascimentale e barocca. In effetti, molto più che l’insistenza baconiana sul corretto rapporto tra riflessione razionale ed esperienza empirica, sulla necessità di un metodo che provveda preliminarmente alla purificazione della conoscenza e fornisca poi le direttrici per un utilizzo potenziato dell’intelletto nella ricerca, entro certi limiti anche più che la sua teoria dell’esperimento scientifico, è proprio l’intuizione del rapporto tra conoscenza e potenza l’elemento radicalmente nuovo e moderno della sua Instauratio magna. Gli altri elementi, infatti, non erano stati del tutto estranei alla tradizione precedente, soprattutto in Aristotele, che per primo aveva inequivocabilmente riconosciuto l’importanza dell’empiria e del metodo. Ma nella sua filosofia la sfera teorica e quella produttiva rimangono molto chiaramente distinte, non solo per metodo ed oggetto, ma soprattutto per il fine. È vero che la sua ripartizione della ™pist»mh in teoretica, pratica e poietica potrebbe far ritenere che non fosse aliena alla sua concezione l’idea di un tipo di scienza che oggi diremmo ‘applicata’, ma si rischia con ciò – e fondamentalmente tramite l’insufficiente traduzione di ™pist»mh con scienza – di fraintendere il senso di quella ripartizione e di vedervi contenuti che non potevano esserci. ™pist»mh in greco non significava immediatamente scienza nel senso di un determinato contenuto di sapere concettuale, ma prima di tutto l’intendersi di qualcosa (™p…stamai), almeno nel duplice senso dell’averne fatto esperienza o della perizia nel farlo; più in generale, rimanda – secondo la sua derivazione da ™f…sthmi – al sostare, porsi, collocarsi saldamente presso un determinato ambito dell’ente, istituendovisi. In un certo senso, allora, ™pist»mh è prima della distinzione tra scienza e tecnica, tanto che sia la scienza che la tecnica come le intendiamo oggi sarebbero state definite ™pist»mai in greco. Ma questo carattere in qualche modo preliminare e sovraordinato della ™pist»mh rispetto a scienza e tecnica, non comporta affatto, almeno aristotelicamente, un rapporto tra la dimensione teoretica e quella produttiva della scienza (lasciamo qui da parte la scienza pratica, l’etica) paragonabile a quello descritto da Bacone. In particolare, la qewrhtik» ™pist»mh (che finisce per intendere la ™pist»mh nel senso più puro) ha a che fare con gli enti che sono per necessità o per natura, ossia che detengono in sé l’origine (¢rc») del loro venire alla presenza, laddove la poihtik¾ ™pist»mh, ossia la tšcnh, si occupa degli enti che non hanno in sé l’origine del loro venire alla luce e che, anche in conseguenza di ciò, non sono necessari. Questa distinzione, dunque, non ha niente a che fare con quella tra teoria e pratica, tra la conoscenza e la sua applicazione: la tšcnh non è affatto l’applicazione della qewr…a, ma in quanto ™pist»mh è essa stessa tanto conoscenza, quanto produzione, solo di un ambito particolare dell’ente. La tšcnh è teoria e pratica, è vedere lo e|doj della cosa e saperla realizzare, ma non perché la conoscenza della sua causa rende di per sé disponibile l’effetto, bensì solo poiché si tratta di una cosa che per sua natura non ha in se stessa l’¢rc» della sua presenza, di una cosa la cui causa efficiens è l’uomo stesso. Analogamente, la qewr…a non è il lato puro, astratto, della scienza, intendendo con ciò quel tipo di conoscenza che si tiene volontariamente al di sopra della sua applicazione pratica: l’applicazione della qewr…a, come messa a frutto pratica delle sue acquisizioni, in senso greco è un concetto del tutto impossibile, poiché gli enti con cui ha a che fare o sono già sempre presenti e identici a se stessi (il regno della necessità) o vengono alla luce secondo una dinamica propria (il regno della natura). L’occhio teoretico, insomma, non è in nessun modo causa rispetto all’e|doj che conosce e in tal modo la sua conoscenza delle cause non si può neanche pensare come applicabile alla produzione degli effetti.
Diviene a questo punto molto chiara la novità che si esprime in quell’aforisma di Bacone che si citava all’inizio. “L’ignoranza della causa preclude l’effetto”: con ciò si presuppone che la conoscenza della causa consegni invece l’effetto e precisamente nel senso di ciò che si può effettuare, realizzare, mettere in atto, un senso ben diverso da quello dello a„tiatÒj aristotelico, il causato, ciò della cui presenza sono corresponsabili le quattro cause. In quell’espressione baconiana è dunque del tutto completa la riduzione, che Heidegger analizzava ne La questione della tecnica, delle cause aristoteliche alla sola causa efficiens, ma non solo: la causa efficiens si è già del tutto specificata dal lato soggettivo della conoscenza, della scienza. È per questo che, laddove si acquisti il sapere delle cause, “la scienza e la potenza umana coincidono”: non solo quel sapere che già dall’inizio era sapere di ciò che si può fare e non di altro, ma ogni sapere è un saper fare ed ogni saper fare un poter fare, almeno sinché “quello che nella teoria fa da causa nell’operazione pratica diviene regola”. Ed è solo in funzione di ciò, che il metodo baconiano è tanto diverso da quello della scienza antica e che il suo ricorso all’esperimento risulta talmente nuovo da far dubitare che sia mai esistito prima qualcosa del genere: laddove l’empiria aristotelica era una via, un metodo, che permetteva all’occhio la visione, la teoria, dell’e|doj degli enti nel modo del loro autonomo venire alla luce e conduceva quindi ad installarsi «epistemicamente» di fronte alla natura, l’experimentum crucis è la messa in croce della natura al fine di produrne noi stessi «scientificamente» il fenomeno ed appropriarcene «tecnicamente».
Ovviamente, tutto ciò in Bacone stesso si presenta ancora in una forma non del tutto esplicita e poco matura: più come presentimento di quello che poi sarà effettivamente lo sviluppo successivo, che come sua fondazione coerente. Al riguardo basti ricordare quanto ancora di incongruente e debole vi sia nella sua distinzione tra esperimenti apportatori di luce e apportatori di frutto: coerentemente con la sua stessa impostazione (e, in fondo, con tutto l’afflato utopistico della sua Nuova Atlantide), ogni incremento del sapere è un incremento della potenza, anche laddove ciò non si realizzi immediatamente in opere positive, magari a causa di un’incapacità tecnologica a concretizzare le possibilità aperte dalla scienza o, più radicalmente, dell’insufficienza della fantasia ad immaginare le possibili applicazioni. Anche in questi casi, però, la scienza ha effettivamente già messo a disposizione della tecnica il saputo, lo ha già conosciuto e configurato in maniera tale che esso sia disponibile all’utilizzo, heideggerianamente lo ha già posto come Bestand.
Ma cosa si intende esattamente con ciò? E quale configurazione del rapporto tra scienza e tecnica ne emerge nei particolari? Allo scopo di chiarire queste questioni è ormai insufficiente rimanere a Bacone, che rappresenta il momento iniziale di uno sviluppo che si è compiuto solo nell’ultimo secolo, ed è dunque opportuno dedicarci ad un’analisi della scienza contemporanea, alla luce delle tesi di Heidegger. Ne La questione della cosa, tratto dalle lezioni del semestre invernale 1935, Heidegger assume che ogni mutamento della scienza proviene dalla scienza stessa, che però va compresa come basata su di un duplice fondamento: sulla conoscenza operativa che costituisce il metodo per il controllo e l’impiego dell’ente e sul progetto ontologico fondamentale, su cui poggia la struttura dell’ente. Questa distinzione è molto importante, poiché permette di discriminare tra il mutamento puramente metodico del procedere scientifico, un mutamento che può rimanere all’interno di uno stesso progetto ontologico, ed il mutamento metafisico della scienza, un mutamento in cui è il modo in cui vengono compresi gli enti nel loro essere enti a cambiare radicalmente, magari nell’ambito di una metodologia nominalmente invariata. È, in effetti, quanto Heidegger fa nello stesso testo, distinguendo la scienza medievale ed antica da quella moderna non sulla base del differente peso che avrebbero in esse i concetti e i fatti, secondo la vecchia tesi che ad una scienza dogmatica si sarebbe sostituita una scienza empirica, ma dalla loro diversità preliminare nel concepire i fatti e determinare i concetti. A partire da questa impostazione, Heidegger sviluppa un complesso discorso sul senso della m£qhsij nella scienza antica e moderna, mostrando come la loro differenza consista proprio nel diverso modo in cui vi viene intesa la «comprensione matematica» degli enti come rappresentazione eminentemente scientifica del mondo. Molto brevemente: la sua tesi è che l’idea originaria della m£qhsij come apprendimento, come imparare a conoscere la cosa che si vuole apprendere e sostanzialmente prendendo in essa ciò che già si ha, esplicitandone la pre-figurazione, si sia ridotta ad una comprensione più limitatamente matematica e in particolare calcolante e misurante della m£qhsij. All’idea, dunque, che il numero, rappresentando delle cose ciò che già da sempre comprendiamo in noi stessi, rientri all’interno di un più organico processo dell’apprendere, del modo in cui si ricevono le cose facendole proprie entro il limite in cui già lo sono, si è sostituita la concezione che l’intero apprendere vada ridotto al calcolo numerico, ossia – metafisicamente – che l’ente stesso si avvicini all’uomo solo nella sua qualità di quantità misurabile, che sia solo questa quantità. In entrambi i casi la m£qhsij rimane l’orizzonte del manifestarsi delle cose nel quale sempre ci muoviamo nel fare esperienza delle cose in quanto tali, la prospettiva fondamentale entro la quale le precomprendiamo e possiamo dunque incontrarle, il libero spazio in cui esse si mostrano nel loro esser-cosa. Ma è proprio l’esser-cosa ciò che cambia radicalmente nel passaggio dalla scienza antica a quella moderna, e dunque l’essenza, la costituzione, la modalità degli enti di natura e così del suo intero ambito. E in questo cambiamento, l’essenza degli enti naturali diviene, come abbiamo detto, la loro calcolabilità, che ne assicura la possibilità della messa in scena sperimentale e la prevedibilità, almeno in linea di principio, dei mutamenti.
Alcuni anni più tardi, nel 1953, Heidegger riprende queste considerazioni in Scienza e Meditazione, tramite un’analisi della scienza in quanto “teoria del reale”, sempre sulla base della sua comprensione come modo decisivo in cui si presenta a noi tutto ciò che è. Il saggio, che non possiamo ricostruire nella sua interezza, rappresenta un momento ulteriore della riflessione heideggeriana, che nel testo precedente si era limitata a prendere in considerazione la scienza newtoniana. In Scienza e meditazione, infatti, c’è un importante accenno alla fisica del novecento ed al suo carattere di novità, rispetto alla meccanica classica, pur all’interno dello stesso principio ontologico. E questa novità risiederebbe proprio nel fatto che, laddove la scienza newtoniana rimarrebbe in qualche modo nettamente separata dalla tecnica in funzione del suo statuto comunque «oggettivo» e «teorico», seppure nell’ambito di una radicale riformulazione di questi due termini, con la scienza del novecento l’equazione scienza:tecnica sarebbe quasi perfetta, nel senso che la scienza verrebbe a rappresentare un momento, ed invero quello fondamentale, della tecnica. Se la scienza moderna, infatti, corrisponde al darsi dell’ente come oggettività, fermando il reale come ciò che si presenta in quanto effettuato – nel senso moderno dell’effetto della causa efficiente – rendendolo così perseguibile e calcolabile, la fisica novecentesca, pur conservando lo stesso carattere di «rappresentare catturante» (nachstellende Vorstellen), riuscirebbe a sottrarsi del tutto al vincolo della cosa (e quindi al rimando implicito all’essere), assorbendo l’oggetto (e il soggetto) all’interno della relazione pura soggetto-oggetto. Ciò avverrebbe con la trasformazione dell’oggettità nella stabilità del fondo determinata dal Gestell, ossia dall’essenza della tecnica: il vero carattere della relazione pura soggetto-oggetto non sarebbe più di ordine teorico, bensì tecnico, ossia l’impiegare (Bestellung).
Heidegger, in queste sue analisi, si riferisce alla meccanica quantistica, come fa anche Popper, identificando proprio nella teoria dei quanta il momento di crisi dell’idea oggettiva di scienza. In realtà, i sintomi di un mutamento sono precedenti: pensiamo a Mach, con la sua tesi che la scienza sostituisce all’esperienza rappresentazioni o immagini mediante le quali diventa più facile maneggiare l’esperienza stessa; al convenzionalismo di Poincaré o allo strumentalismo di Dewey, o addirittura all’operazionismo di Bridgman, con la sua grossolana equazione concetto = operazione. È certo però, che solo con la meccanica quantistica il discorso da epistemologico diviene epistemico. Vediamo dunque brevemente le considerazioni che fa Heisenberg al riguardo. Egli prende le mosse dalla constatazione dell’imbarazzo della fisica nucleare ad esprimere nei termini del linguaggio scientifico classico la propria teoria, univoca e chiara solo nella sua formulazione matematica, che da sola però non basta, poiché il linguaggio (ed in realtà già l’elemento logico del formalismo matematico) rimane un a priori di ogni scienza naturale, almeno laddove ella intenda comprendere i suoi contenuti. Una fisica matematicamente pura, non limitata dalla prospettiva umana di un linguaggio scientifico che è sempre legato ad un linguaggio storico, non è possibile, a meno di rinunciare al «significato» della fisica, alla traducibilità in termini sensati della sua matematica. Ciò è vero, secondo Heisenberg, almeno in due sensi: per quella che potremmo definire l’opzione oggettivistica della scienza, ovvero per il fatto che la teoria deve descrivere l’esperienza e dunque i suoi concetti devono corrispondere ai fenomeni, e in secondo luogo perché i concetti della fisica classica sono essenziali alla descrizione e preparazione degli esperimenti ed all’espressione dei loro risultati. Ora, però, ciò che viene meno nel passaggio dalla meccanica classica alla teoria atomica è proprio il primo punto: i simboli della nuova fisica non corrispondono più ad oggetti nominabili secondo il linguaggio newtoniano, anzi diviene problematica l’idea stessa di oggetto fisico. Conseguentemente, l’unica oggettività residua, che viene ormai a significare in prima istanza solo controllabilità intersoggettiva, è quella degli esperimenti: la fisica comprende i fenomeni tramite simboli matematici che non si riferiscono ad oggetti, ma paradossalmente solo alle misurazioni, ossia nell’esperimento non si quantifica un oggetto o un evento che siano di per sé reali, è anzi solo grazie a quella quantificazione, alla misurazione, che viene a esistere qualcosa come un fenomeno. Questo dato di fatto, per cui nell’osservazione non si osserva più niente di oggettivamente sussistente di per sé, corrisponde a quanto diceva Heidegger sul venir meno dei termini del rapporto soggetto-oggetto: rimane solo il rapporto puro, la misurazione in sé quale unico fondamento a priori della possibilità di un oggetto e con esso di un soggetto (ciò corrisponde in fisica quantistica alla necessaria perturbazione che l’osservazione comporta, contribuendo a costituire il fenomeno). Tale situazione, paradossale e inaggirabile, Heisenberg la chiama “rovesciamento dell’ordine della realtà” (per cui la misurazione crea il misurato) e la imputa al “dispiegamento delle strutture astratte” della matematica ed al progressivo processo di denaturazione dell’esperimento. Se la natura è scritta in lingua matematica, come riteneva Galilei, solo gli enti matematici hanno un contenuto fisico, anche laddove non abbiano più alcuna consistenza logica oggettiva nel mondo della fÚsij, ma siano relativi solo al processo sperimentale di quantificazione della realtà. Una teoria, dunque, è valida se rende conto degli esperimenti progettabili sulla sua base, ossia non «comprende» più l’ente fisico, ma lo prevede e descrive i termini della sua riproducibilità tecnico-sperimentale. Nei termini di Bachelard, la fisica è “fenomenotecnica”, produzione sperimentale del fenomeno, col che, ovviamente, con fenomeno non si intende più il mostrarsi dell’ente naturale, seppure attraverso la lente della matematica, ma semplicemente l’ambito della verificabilità tecnica della teoria. Per tornare al modo in cui Bacone esprimeva la questione, non è più vero che “quello che nella teoria fa da causa nell’operazione pratica diviene regola”, ossia che la conoscenza scientifica può fornire regole all’applicazione tecnica, rimanendone comunque distinta: in effetti, la stessa teoria non è altro ormai che produzione della natura in quanto Bestand, la legge naturale non è altro che una “direttiva per le applicazioni tecniche”, la scienza non è altro che «tecnica del fondamento».

Fonte: https://www.docenti.unina.it/downloadPub.do?tipoFile=md&id=80093

Sito web da visitare: https://www.docenti.unina.it/

Autore del testo: non indicato nel documento di origine

Il testo è di proprietà dei rispettivi autori che ringraziamo per l'opportunità che ci danno di far conoscere gratuitamente i loro testi per finalità illustrative e didattiche. Se siete gli autori del testo e siete interessati a richiedere la rimozione del testo o l'inserimento di altre informazioni inviateci un e-mail dopo le opportune verifiche soddisferemo la vostra richiesta nel più breve tempo possibile.

 

Karl Raimund Popper Il falsificazionismo

 

 

I riassunti , gli appunti i testi contenuti nel nostro sito sono messi a disposizione gratuitamente con finalità illustrative didattiche, scientifiche, a carattere sociale, civile e culturale a tutti i possibili interessati secondo il concetto del fair use e con l' obiettivo del rispetto della direttiva europea 2001/29/CE e dell' art. 70 della legge 633/1941 sul diritto d'autore

Le informazioni di medicina e salute contenute nel sito sono di natura generale ed a scopo puramente divulgativo e per questo motivo non possono sostituire in alcun caso il consiglio di un medico (ovvero un soggetto abilitato legalmente alla professione).

 

Karl Raimund Popper Il falsificazionismo

 

"Ciò che sappiamo è una goccia, ciò che ignoriamo un oceano!" Isaac Newton. Essendo impossibile tenere a mente l'enorme quantità di informazioni, l'importante è sapere dove ritrovare l'informazione quando questa serve. U. Eco

www.riassuntini.com dove ritrovare l'informazione quando questa serve

 

Argomenti

Termini d' uso, cookies e privacy

Contatti

Cerca nel sito

 

 

Karl Raimund Popper Il falsificazionismo