Il mito dell’infallibilità: perché la scienza non conduce alla verità?

 

Un’analisi storico-critica attraverso importanti riflessioni epistemologiche e una rassegna di eventi accaduti e di errori commessi rivelatisi significativi per la comunità scientifica. Il suo scopo è quello di dimostrare il procedere intrinsecamente fallibile, dinamico ed incerto della scienza, a discapito della diffusa ideologia dello scientismo che fa della scienza la sovrana di un sapere universalmente valido e oggettivamente affidabile. 

 

 

Che sia davvero la scienza la via che conduce alla verità assoluta, o dobbiamo accettare l’incertezza come inalienabile compagna del sapere umano, sempre più dinamico e pluralistico?

 

Agli albori della cultura occidentale, in Grecia, la scienza era conosciuta con il nome di επιστήμη (episteme) e veniva considerata l’unica forma di sapere certo e infallibile, contrapposto alla δόξα (doxa), ossia la mendace opinione soggettiva. In particolare, nel Teeteto, Platone definisce la scienza come «opinione vera accompagnata da ragionamento»: così facendo, le si attribuisce la caratteristica di non limitarsi alla mera veridicità, che anche un’opinione comune potrebbe avere in maniera assolutamente aleatoria, ma di presuppore anche un ragionamento che la verifichi. Non distante è quanto afferma anche Aristotele nel sesto libro dell’Etica Nicomachea, che descrive la scienza come un procedimento della ragione che implica non solo precisione, certezza, necessità ed eternità, ma anche la produzione di dimostrazioni consequenzialmente logiche.

 

Una questione di metodo: deduzione ed induzione

 

Un tale tipo di sapere, del tutto incorruttibile, non poteva che essere oggetto di deduzione, un metodo di ragionamento analitico e aprioristico (il cui predicato non aggiunge alcuna qualità nuova al soggetto e la cui verità dipende esclusivamente dal significato dei suoi termini, in maniera del tutto indipendente dall’esperienza: es. “tutti gli scapoli sono uomini non sposati”), che permette di giungere a certe conclusioni particolari partendo da date premesse generali.

 

Tuttavia, oggigiorno siamo ormai tutti consapevoli del fatto che la scienza non procede solo per deduzione, ma anche, e soprattutto, per induzione. Infatti, a seguito della prima importante rivoluzione scientifica a cavallo tra XVI e XVII secolo c’è stato l’avvento dell’empirismo, un approccio alla conoscenza basato sull’esperienza sensoriale: per Galilei, alla scienza non bastano più le necessarie dimostrazioni ma servono anche le sensate esperienze. Così, in un simile contesto, ha avuto la meglio il metodo di ragionamento contrario alla deduzione, ossia quello induttivo, sintetico e a posteriori (il cui predicato aggiunge qualità nuove al soggetto e la cui verità non dipende esclusivamente dal significato dei suoi termini, ma può dimostrarsi soltanto mediante l’esperienza: es. “Roma è la capitale d’Italia”), che da certi fatti osservativi particolari permette di giungere a conclusioni generali.

 

Qualcosa di parzialmente simile all’induzione, in realtà, era presente anche ai tempi degli antichi e si manifestava sotto la forma di επαγωγή (epagoghe), una sorta di percezione sensibile che aveva il compito di avviare il νοῦς (nous), ossia l’intuizione intellettiva sovra-razionale in grado di cogliere quali fossero le premesse valide da usare nelle deduzioni; che però, da sola, non poteva in alcun modo giungere ad alcun sapere certo e universale come quello dell’επιστήμη (episteme) ma solo a delle conoscenze arbitrarie.

 

Per quanto antica e inficiata nel corso dei secoli, non si può dire che la valutazione negativa attribuita all’induzione dagli antichi greci sia del tutto priva di fondamento. Per comprendere ciò si può fare ricorso alla filosofia della scienza, attraverso la riflessione di Hume. Egli, infatti, sostiene che è del tutto impossibile dare una giustificazione razionale dell’induttivismo, sebbene esso faccia naturalmente parte della nostra struttura cognitiva. Noi, argomenta Hume, facciamo sempre affidamento al principio di uniformità della natura, che ci permette di assumere che siccome un certo evento si è sempre verificato fino ad ora allora, sicuramente si verificherà di nuovo. Una tale spiegazione del principio di uniformità della natura, tuttavia, è essa stessa un’inferenza induttiva, il che rende circolare, e dunque irrazionale, l’intero tentativo di giustificazione dell’induttivismo.

 

Eppure, se davvero l’induzione è irrazionale, perché si continua a farne uso nella scienza, che da sempre invece viene qualificata come un sapere razionale che punta a descrivere, predire e spiegare accuratamente i fenomeni dell’universo?

 

Nella storia della filosofia della scienza siamo stati messi dinanzi a possibili soluzioni molto diverse tra di loro, alla base delle quali però vi era una sola idea di fondo: la scienza, lungi dall’essere immutabile ed infallibile, è piuttosto un sapere dinamico e continuamente revisionabile, e proprio in questa intrinseca apertura al cambiamento risiede la sua forza e la sua quintessenza.

 

Esempi teorici di fallibilità nell’epistemologia

 

Popper ha avanzato l’orientamento del falsificazionismo, dove l’induzione viene completamente abbandonata a favore di un modello ipotetico-deduttivo che fa affidamento all’esperienza solo a posteriori per tentare la falsificazione della teoria ipotizzata. In questo modo «le teorie non sono mai verificabili empiricamente» (Karl Raimund Popper, La logica della scoperta scientifica), in quanto la verifica richiederebbe infinite prove positive dell’evento esperito, e pertanto «come criterio di demarcazione, non si deve prendere la verificabilità, ma la falsificabilità di un sistema» (op. cit.), in quanto alla falsificazione basta invece una e una sola prova negativa. Allorché quest’ultima non si dà, la teoria ha solamente «provato» temporaneamente «il suo valore» ed «è stata corroborata dall’esperienza passata» (op. cit.).

 

Di diverso avviso è Russell, il quale è riuscito a salvare sia il principio di uniformità della natura che, di conseguenza, il metodo induttivo, attraverso il concetto di probabilità, in quanto «tutto ciò che attendiamo è solo probabile che si verifichi» (Bertrand Russell, I problemi della filosofia). Così la scienza, procedendo probabilisticamente, «si avvicinerà al grado di certezza, senza però giungervi mai, perché sappiamo che nonostante le frequenti ripetizioni alla fine può talvolta accadere un fatto del tutto diverso» (op. cit.) e, sebbene non possa né verificare né falsificare una teoria certamente, può quantomeno aumentarne o diminuirne il grado di probabilità.

 

Sulla scia di Quine si collocano le più complesse visioni di Kuhn e Lakatos. Kuhn, con il concetto di paradigma, definito come «un insieme di esempi di effettiva prassi scientifica riconosciuti come validi» (Thomas Samuel Kuhn, Dogma contro critica. Dogmi possibili nella storia della scienza), descrive il progresso scientifico non come un lineare processo evolutivo, ma come un semplice susseguirsi di paradigmi del tutto incommensurabili. Durante il paradigma, «lo scienziato è un solutore di rompicapo» (op. cit.), in quanto la sfida della cosiddetta scienza normale «non è svelare ciò che non è noto, ma ottenere ciò che è noto» (op. cit.) con un approccio dogmatico e giustificazionista. A cagionare il salto da un paradigma all’altro sono invece le rivoluzioni scientifiche, scaturite dai periodi di crisi in cui inevitabilmente incorre la scienza normale quando il dogmatismo del paradigma corrente porta con sé troppe anomalie che esso stesso non è più in grado di giustificare. Qualsiasi teoria, dunque, e il metodo scientifico stesso, sono meramente relativi al paradigma dominante, e in sì dato contesto soltanto «un crollo delle regole del gioco prestabilito è il preludio usuale a una significativa innovazione scientifica» (op. cit.).

 

Non tanto diversa dalla prospettiva kuhniana è la metodologia dei programmi di ricerca di Lakatos, che istituisce un nucleo di teorie paradigmatiche «costituito da un minimo di due a un massimo di cinque postulati» (Imre Lakatos e Paul Karl Feyerabend, Sull’orlo della scienza. Pro e contro il metodo). Queste teorie sono da salvaguardare, ma diversamente da come accede per Kuhn, tuttavia, ciò avviene non solo mediante il dogmatismo rappresentato dalla cosiddetta euristica negativa, volta ad aggiungere sempre nuove ipotesi ausiliarie che difendano il nucleo da pretese confutazioni come in una sorta di cintura protettiva; ma anche con qualcosa di simile al falsificazionismo, consistente invece nell’euristica positiva, «una tecnica di soluzione di problemi che indica allo scienziato come “digerire” un’anomalia» (op. cit.), pronta a rinunciare alle vecchie ipotesi ausiliarie quando ne emergano di nuove migliori. In questo modo, un programma di ricerca può essere o regressivo o progressivo, allorché, rispettivamente: faccia ricorso a sole ipotesi difensive, spesse volte anche ad hoc (formulate in modo tale da adattarsi al caso specifico senza reali fondamenti), e non riesca a predire con successo alcunché, e in tal caso si tratterebbe di un programma pseudo-scientifico; introduca sempre nuove ipotesi tali da garantire lo sviluppo della ricerca e predire con successo fatti nuovi e inattesi, costituendo in questo caso un programma rigorosamente scientifico.

 

Inoltre, a dimostrazione del carattere fallibile della scienza e del fatto che è proprio questo carattere fallibile a garantirne il costante progresso, non vi sono solo le suddette – più molte altre argomentazioni filosofiche puramente teoretiche –  ma anche tutta una serie di casi realmente avvenuti di teorie ormai superate ed errori storici causati da paradigmi dominanti.

 

Esempi concreti di fallibilità nella storia della scienza

 

Celebre è il passaggio dalla teoria geocentrica di Tolomeo a quella eliocentrica di Copernico. Sebbene il geocentrismo tolemaico, infatti, avesse costituito per lunghi secoli il paradigma dominante nel descrivere l'universo come orbitante attorno alla Terra, con l’avvento dell’eliocentrismo copernicano l’intero sistema è andato in crisi. La rivoluzione, inoltre, è stata ulteriormente corroborata dalle osservazioni astronomiche di Galilei e dalle leggi di Keplero, che hanno dimostrato la maggiore semplicità e aderenza al reale del nuovo impianto copernicano.

 

Pure il passaggio dalla meccanica newtoniana alla relatività di Einstein è altrettanto famoso. Le leggi della meccanica classica di Newton, basate sui concetti di spazio e tempo assoluti, sono state in grado di spiegare la fisica per oltre due secoli, finché la loro validità non è stata messa in dubbio dalla teoria elettromagnetica di Maxwell. A determinare il vero e proprio cambio di paradigma però è stata la teoria della relatività einsteiniana, che ha dimostrato, dapprima, con la relatività ristretta, come spazio e tempo fossero relativi e non assoluti, e poi, con la relatività generale, come la gravità non fosse una forza bensì una curvatura dello spazio-tempo.

 

Molto meno conosciuta ma comunque degna di approfondimento è la teoria dell’origine del colera su base contagiosa. Nel XIX secolo il paradigma dominante, condiviso da medici ed esperti, sosteneva che malattie simili erano causate da arie cattive o miasmi. Solo con gli esperimenti di Snow, che mappando tutti i decessi di colera ha individuato dei punti più addensati, e con la teoria dei germi di Pasteur e Koch, si ha iniziato a comprendere la vera causa delle malattie infettive. Ciononostante, il paradigma dominante ha continuato a persistere per diverso tempo, rallentando l’adozione delle misure sanitarie necessarie per il contenimento.

 

Pur avendo portato questi importanti esempi, è possibile che certi caparbi scientisti non risultino ancora convinti della fallibilità della scienza e ancora credano fedelmente, come cultori di una religione, nella scienza come unico sapere universalmente valido e affidabile. Pertanto, è necessario confutare in ultima istanza proprio lo scientismo stesso, il più importante mito della scienza contemporanea, spesso ben riassunto da una tipica frase detta da chi, pur non sapendo quasi niente di scienza, si arroga il diritto di discutere a riguardo: «Parlano i dati!».

 

Tirannia dei dati nell’era dell’AI e scientismo

 

Di fondamentale importanza è comprendere che i dati, da soli, non parlano affatto, e che pure la pubblicazione di uno studio, di per sé, non vuol dire niente. La scienza, infatti, è sempre più una disciplina sociale, intersoggettiva e comunitaria, le cui scoperte vengono pubblicate in riviste scientifiche specializzate sotto forma di peer-reviewed papers. Questi articoli consistono quindi non solo nell’esposizione dell’esito dello studio compiuto da un gruppo di ricercatori, ma anche in una precisa e dettagliata descrizione del procedimento sperimentale adottato, sottoponendo così il proprio studio a una continua verifica da parte della comunità scientifica, senza mai acquisire uno statuto di verità ma restando sempre e solo una congettura provvisoria e potenzialmente falsificabile.

 

Il procedimento di pubblicazione stesso e i ranking che garantiscono il prestigio di alcuni articoli e di alcune riviste piuttosto che di altri, per quanto sottopongano a molteplici e rigorose revisioni, non sono immuni da una serie problematiche che rischiano di trasformare i dati in autorità assoluta, attribuendo un’eccessiva enfasi alla mera statistica e andando a discapito delle sfumature qualitative contestuali.

 

Chiaro esempio è l’impiego di indicatori come l’impact factor (che stima l’impatto di un articolo mediante il rapporto tra le citazioni ricevute in un anno e il numero di articoli pubblicati dalla rivista), lo SCImago Journal Rank (uguale all’impact factor, che in più tiene conto del prestigio delle riviste che citano l’articolo), e l’h-index (che misura il prestigio di uno scienziato basandosi sul numero di pubblicazioni e citazioni). In realtà, questi indicatori non riescono a garantire la qualità degli articoli pubblicati, in quanto sono altamente suscettibili a mode e differenze tra discipline, e pertanto non sono in grado di certificare la validità, per esempio, di articoli o scienziati di settori altamente specializzati e per questo poco popolari.

 

Ulteriore problema è costituito dal cosiddetto bias algoritmico. Si potrebbe infatti ingenuamente pensare che l’utilizzo di sistemi computazionali possa garantire risultati del tutto neutri, oggettivi e imparziali, dimenticandosi che gli algoritmi, per quanto complessi e avanzati, non possono che riflettere i pregiudizi dai dati su cui sono stati addestrati. Tali dati, infatti, sono stati raccolti, selezionati e interpretati da esseri umani, i quali inevitabilmente sbagliano, magari costruendo basi dati su campioni non rappresentativi, o facendo omissioni e commettendo errori nei processi di raccolta e di selezione. La validità dei risultati di un algoritmo, dunque, altro non è che una presunzione, che non può essere in alcun modo immune da biases e che conferisce un’autorità ingiustificata ai risultati numerici e ai modelli predittivi, incorrendo così nel rischio di perpetuare e rendere sistematici errori e discriminazioni insiti nei dati. A testimonianza di ciò, si rinvia a un interessante paper pubblicato a giugno 2023 su “Bloomberg” a opera di Leonardo Nicoletti e Dina Bass dal titolo “Humans are biased. Generative AI is even worse”, uno studio che in maniera interattiva attraverso le nuove tecnologie text-to-image dimostra come l’intelligenza artificiale abbia interiorizzato e amplificato stereotipi su genere sessuale e colore della pelle.

 

In sintesi, l’apparente oggettività dei calcoli matematici e statistici che si celano dietro alla scienza è spesso illusoria. Si rende indispensabile, pertanto, l’adozione di un pensiero critico che sia in grado di superare lo scientismo, comprendendo che ogni risultato raggiunto dalla scienza altro non è che una tappa provvisoria in un percorso collettivo di verifica, correzione e falsificazione.

 

La scienza, di conseguenza, per concludere e dare una risposta all’interrogativo iniziale, non è un insieme di verità assolute ed immutabili come invece pretendeva di essere l’antica επιστήμη (episteme), ma un metodo di conoscenza al servizio dell’uomo, aperto e in continua evoluzione: in fondo, dunque, è ineluttabilmente permeata dall’incertezza.

 

5 febbraio 2025

 








Canale Telegram: t.me/gazzettafilosofica