La scienza non ha certezze, ma è normale che sia così

La fiducia nella conoscenza scientifica segue una dinamica peculiare: si consolida lentamente, ma si sgretola ogni volta che una previsione viene disattesa o che una spiegazione appare contraddittoria. Oggi, il concetto stesso di prova scientifica sembra in un certo senso indebolito, sospeso tra l’iperproduzione di dati e l’incapacità collettiva di interpretarli con senso critico. «Stiamo attraversando una fase di transizione in cui la domanda è se l’intelligenza artificiale sia un semplice strumento o qualcosa che ridefinisce i confini stessi del sapere», spiega Adam Kucharski, professore alla London School of Hygiene & Tropical Medicine e autore di testi come «Proof: the uncertain science of certainty» (Profile Books) e «Le regole del contagio» (Marsilio).
Soprattutto dopo le grandi crisi sanitarie degli ultimi anni, da Ebola al Covid-19, l’incertezza non è più percepita come una condizione naturale della scienza, ma piuttosto come un suo limite intrinseco. E questo equivoco rende difficile accettare la natura probabilistica di molte conoscenze scientifiche. «L’esposizione all’incertezza e alla casualità è più ampia che mai, e la capacità di spiegare perché certe cose accadano sembra essersi ridotta», osserva Kucharski. «L’incertezza, lungi dall’essere un difetto, è il motore della scienza. Ma quando si tratta di decisioni pubbliche, soprattutto in situazioni emergenziali, si trasforma in un problema politico».
In inglese si parla di weak evidence, la condizione in cui si dispone solo di indizi parziali – e non conclusivi – nel compiere scelte urgenti: in contesti come una pandemia o un processo giudiziario, attendere prove definitive può significare non agire in tempo. Spesso non è possibile aspettare di avere una solida evidenza, dunque occorre decidere con le informazioni di cui si dispone, bilanciando i rischi e accettando il margine di errore come componente imprescindibile del processo decisionale. «Persino quando c’è buona certezza sul problema e sugli strumenti, può comunque esserci disaccordo sulle politiche da adottare. Per questo è utile approcciarsi all’incertezza trattandola come un processo a più livelli, consci che arrivare a una verità unica e granitica è spesso un’utopia», continua Kucharski. Questa complessità si fa ancora più evidente nei processi a lungo termine, come il cambiamento climatico: nonostante l’ampissimo consenso scientifico sulla gravità del fenomeno, le politiche restano frammentate e si procede in ordine sparso, non per mancanza di dati ma per divergenze su interessi, valori e linee politiche.
Il concetto di incertezza si può estende oltre la scienza, assumendo una dimensione culturale. «Nel corso della storia, ciò che veniva considerato ovvio è cambiato radicalmente», chiarisce. «L’Europa, per esempio, ha a lungo respinto i numeri negativi perché incompatibili con la geometria greca, mentre in Asia erano accettati perché legati alla pratica del debito». Questo relativismo è oggi esacerbato dall’uso crescente dell’intelligenza artificiale: algoritmi capaci di prevedere l’evoluzione di una proteina, o di scrivere testi in linguaggio naturale, mettono in crisi l’idea classica secondo cui ogni decisione debba essere supportata da una spiegazione comprensibile. «Ci sono situazioni in cui l’AI funziona meglio se non ci preoccupiamo troppo di come raggiunga i propri risultati», osserva Kucharski. «C’è analogia con quanto accade con l’anestesia: sappiamo che una combinazione di farmaci induce l’incoscienza, ma non ne conosciamo esattamente il meccanismo biochimico».
Il problema diventa allora epistemologico: ci si può fidare di una prova generata da un algoritmo se non si è in grado di verificarla? Oggi l’AI non si limita a fornire supporto, ma genera contenuti, prende decisioni operative, anticipa scenari. Spesso procede in modo incomprensibile al nostro intelletto, senza rendere trasparente il percorso che porta al risultato. «In alcuni casi gli algoritmi generativi diventano compiacenti, ossia cercano la risposta che vogliamo sentire, non necessariamente quella più corretta», evidenzia Kucharski. «Il rischio è duplice: da un lato tecnico, perché l’affidabilità è difficile da valutare; dall’altro concettuale, perché ci abituiamo a dare per buone delle soluzioni e rinunciamo a governare il processo decisionale». L’AI può rappresentare un punto di svolta nella storia del sapere: non solo uno strumento, ma un nuovo soggetto culturale.
ilsole24ore