Se questa è scienza…..

Quando fu chiesto a Jean Dieudonné, portavoce del gruppo di lavoro di matematici francesi noto sotto il nome collettivo di Nicolas Bourbaki, cosa fosse la matematica rispose che essa era quella cosa che compariva nelle riviste di matematica; risposta in parte vera, ma che rivelava la totale autoreferenzialità di quegli scienziati.

Il punto storico

Per restare alla matematica i bourbakisti, e chissà quanti altri specialisti, forse quasi tutti, dimenticano che la loro disciplina è nata per risolvere problemi pratici: in Egitto nasce la geometria per ridefinire i confini proprietari dopo la periodica piena del Nilo; nel mondo antico l’aritmetica serviva ai calcoli astronomici per rendere più sicura la navigazione. È ben vero che il progresso dell’umana conoscenza passa anche (spesso)
attraverso elucubrazioni al momento puramente astratte, come ben noto a quei capitalisti (Rockfeller) che dagli anni ’30 del secolo scorso finanziano pure le ricerche più astratte, nella convinzione che prima o poi esse avrebbero trovato un’utile ricaduta nella tecnologia e nelle applicazioni pratiche. Sta di fatto, però, che troppo spesso gli attuali percorsi della ricerca matematica si svolgono in campi talmente astratti che non risultano strumentali neppure, come storicamente è sempre stato, alla ricerca della scienza più affine alla matematica: la fisica. Quando Einstein iniziò a sviluppare la sua teoria della relatività generale trovò parte degli attrezzi matematici necessari nelle geometrie non-euclidee sviluppate nel secolo precedente, come pure fantasticherie.
Ma negli ultimi decenni sono le ipotesi fisiche a suggerire ai matematici i campi di ricerca da sviluppare, mentre i matematici puri lavorano su piani che non intersecano la fisica. Può ben darsi che i loro risultati riusciranno in un futuro utili, come lo furono in seguito le ricerche sulle funzioni complesse di varabili complesse, quelle di Bessel e le algebre di Lie, ma tale ipotesi al momento non è verificabile. Resta il fatto che se la matematica teorica viaggia così lontana dalle altre scienze, quale rapporto può mantenere con i problemi pratici? È il concetto di committenza sociale che difettava a Bourbaki e che portava a considerare la matematica come quel gioco intellettuale che soddisfa soltanto l’io irrisolto dei matematici.

La situazione delle “scienze dure”

Le cose non vanno meglio per le cosiddette “scienze dure”, in particolare per la più emblematica di tutte: la fisica. Negli anni venti del secolo scorso la meccanica quantistica, che aveva visto la luce nel 1900, subisce una svolta interpretativa marcatamente irrazionalistica, come lo spirito dei tempi assecondava. La generazione
che aveva dato i primi importanti contributi allo sviluppo della teoria (Planck, Born, Einstein, Schrödinger) non si convincono e cercano di arrestare il processo proponendo dei paradossi (Einstein-Podolsky-Rosen, gatto di Schrödinger), ma i risultati sperimentali, legati agli sviluppi del paradosso EPR (disuguaglianza di Bell), hanno
per ora dato ragione all’interpretazione standard o della cosiddetta scuola di Copenaghen (Bohr, Heisemberg).
Anche se questo implica una “intesa” immediata di due particelle inizialmente accoppiate e successivamente poste a distanza qualsiasi: in altre parole due particelle che si sono conosciute, “sanno” le modifiche l’una dell’altra immediatamente, senza che tra esse intercorra alcun segnale, che per la limitazione finita della velocità della luce impiegherebbe comunque del tempo. Nello scorcio del XX secolo la situazione si è
ulteriormente complicata. La fisica teorica ha imboccato nuove impervie strade: la teoria gravitazionale dell’universo e la teoria delle stringhe.

La cosmologia

La teoria cosmologica predominante è il cosiddetto modello standard, che prevede un inizio temporale del cosmo in cui viviamo (il Big Bang) e considera predominante ai fini della spiegazione dello sviluppo cosmologico la forza gravitazionale, dando così origine alla gravità quantistica, ovverosia al tentativo teorico di conciliare la relatività generale (infinitamente grande) e meccanica quantistica (infinitamente piccolo). Al di là delle fughe in avanti, della fisica teorica attuale derivate da queste impostazioni, su cui tornerò tra poco, quello che deve far riflettere è la maniera in cui il modello standard viene retto in piedi. La forza gravitazionale è tra le forze che la fisica conosce (forte o nucleare, elettromagnetica, debole e gravitazionale), quella decisamente più flebile e non di poco. Teorie frettolosamente emarginate (proposte dal fisico svedese Hannes
Alfvén, premio Nobel nel 1970) attribuiscono il funzionamento dell’universo alla forza elettromagnetica, circa un miliardo di miliardi di miliardi di miliardi di volte più intensa (anche se le cariche elettriche e magnetiche hanno due polarità e la forza gravitazionale riguarda solo la massa). Ora il modello standard spiega alcuni
parametri realmente riscontrati nell’universo (velocità di espansione, radiazione di fondo cosmico), ma frana su altri (tempi di formazione degli ammassi di galassie, stabilità delle galassie stesse). Per spiegare questi ultimi fenomeni occorrerebbe un’attrazione gravitazionale talmente intensa che la massa di materia a noi visibile non può fornire. Gli astrofisici hanno così ipotizzato l’esistenza di un surplus di materia pari a circa l’86% di quella totale (mentre quella visibile costituisce il restante 14%), di cui possiamo constatare gli effetti gravitazionali, ma che non possiamo rilevare in alcun modo perché non presenta effetti elettromagnetici (materia oscura); il motivo per il quale una materia costituita comunque da particelle cariche che non manifestino elettromagnetismo resta un mistero. In alcune versioni del modello, per rendere più efficace il computo corretto
della velocità di espansione dell’universo si introduce anche una energia oscura, anch’essa di notevoli dimensioni ma, guarda caso, anch’essa non altrimenti rilevabile se non per i suoi effetti. Nella sua La struttura delle rivoluzioni scientifiche Thomas Kuhn distingue in due tempi le fasi dell’evoluzione della scienza: lo sviluppo “normale”, in cui il paradigma dominate tra la comunità degli scienziati viene portato avanti e quando si incontra un’anomalia la si aggiusta con ipotesi ad hoc; la rottura “rivoluzionaria” in cui il vecchio paradigma non regge più di fronte alle controprove sperimentali e viene sostituito da un nuovo paradigma che già cova
nella comunità. Massa oscura ed energia oscura hanno tutta l’aria di essere ipotesi ad hoc atte a rattoppare le incongruenze della teoria standard, via via che esse si presentano.

Le stringhe

Nel tentativo di unificare in un’unica teoria (sistema di equazioni) tutte le forze conosciute, a partire dalla teoria della gravità e dalla meccanica quantistica, nasce, tra le varie ipotesi, la teoria delle stringhe. Queste sono oggetti “unidimensionali”, specie di microfessure nello spazio-tempo di dimensioni così piccole da sfuggire a
qualsiasi osservazione. Le suddette “cordicelle” nei loro vari modi di oscillazione sarebbero responsabili della struttura dell’universo. La teoria conta ormai più cinquanta anni e nel suo sviluppo ha originato conseguenze che sfuggono alla più fervida immaginazione. Le dimensioni in cui si svolge l’attività delle stringhe non sarebbero le ormai tradizionali quattro (le tre dimensioni spaziali ed il tempo), ma fino a dieci (o addirittura 26), con le rimanenti sei non rilevabili. Ricompare nella teoria delle stringhe l’ipotesi del multiverso, ovverosia dell’esistenza di più universi o mondi paralleli, ovviamente anch’essi non osservabili. In ognuno di essi si svolgerebbe una vita più o meno simile alla nostra. In alcune ipotesi gli universi possibili sono pressoché
infiniti.

Considerazioni

La deriva della moderna fisica teorica, più sopra sommariamente descritta, ha portato alla ribalta una pletora di quantità esplicitamente non osservabili. Ne consegue che, se di esse “vediamo”, e non sempre, gli effetti, non abbiamo alcun modo per verificare se esse sono le uniche in grado di spiegare i fenomeni osservati. Le teorie surricordate non solo non sono falsificabili, come il principio di demarcazione tra scienza e non scienza di Popper esige, ma neppure verificabili e per di più ipotetici. L’unico riscontro che abbiamo di esse è solo che spiegano il fenomeno per rendere conto del quale sono state introdotte. Ben poco! C’è un insegnamento storico: non basta che la comunità scientifica condivida come valida un’ipotesi perché essa sia scientificamente testata:
per tutto il XIX secolo i fisici non potevano ammettere che qualcosa viaggiasse nel vuoto, per cui ipotizzarono un mezzo che spiegasse la propagazione delle onde elettromagnetiche: l’etere, invisibile e non rilevabile, esistente solo per i suoi effetti; la teoria della relatività ristretta, formulata da Einstein nel 1905, ha spazzato via dal panorama scientifico l’etere. La storia si ripete prima come tragedia e poi come farsa.

La medicina

Questa è la situazione in cui versa la “scienza” che ha fatto e fa da esempio paradigmatico di attività scientifica e che gli epistemologi studiano da sempre. Che ne è quindi della medicina il cui status di scienza è sempre stato traballante. Essa si è storicamente dibattuta tra due strade. La prima, la più antica, di tipo olistico legata, però ad un approccio puramente sintomatologico. Lo studio della costituzione del corpo umano veniva fatto sui cadaveri, prassi utile a livello anatomico, ma che poco serviva a spiegare correttamente il suo comportamento: la malattia si sviluppa evidentemente in corpore vivi e quindi l’unico modo per prenderla in considerazione era l’osservazione dei sintomi, la “semeiotica”. Con il ricorso a scienze maggiormente analitiche, prime fra tutte, la microbiologia e la chimica organica, ma non solo, lo studio del funzionamento del corpo umano è andato via via scendendo ai più minuti particolari; si è sviluppato, però, un paradigma totalmente riduzionistico. Ora si sa come, ad esempio, i neuroni interagiscono tra di loro, ma si dimentica che il l’essere umano vivo è un meccanismo oltremodo complesso e che, quindi, l’interazione tra i singoli fenomeni elettromagnetici e biochimici che in esso avvengono non si giustappongono semplicemente (basti pensare al complicato rapporto psiche-soma). La catena di cause ed effetti che si sviluppa è troppo lunga e segue vie tortuose difficili da ricostruire; per cui si scoprono spesso con (colpevole) ritardo gli effetti dannosi di un farmaco (talidomide) o le
controindicazioni di una terapia. Si sono fatti grandi passi in avanti, ma lo status di certezza scientifica è ben lontano del poter essere applicato alla medicina.

Affrontare la pandemia

Da otto mesi gli schermi televisivi sono pieni di esperti (virologi, epidemiologi, pneumologi, infettivologi, etc.); altrettanto dicasi delle pagine dei giornali e di tutti i social media. Lo spettacolo da essi fornito non è confortante. L’uno smentisce l’altro spesso ferocemente, le previsioni sull’andamento della pandemia sono incerte, le prescrizioni da seguire per evitare il contagio variano (fatte salve alcune norme basilari di igiene personale), oscillano nel tempo; le ipotesi terapeutiche nascono e muoiono come stelle cadenti: i tempi, i luoghi e le cause dell’origine del Sars-cov-2 sono ancora oggetto di indagine e quindi insicure; predomina l’approccio euristico. La stessa Organizzazione Mondiale della Sanità ha più volte variato la classificazione del contagio, le prescrizioni impartite e le raccomandazioni per le autorità nazionali. C’è poi la corsa ad accaparrarsi le enormi commesse per il vaccino, con le aziende farmaceutiche impegnate ad una corsa al rialzo sulla copertura del proprio prodotto, quasi fosse una gara d’asta, prima ancora della validazione internazionale. Difronte a questa babele di informazioni, mutevole nel tempo, i cittadini sono disorientati; questa confusione è notevolmente accentuata dal susseguirsi di norme, di divieti, non solo temporalmente e localmente varianti, ma per di più non sempre rispondenti ad una logica evidente almeno per i “profani”, quando non sconfinano nell’assurdo. Non è
un caso che l’unica soluzione reale trovata per far fronte alla situazione sia stata quella di distanziare gli individui: operazione sicuramente efficace (basti pensare alla sicurezza garantita all’individuo se ognuno potesse essere rinchiuso in una bolla di plexiglass), ma non certo di grande levatura scientifica. Quello che non torna è che i “profani” appunto, quelli che tali norme dovrebbero seguire, vengono trattati da ingenui
incompetenti, che si devono fidare dal pull di “esperti”, riuniti sotto il magico nome di Comitato Tecnico Scientifico. Se la trasparenza non sempre si confà all’agire specialistico e scientifico, la costruzione dei parametri su cui vengono operate le scelte apre la stura a delle considerazioni poco edificanti, se anche molti esperti del settore nutrono dubbi sulla loro oggettività ed efficacia.

I parametri e la loro natura

La nostra vita sociale è appesa ai parametri che misurano la contagiosità del virus. All’inizio del contagio veniva citato il parametro R0 in seguito sostituito da Rt, che ora è l’unico divulgato e considerato. Vediamo cosa dicono di loro le FAQ del Ministero della Salute.

R0, Rt: cosa sono, come si calcolano?

Il numero di riproduzione di una malattia infettiva (R0) è il numero medio di infezioni trasmesse da ogni individuo infetto ad inizio epidemia, in una fase in cui normalmente non sono effettuati specifici interventi (farmacologici e no) per il controllo del fenomeno infettivo. R0 rappresenta quindi il potenziale di trasmissione, o trasmissibilità, di una malattia infettiva non controllata. Tale valore R0 è funzione della probabilità di trasmissione per singolo contatto tra una persona infetta ed una suscettibile, del numero dei contatti della persona infetta e della durata dell’infettività. La definizione del
numero di riproduzione netto (Rt) è equivalente a quella di R0, con la differenza che Rt viene calcolato nel corso del tempo. Rt permette ad esempio di monitorare l’efficacia degli interventi nel corso di un’epidemia. R0 e Rt possono essere calcolati su base statistica a partire da una curva di incidenza di casi giornalieri (il numero di nuovi casi, giorno per giorno). Per calcolare R0 o Rt non è necessario conoscere il numero totale di nuove infezioni giornaliere.
(https://www.iss.it/primo-piano/-/asset_publisher/o4oGR9qmvUz9/content/faq-sul-calcolo-del-rt)

Due cose saltano agli occhi. La prima sta nella specificazione del tutto arbitraria de “inizio epidemia”; perché arbitraria? Perché da un punto di vista scientifico un parametro che indica “il numero medio di infezioni trasmesse da ogni individuo infetto” è valido sempre e comunque. Indipendentemente dalle fasi evolutive della pandemia; quello è e quello rimane. Ma per i nostri “scienziati” la specificazione non è arbitraria: infatti si specifica subito che nella fase iniziale “non sono effettuati specifici interventi […] per il controllo del fenomeno infettivo”. La seconda cosa sta nell’introduzione dell’altro parametro che, specificando l’assunto precedente, “permette […] di monitorare l’efficacia degli interventi nel corso di un’epidemia”. Alle elementari (allora si
chiamavano così) il maestro mi spiegava che non è possibile sommare le pere con le mele. Allora mi chiedo come sia possibile tenere conto in un unico parametro sia della trasmissività dell’infezione, sia dell’efficacia nel tempo degli interventi farmacologi, sia delle misure sociali messe in atto, sia della situazione delle strutture sanitarie e quant’altro. La risposta esiste, ma apre prospettive poco edificanti: i vari indicatori vengono miscelati attraverso quello che si chiama una media pesata, ovverosia ad ognuno di essi viene assegnato un peso diverso, a seconda dell’importanza ad esso attribuita. Chi stabilisce questo peso? Secondo quali considerazioni? Nel parametro Rt c’è un’area di variabilità, legata a considerazioni sociali e politiche, che ne fanno uno strumento del tutto non scientifico.

L’algoritmo

La storia non finisce qui. Recentemente si è instaurato un meccanismo “automatico” per decidere le restrizioni da adottare regione per regione (azzurro, giallo, arancione, rosso) secondo l’andamento dell’epidemia; il meccanismo suddetto ha due basi: 21 parametri e un algoritmo. I parametri sono stati stabiliti in accordo tra Stato e regioni nello scorso maggio, in un momento in cui il contagio stava vistosamente calando; non è un caso
che le regioni ne chiedano ora la revisione. C’è anche da dire che essi sono forse troppi (o forse si voleva imitare la fondazione della terza internazionale con i ventun punti stilati da Lenin per aderirvi, ma c’è da dubitare che la loro cultura storica arrivi a tanto) e per di più estremamente complicati, a detta anche di molti esperti: sarebbe stato meglio individuare pochi e semplici parametri come, andamento dei contagi, trasmissività
del virus, situazione della ricettività ospedaliera e poco altro. Il punto più debole dell’intera operazione è, però, l’algoritmo.

La certezza dei dati

I dati su cui viene elaborato il calcolo definitivo provengono dalle regioni e nessuno certifica che la loro raccolta sia omogenea e quindi confrontabile. Noto è il caso dei primi di novembre della regione Calabria che, in procinto di essere dichiarata zona rossa, ha trasmesso un dato sul numero dei ricoverati in terapia intensiva minore della somma dei numeri provenienti dalle ASL; la giustificazione addotta fu che si contavano solo i pazienti intubati e non quelli, pure in terapia intensiva, bisognosi di ventilazione. Molti dubbi sono stati sollevati sulla veridicità dei dati comunicati, ma senza voler adombrare il dolo, sta di fatto che i metodi della loro raccolta non rispondono ad un criterio elementare di omogeneità su tutto il territorio.

Il loro peso

Del peso assegnato, poi, a ciascuno dei ventuno parametri sopra menzionati ben poco si sa; l’unica cosa che sembra certa è che il più ragguardevole di tutti sia proprio quello assegnato al parametro Rt. L’algoritmo appare, pertanto, altamente aleatorio. Già Rt soffre di un elevato tasso di soggettività, figuriamoci poi se esso viene miscelato in modo misterioso e ancor più soggettivo con altri venti numeri. Più gli algoritmi sono complicati, più essi sfuggono ad un controllo di processo; meno si sa della loro composizione e meno essi risultano affidabili per l’opinione pubblica. Come si giustifica il salto repentino da zona gialla a zona rossa della Campania (ma anche la Toscana ha fatto la stessa transizione in quattro giorni)? Veniva detto che le revisioni per cambiare l’indice di pericolosità del contagio sarebbe stata effettuata al termine di ogni settimana. Viene da pensare che o era sbagliato il calcolo precedente o lo è quello successivo.

Lo iato temporale

Il Presidente della Regione Toscana, Eugenio Giani, al momento in cui la regione è transitata in zona rossa, ha lamentato un ritardo nel calcolo: a suo dire esso si riferiva a dati vecchi, mentre quelli più recenti raccontavano un’altra storia. Questa critica non appare, però, giustificata: il calcolo viene eseguito settimanalmente sui numeri mediati nell’arco di sette giorni e questo è accettabile, perché la media smussa le inevitabili fluttuazioni giornaliere, che possono dipendere dalle cause più disparate (numero di tamponi, tracciamento nei focolai, casualità delle indagini sul territorio, ritardi nel processamento dei tamponi, etc.). Anche il fatto che per transitare da una zona a minor rischio epidemiologico ad una a maggiore occorra una settimana e per il passaggio inverso ne occorrano tre (due forse erano sufficientemente prudenziali), è giustificabile per il principio di massima precauzione.

Il controllo

Un meccanismo talmente complicato (a partire dalla definizione dei 21 parametri) e soggettivo è di difficile controllo non solo da parte del singolo cittadino che ne subisce le conseguenze, ma anche di molti addetti al settore. Quello che viene da chiedersi è se poi esso sia sotto il controllo di chi realmente lo ha progettato e di chi lo maneggia; certo non aiuta a dare fiducia il muro opposto ad ogni sia pur minima modifica, ovviamente da concordare tra i sottoscrittori del patto, Stato e Regioni.

Conclusioni: il pandemonio pandemico

Diverse lingue, orribili favelle,
parole di dolore, accenti d’ira…

la confusione dell’Inferno dantesco si sta riproducendo giornalmente: il vaccino da venire è sicuro o no? Chi lo assume può contagiare gli altri con cui viene a contatto? Qual è quello che garantirà la migliore copertura? Ci sarà la terza ondata? Qual è il grado di parentela con cui posso incontrarmi nelle prossime festività? Queste e
tante altre domande che il semplice cittadino si pone trovano risposte diverse a seconda dell’esperto che viene consultato ed egli risulta quindi quanto mai disorientato. Rimane pertanto un retrogusto amaro di arbitrarietà, che non induce a rispettare le regole e che induce a sospettare manovre poco corrette e, si sa, a “sospettare si
pecca, ma spesso ci si azzecca”. La medicina sta dando nell’attuale congiuntura il peggio di sé.

Saverio Craparo