Prendete per esempio un vaso pieno di biglie bianche, diciamo un milione meno una, e iniziate a estrarle una per volta. Là in mezzo però ce n'è una, e una sola, di color nero. Possono succedere tante cose. Per dire, non è affatto impossibile che per arrivare alla biglia nera dobbiate pescare un milione di volte. Oppure che vi rimanga in mano la biglia nera al primo tentativo. Sono eventi alquanto improbabili, ma non impossibili. Che si verifichino o meno dipende dal numero di persone che si mettono davanti a quel vaso e giocano ai pescatori di palline. C'è infatti una probabilità su un milione che al primo colpo vi resti in mano la pallina nera. Se però i giocatori sono appunto un milione la statistica ci dice che a uno di questi accadrà proprio di azzeccarla al primo tentativo. Ma magari ciò non succede comunque, perché la "probabilità" non è "certezza".
In sostanza, la statistica delinea un campo di probabilità e lì in mezzo può succedere di tutto. Una certa percentuale di persone sul totale dei giocatori dovrà estrarre almeno 100mila palline per beccare quella nera. Un'altra percentuale dovrà arrivare sopra le 200mila. Ad altri ancora, meno numerosi, toccherà stare davanti al vaso più a lungo per arrivare alla fatidica pallina nera, estraendone magari più di 900mila bianche. Allargando sempre più il numero dei giocatori, però, capiterà che si trovi pure il giocatore che ci azzecca alla prima e quello che alla fin fine deve estrarre tutte le palline bianche prima di arrivare a quell'ultima pallina di colore opposto.
Ora, pensate se un report statistico andasse alla caccia di tutti i casi in cui la pallina nera è stata estratta nei primi centomila tentativi su un milione. Di fatto quegli eventi sono dovuti al puro caso. Non vi è cioè alcuna causa all'origine di tali pescaggi fortunosi. Semplicemente, se ci si focalizza solo su una parte di tutti i tentativi, pare quasi ci sia una forza superiore che fa sì che la pallina nera venga estratta più facilmente di quanto si potrebbe pensare. Poi arriva qualcuno, mette il naso nel modo di fare i conti e trova che no, non tornano. Non c'è alcuna forza che sospinge verso quel risultato, venuto fuori solo perché ci si è concentrati unicamente sugli eventi positivi trascurando quelli negativi.
Ecco, qualcosa del genere pare sia successa anche con la Iarc e il suo lavoro in tema glifosate, quello che ha condannato la molecola al gruppo 2A dei "probabili cancerogeni" con tutta la strumentale tempesta di "sostanza organica" che ne è derivata.
A fare le pulci statistiche a Iarc sono stati alcuni ricercatori americani, i quali hanno concluso che la "probabile cancerogenicità" di glifosate sia nata unicamente da un "eccesso di test sui dati". In estrema sintesi, per la legge della probabilità, l'elevato numero di studi analizzati da Iarc (le palline bianche) avrebbe fatto alla fine saltar fuori quelli "colpevolisti" (le palline nere). Tali evidenze di cancerogenicità sarebbero però apparse statisticamente significative quando invece erano correlazioni nate fra dati generati casualmente.
La ricerca, dal titolo "Accounting for multiple comparisons in statistical analysis of the extensive bioassay data on glyphosate", porta come prima firma quella di Kenny Crump, già autore in aprile 2020 di un altro studio di stampo statistico, ovvero "The potential effects of recall bias and selection bias on the epidemiological evidence for the carcinogenicity of glyphosate".
Quindi seguiamo l'ordine temporale delle due pubblicazioni.
Glifosate, linfomi non Hodgkin e bias di conferma
In questo primo lavoro si è valutata la possibile incidenza dei cosiddetti "bias di conferma". I principali dati sull'uomo in tema di glifosate e linfoma non Hodgkin provengono infatti da cinque studi caso-controllo e due studi di coorte. Il primo tipo di studi è infatti a rischio distorsione, dal momento che tutti si basano su informazioni relative all'esposizione al diserbante che sono state raccolte in base a memorie degli utilizzatori, non a dati misurati e verificabili (trattasi di bias cosiddetto di richiamo, in inglese "Recall").Inoltre, due dei cinque sono pure a rischio "bias di selezione" che può esacerbare ulteriormente l'effetto del bias di richiamo. Entrambi questi pregiudizi fanno apparire cancerogeno glifosate, esattamente come se si reputasse facile estrarre l'unica pallina nera basandosi sui ricordi di coloro che ci hanno messo poco tempo a trovarla ed escludendo tutti gli altri.
Gli studi di coorte, invece, non patiscono di questi pregiudizi: viene messa sotto indagine una popolazione composta da individui ipoteticamente a rischio di contrarre una specifica malattia o un cambiamento della condizione di salute. In tal caso i risultati dei due studi di coorte analizzati da Iarc apparirebbero conformi a quanto appunto ci si aspetterebbe se l'evidenza di cancerogenicità di glifosate emersa dai cinque studi caso-controllo derivasse da una distorsione statistica.
Troppa grazia, Sant'Antonio
Nel secondo studio Crump e colleghi hanno analizzato 10 biotest effettuati con glifosate su roditori. Fra questi vi sono anche quelli per i quali Iarc avrebbe trovato prove di cancerogenicità. Il metodo usato dagli statistici americani è, appunto, roba da statistici professionisti. Avrebbero infatti utilizzato una procedura detta di "permutazione a risposta multipla" capace di correggere i dati in funzione del gran numero di tumori idonei alla produzione di test statistici, fornendo in tal modo le probabilità che si siano creati falsi positivi. Tre i diversi strumenti di permutazione adottati e i risultati dicono che vi sono alte probabilità che si sia trattato proprio di falsi positivi. Non a caso, tramite i test applicati, i ricercatori avrebbero trovato più prove di tendenze negative "dose-risposta" rispetto alle positive. Volendola buttare sul ridere, si potrebbe cioè concludere che glifosate i tumori li previene anziché causarli. Decisamente un non-sense, ma che lascia immaginare quanto fatue siano le sedicenti prove di cancerogenicità poste a carico dell'erbicida.In base a ciò non vi sarebbero infatti prove evidenti che glifosate sia cancerogeno, nemmeno verso gli animali. La causa principale di tale discrepanza di conclusioni potrebbe esser nata dal fatto che Iarc non ha tenuto conto del gran numero di risposte tumorali analizzate e della maggiore probabilità che molte di queste mostrassero significatività statistica semplicemente dovuta al caso.
Conclusioni
Vista la complessità del tema, è sicuramente bene lasciare le discussioni fini di tipo statistico a chi con la statistica lavora tutti i giorni. Di certo, il fatto che si debba scendere a un tale livello di raffinatezza analitica per stabilire se una molecola sia cancerogena o meno, apre la strada a una semplice domanda nell'uomo comune: ma davvero era necessaria una tale guerra mediatica, scientifica, politica e lobbistica su una presunta cancerogenicità per ipotizzare o smentire la quale si devono utilizzare test statistici capaci di spaccare un capello in dieci?Perché quando si parla di glifosate e di cancro pare di trovarsi di fronte a un elefante con una piuma di fringuello sulla schiena, con le tifoserie anti-piuma che fanno i salti mortali per attribuire alla piuma una percentuale significativa del peso complessivo della bestia quando nemmeno le migliori bilance del mondo riescono a discernere quanto quella piuma incida davvero sulle cinque tonnellate dell'elefante.