Dubbi e opportunità dell’fMRI, la risonanza magnetica funzionale

Neuroscienze, non esiste la bacchetta magica per vedere cosa succede nel nostro cervello

Secondo una nuova analisi, oltre 3mila studi già pubblicati conterrebbero falsi positivi: una lezione da tener presente

Da quando affrontammo il tema in questa stessa sede (ne avevamo parlato nel lontano 2014), un nuovo studio è tornato a gettare i semi del dubbio sull’utilizzo di una delle tecniche più note di analisi delle neuroscienze: la risonanza magnetica funzionale, o fMRI.

Si tratta del metodo attraverso il quale il cervello dei soggetti di un esperimento viene sottoposto a scansione per evidenziare quali aree dell’organo si attivano quando una persona svolge una determinata attività. La risonanza magnetica funzionale, per dirla in soldoni, funziona come metodo di rilevazione indiretta: il cervello, come qualunque altro organo del corpo umano, consuma energia quando lavora, il che significa sangue che pompa ossigeno. Proprio monitorando i flussi di sangue da e verso determinate aree, è possibile inferire quali parti del cervello si “accendono”, per così dire, durante una specifica attività.

Come molti bravi neuroscienziati affermano, è come vedere una città dall’alto di notte e osservarne le luci che si diffondono. Un po’ pochino per identificarne una mappa precisa.

L’fMRI, sicuramente una tecnica rilevantissima e su cui è corretto investire perché si affini sempre più, è già stata inondata di critiche per diversi motivi: innanzitutto perché gli studi che se ne servono utilizzano campioni con pochissime osservazioni. Inoltre, l’immagine del cervello sottoposto a scansione viene ricreata in 3D attraverso un’aggregazione di quelli che sono chiamati voxels, la versione volumetrica dei più familiari pixels. Gli algoritmi di aggregazione sono complessi e, quindi, portatori sani di errori.

Se si aggiungono i problemi del costo degli esperimenti (che ovviamente necessitano di strumentazione altrettanto costosa), si capisce bene quanto la questione sia complessa. Non è un caso, appunto, che nel 2009 un team di ricercatori abbia messo in evidenza i rischi di una cieca fiducia nel mantra dell’fMRI con uno studio in cui si mostrava l’attività decisamente sorprendente del cervello di un salmone morto.

Ora, questo nuovo articolo sicuramente interessante (e pubblicato sulla prestigiosa Pnas) rincara la dose del dubbio, appunto, con una nuova evidenza. Il team di Anders Eklund della Linkoping University si è concentrato proprio sui software che vengono utilizzati per la creazione delle immagini.

I ricercatori hanno riutilizzato dati, presi da studi già pubblicati e relativi a 499 volontari. Si tratta di soggetti che non stavano facendo nessuna attività specifica al momento della scansione: inizialmente, infatti, erano persone che dovevano servire da ‘controllo’ per lo studio scientifico di riferimento.

Queste persone sono state riassegnate casualmente dai ricercatori a due gruppi: metà è finita in quello ‘test’ e metà in un nuovo gruppo di controllo. I dati sono stati infine inseriti in tre diversi software che vengono usati tipicamente per gli studi fMRI.

In teoria, non si dovrebbe osservare alcuna differenza specifica nei cervelli analizzati, visto che si tratta di persone che facevano parte comunque di gruppi di controllo nei vari studi precedenti.

Il risultato sorprendente, però, è che nel 70% dei casi si è trovata una sostanziale differenza tra test e controllo: in gergo, si parla di falsi positivi, il risultato di un test che porta erroneamente ad accettare l’ipotesi sulla quale esso è stato condotto.

Il software, in buona sostanza, trasmetteva un segnale là dove non c’era nel 70 per cento dei casi.

E si badi bene che, nonostante non sia possibile eliminare l’errore, si dovrebbe trovare un falso positivo al massimo in 1 caso su 20.

Come detto, i ricercatori affermano che c’è proprio un problema nell’algoritmo di aggregazione. Si tratta di bug, dunque, che inficiano i risultati dell’analisi e che, come ha detto Eklund all’Economist, potrebbe riguardare addirittura 3.000 studi già pubblicati.

Ciò non significa che questi studi scientifici vadano buttati nell’immondizia o che diffondano risultati falsi: significa semplicemente che il lavoro di replicazione di un test di laboratorio, vero tarlo dello scienziato 2.0, è sempre più difficile.

E il problema è che chi inizia a fare ricerche di questo tipo, il più delle volte, va a caccia di fondi per trovare il risultato scientifico clamoroso, quello da prima pagina di giornale. Difficile, cioè, che si utilizzino fondi di ricerca per il lavoro, necessario ma di più basso profilo, di replicare studi già fatti da altri o verificare la correttezza di una metodologia.

Da che mondo è mondo, nessun bambino desidera fare il mediano, quando comincia a giocare a calcio, ma ha in testa la carriera del goleador: lo studio di Pnas, però, ha il grande merito di mettere al centro del dibattito la necessità di ripensare un po’ il tutto.

L’fMRI, come altri metodi, sono importantissime tecniche di analisi e sono (e saranno) fondamentali per capire qualcosa di più di come funziona il cervello. Ben vengano i fondi destinati al miglioramento della tecnologia. Ma serve anche, e sempre di più, una responsabilità maggiore e un lavoro epistemologico, quasi, sul metodo e sulla sua verifica costante.

Solo così la scienza avanza e può avanzare, tanto più in tempi fluidi in cui le notizie viaggiano a velocità vertiginosa sui social e un titolo catchy di giornale può portare rapidamente alla diffusione virale di bufale o di sonore castronerie anti-scientifiche.

Leggi qui gli altri articoli del nostro think tank pubblicati su Ecoquadro: https://archivio.greenreport.it/nome-rubrica/eco2-ecoquadro/