Il paper che poteva distruggere vent’anni di ricerca neuroscientifica

Da anni la risonanza magnetica funzionale (fMRI) riveste un ruolo cruciale nella ricerca e nella pratica clinica all’interno di un campo vasto e relativamente conosciuto quale sono le neuroscienze. Un recente studio, tuttavia, ha messo a dura prova i cardini su cui si basa questa tecnica di imaging.


Micron
Giornalista scientifico
Micron
giornalista scientifico

L’fMRI si basa sulle variazioni del flusso e dell’ossigenazione sanguigna del cervello: esse riflettono un’attivazione cerebrale. L’area del cervello che mostra un’ossigenazione più elevata è infatti quella in cui i neuroni hanno maggiormente bisogno di ossigeno per poter svolgere la propria funzione.
Per individuare i punti in cui avviene questo processo la fMRI sfrutta una particolare caratteristica dell’emoglobina, il suo magnetismo, che varia in funzione della sua ossigenazione: in questo modo ricercatori e ricercatrici hanno identificato, nel corso degli anni, pattern di attivazione cerebrale legati a compiti di natura motoria (il movimento di un dito, o di un piede), sensoriale (la risposta a stimoli uditivi o visivi) e cognitiva (il linguaggio, lo svolgimento di operazioni matematiche, la memoria, il decision making).
Questa tecnica di risonanza, in grado di fornire un’alta risoluzione spaziale (a scapito di una bassa risoluzione temporale dovuta alla latenza tra attivazione cerebrale e conseguente modifica dell’emodinamica cerebrale) ha trovato inoltre ampia applicazione nel campo delle neuroscienze cliniche: viene utilizzata ad esempio per la pianificazione pre operatoria (in modo da identificare le aree attive per determinati compiti nel paziente, riducendo così al minimo il rischio di lesioni durante l’operazione), per l’identificazione dei focolai epilettici, per lo studio della funzionalità cerebrale in risposta a traumi e malattie neurodegenerative, o ancora per l’analisi di alterazioni patologiche comportamentali come ansia, depressione e dipendenze di diversa natura.
È quindi facile intuire il senso di sgomento che ha pervaso la comunità di neuroscienziati, psicologi e clinici quando, pochi mesi fa, uno studio pubblicato su una delle riviste scientifiche più accreditate (il Proceedings of the National Academy of Sciences, PNAS) ha messo in discussione la validità dei risultati ottenuti con l’fMRI. Secondo un team dell’Università svedese di Linköping, coordinato da Anders Eklund, esisterebbe infatti un errore statistico nei principali software di analisi di risonanza magnetica funzionale, che avrebbe portato a variazioni macroscopiche nella valutazione dell’attivazione cerebrale.
L’attenzione dei ricercatori svedesi si è concentrata sul rapporto di falsi positivi, uno dei parametri utilizzati per definire l’attendibilità di un esame.
È infatti opportuno ricordare che la risonanza magnetica funzionale è imperfetta, nel senso che può non rilevare l’attivazione cerebrale per determinati task in alcuni soggetti (falsi negativi) o, al contrario,  identificare come attivazione quello che in realtà è uno stato di relax (falsi positivi).
Per comprendere il lavoro dei neuroscienziati che utilizzano l’fMRI come strumento di indagine si ricorre spesso a un esempio: supponiamo di arrivare sulla scena di un incidente stradale e di dovere essere in grado di descrivere che cosa sia successo basandoci esclusivamente sui segni delle frenate. Allo stesso modo i ricercatori devono interpretare dai segni di un’avvenuta perturbazione magnetica quale sia la sottesa attività cerebrale, dove sia avvenuta, quando e in risposta a cosa.
I ricercatori e le ricercatrici che utilizzano l’fMRI in tutto il mondo sono ben consci, da anni, di questa “imperfezione intrinseca” ma, almeno finora, ciò non era percepito come un problema. «Il problema legato alla statistica era sorto già con altri sistemi di registrazione usati in neurofisiologia, come l’elettroencefalografia (EEG)» – commenta Luca Weis, ricercatore della Fondazione Ospedale San Camillo IRCCS di Venezia- «i cui test statistici, all’aumentare del numero di elettrodi, appaiono troppo conservativi. Con l’avvento dell’fMRI sorse evidente la necessità di confrontare non 32, 64 segnali ma milioni di segnali relativi ai voxel, controllando per i falsi positivi».
«All’inizio» – prosegue Weis – «si è utilizzato un T-test, un esame statistico che aveva come maggiore limite il presupposto che il segnale neuronale fosse stabile nel tempo e il network neuronale sotteso a una funzione non venisse modulato».
Numerosi studi hanno dimostrato che ciò non avviene, e quindi il T-test è stato presto sostituito da analisi di tipo parametrico, che per studi effettuati su un largo numero di partecipanti avrebbe dovuto garantire l’attendibilità piuttosto alta».
Eklund avrebbe invece dimostrato, nello studio, che i software comunemente usati per discriminare le aree cerebrali attivate da quelle inerti presentano un tasso di falsi positivi del 70%. Per arrivare a questa conclusione, il suo gruppo di ricerca ha sottoposto quasi 500 persone a un’analisi fMRI, chiedendo loro di stare completamente rilassate (in una condizione cosiddetta di resting state). Hanno così potuto osservare che nella maggior parte dei soggetti si registrava una falsa attivazione, concentrata soprattutto in una regione del cervello denominata corteccia cingolata posteriore. Come se ciò non bastasse, gli stessi risultati fuorvianti sono stati osservati anche utilizzando un dataset di compiti, o task, comunemente utilizzati nella ricerca fMRI, da far svolgere ai partecipanti (come definire se due parole sono in rima o meno, decidere se effettuare o meno una scommessa, o processare analiticamente una serie di parole o oggetti).
Questo genere di studi non rappresenta una novità e nel recente passato erano già emersi alcuni risultati eclatanti.
Nel 2009 il neuroscienziato Craig Bennet acquistò un salmone intero, lo portò nel suo laboratorio dell’Università di Darthmouth nel New Hampshire e lo sottopose a una risonanza magnetica funzionale per eseguire dei test su alcuni nuovi metodi di ricerca.
I risultati vennero pubblicati un anno dopo sul Journal of Serendipitous and Unexpected Results e nel 2012 valsero a Craig Bennett e ai suoi colleghi Abigail Baird, Michael Miller e George Wolford l’IgNobel per le neuroscienze, il premio per le ricerche che prima fanno ridere e poi fanno riflettere. Il perché una risonanza magnetica funzionale eseguita sul cervello di un pesce morto destò così tanta attenzione è presto detto.
I ricercatori, durante il test, seguirono un protocollo molto scrupoloso e altrettanto bizzarro. Mostrarono al salmone una serie di fotografie raffiguranti individui impegnati in varie situazioni. Successivamente domandarono al pesce defunto di determinare quali emozioni esprimessero le persone ritratte in foto.
È fin troppo facile immaginare le risate che si fecero Bennett e colleghi durante questo curioso esperimento, così come è comprensibile lo stupore che provarono nel momento in cui si resero conto che il cervello del salmone mostrava, secondo l’analisi fMRI, segni di attività.
Dall’analisi dei voxel – gli elementi di volume che rappresentano un valore di intensità in uno spazio tridimensionale – risultò infatti che il piccolo cervello del salmone stesse reagendo alla visione delle figure.
Si sarebbe potuto affermare che, alla luce di questi dati, un salmone morto fosse in grado di descrivere lo stato d’animo degli esseri umani? Ovviamente no, ma il povero salmone offrì lo spunto a Bennett e colleghi per scrivere un articolo che metteva in guardia sui pericoli dei falsi positivi dei dati della risonanza magnetica funzionale. Tali registrazioni, infatti, portano con sé molto “rumore” e durante la loro analisi è necessario mantenere rigorosi controlli statistici. È possibile settare la soglia di correzione così in alto da non avere alcun falso positivo ma, a quel punto, non si otterrebbero dei risultati legittimati. D’altro lato è possibile regolarla così in basso fino a registrare attività nel cervello di un pesce morto.
Per comprendere i dati della fMRI i ricercatori camminano su una linea sottilissima. Sebbene la visualizzazione di questi dati sembri molto semplice, la loro interpretazione è estremamente difficile. Inoltre, i metodi statistici utilizzati dai software di analisi sono raramente validati su dati reali: nella maggior parte dei casi lo sono su simulazioni effettuate su larga scala, ma è ovvio come sia molto difficile simulare il complesso rumore che, a livello spaziotemporale, produce un essere umano sottoposto a risonanza magnetica.
«Le analisi eseguite sui dati dimostrano che la stima dei falsi positivi è efficace quando le condizioni di validità dell’analisi parametrica sono garantite: paradigma a blocchi, acquisizione lunga, alto numero di partecipanti (e quindi di dati registrati), smoothing elevato» spiega Weiss. «In paradigmi event related o nel resting state dove la variabilità intra e interindividuale è elevata, tali condizioni non sono più garantite e occorre utilizzare una statistica non parametrica. In generale la statistica deve consentire non di avere la certezza ma di stimare correttamente l’errore eventualmente commesso accettando il risultato, consentendo di minimizzare ragionevolmente rischio e certezza».
Insomma, a differenza di quanto inizialmente si potesse inferire a partire dai risultati presentati da Eklund, per fortuna le scoperte basate sulla fMRi su cui ricerca e clinica hanno posto le basi negli ultimi due decenni non sono da buttare. Certo è che, anche alla luce dello studio svedese, un ripensamento collettivo degli strumenti statistici utilizzati in questa branca delle neuroscienze sia necessario e, in parte, già in corso: il rischio che un software ci dica che un salmone morto sia in grado di provare entropia, infatti, è sempre dietro l’angolo.

Commenti dei lettori


Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

    X