Quando si dialoga nella lingua madre i cervelli si “sincronizzano”

Gli esperti del Centro di ricerca Basca su Cognizione, Cervello e Linguaggio hanno dimostrato per la prima volta che due cervelli riescono a connettere il proprio stato di attività a seconda che il dialogo fra le due persone avvenga nella lingua madre o in una lingua straniera. Una scoperta che apre nuove prospettive di ricerca in questo campo.
Stefano Pisani, 26 Febbraio 2019
Micron
Micron
Giornalista Scientifico

Quando due persone comunicano tra loro, i cervelli iniziano a lavorare in modo simultaneo, stabilendo un legame unico: questo fenomeno è quello che i neuroscienziati chiamano “sincronizzazione del cervello“. In un nuovo studio, gli esperti del Centro di ricerca Basca su Cognizione, Cervello e Linguaggio di San Sebastián hanno dimostrato per la prima volta che due cervelli riescono a connettere il proprio stato di attività – a entrare cioè in “sincronizzazione” – a seconda del fatto che il dialogo tra le due persone avvenga nella lingua madre o in una lingua straniera. E la sincronizzazione si realizza appieno quando i soggetti usano la loro lingua madre.
Come si legge nel nuovo studio pubblicato sulla rivista Cortex, questo fenomeno dipende strettamente dal linguaggio che si sceglie di usare per comunicare. Lo studio, realizzato con la collaborazione di diverse istituzioni internazionali come l’Università di Toronto, in Canada, e l’Università Nebrija di Madrid, si è svolto analizzando in che modo la sincronizzazione delle onde cerebrali si verifichi in diversi contesti linguistici. Questo lavoro, svolto dal gruppo di ricerca guidato da Alejandro Perez, si aggiunge a precedenti ricerche del 2017 che descrivono il fenomeno della sincronizzazione del cervello nella comunicazione tra due persone che parlano nella loro lingua madre.
Come nel primo esperimento, i ricercatori hanno organizzato 60 persone in coppie dello stesso sesso, ciascuna composta da individui separati da uno schermo che non si conoscevano e che erano simili per età e caratteristiche demografiche.
Basandosi su una sorta di sceneggiatura, i soggetti hanno iniziato una conversazione generale, alternando la loro lingua madre a una lingua straniera. Utilizzando letture dell’elettroencefalogramma, strumento che ha consentito di monitorare l’attività elettrica del cervello in un modo non invasivo, gli scienziati hanno misurato simultaneamente l’attività delle loro onde cerebrali. «Abbiamo visto come l’allineamento delle onde cerebrali si verifichi in modo diverso ogni volta che la conversazione si svolge in una lingua madre o in una lingua straniera. Questo studio ci ha permesso di andare avanti e mostrare che la sincronia cerebrale dipende dal contesto linguistico», ha spiegato Pérez. «Tra i due cervelli, le aree cerebrali che si sincronizzavano meglio erano diverse a seconda che venisse utilizzata una lingua straniera o quella nativa», ha aggiunto l’esperto, «questa nuova scoperta solleva molte domande e nuove linee di ricerca nelle neuroscienze».
Parlare una lingua straniera aveva l’effetto di far sì che i cervelli si allineassero in un modo diverso allo scopo di capire l’interlocutore. «Il cervello di due persone che parlano una lingua straniera stabilisce un legame neuronale diverso da quello che sorge quando utilizzano la loro lingua madre per comprendersi”, assicura Pérez.
Sebbene le ragioni specifiche di questo tipo di fenomeno non siano ancora chiare, i responsabili dello studio sono inclini a pensare che si tratti di un processo riconducibile alle cosiddette “strategie di attenzione congiunta», un fenomeno essenziale per la codifica e l’elaborazione delle informazioni in modo coordinato, che è specifico in ogni lingua. «Quando una conversazione si svolge nella propria lingua madre, entrambi gli interlocutori prestano attenzione al linguaggio in un modo più complessivo, concentrandosi sulle frasi e sul contenuto globale del messaggio», ha spiegato Jon Andoni Duñabeitia, coautore dello studio. Tuttavia, quando invece il dialogo si svolge in una lingua straniera, le risorse dell’attenzione si concentrano principalmente su altri livelli linguistici più complessi per i non madrelingua, come suoni e parole. «Quando non si parla nella madrelingua, c’è bisogno di riconfigurare le nostre strategie di attenzione in modo da potersi capire, e questo atteggiamento può essere direttamente correlato alla differenza nelle aree sincronizzate durante la conversazione», suggerisce Duñabeitia.
Per gli autori della ricerca, questo lavoro apre future possibilità di arrivare a “quantificare” la comunicazione verbale tra due persone. «L’elaborazione del segnale in tempo reale e dispositivi più economici che misurano l’attività cerebrale consentiranno di integrare i sensori nelle cuffie dei computer», spiega Pérez, «questo offrirà una valutazione quantitativa di qualità, coinvolgimento personale e caratteristiche come la carica emotiva dell’interazione verbale, attraverso strumenti di comunicazione online come Skype», conclude lo scienziato.

Commenti dei lettori


Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

    X