Leggere il pensiero è una trama comune o agli spettacoli di "magia" o alle trame di film/libri ambientati in un futuro, spesso visto come distopico. molto al di là da venire.
Una sfida a cui i neuroscienziati stanno lavorando da anni, visto come un complemento nell'apprendimento dei meccanismi cerebrali preposti alla elaborazione dei segnali sensoriali così da essere compresi nel suo contenuto informativo, sia esso semantico/grammaticale/musicale o visivo.
In passato (vedi link in calce al presente) ho descritto i progressi nella misurazione e decodifica di quanto "visto" e processato dal cervello. Oggi presento un articolo del 2023 in cui si descrive la capacità di identificare la canzone ascoltata dal soggetto semplicemente mediante l'analisi dell'attività cerebrale.
In estrema sintesi i ricercatori hanno analizzato un set di dati ottenuto da 29 pazienti sottoposti (per altre ragioni e che hanno acconsentito a essere sottoposti nel frattempo ad altri test) a elettroencefalografia intracranica (iEEG). Ai soggetti fu fatta ascoltare una una canzone dei Pink Floyd e i dati ottenuti usati per ricostruire, mediante algoritmi, sia le regioni cerebrali attivate durante l'ascolto che la una ricostruzione della canzone ascoltata, così da potere essere identificata.
Credit: Ludovic Bellier et al |
Si è rilevata una dominanza dell'emisfero destro per la percezione della musica con un ruolo primario del giro temporale superiore (STG), una nuova sottoregione sintonizzata sul ritmo musicale e infine un'organizzazione STG antero-posteriore in cui si evidenziano le risposte durante e all'inizio dei vari elementi musicali.
Lo studio ha dimostrato la fattibilità dell'applicazione di modelli predittivi su brevi dataset acquisiti in singoli pazienti, aprendo la strada all'aggiunta di elementi musicali alle applicazioni dell'interfaccia cervello-computer (BCI).
Per approfondimenti vi rimando agli articoli dedicati: interfaccia cervello-computer; "100 msec per decodificare il volto") e "lettura del pensiero vicina?"; "perché alcuni suoni evocano risposte specifiche?"
Fonte
- Music can be reconstructed from human auditory cortex activity using nonlinear decoding models
Ludovic Bellier et al, (2023) PLOS Biology
Nessun commento:
Posta un commento