Predire che cosa sta per fare/pensare qualcuno
prima ancora che il soggetto stesso sia consapevole del suo pensiero è un qualcosa a cui da anni sia Google che i vecchi sistemi di T9 di inserimento dei messaggi ci hanno preparati: mentre digitiamo una parola in automatico il sistema ci propone una lista di possibilità (e di frasi) che potrebbero essere proprio quelle che a noi servono. Un sistema che "impara" dall'utente (cioè dalle sue passate digitazioni) rendendo così il sistema sempre più efficace mano a mano che lo si usa.
Lo studio delle neuroscienze ci ha però da tempo insegnato che una azione o frase che stiamo per fare o dire precede la nostra consapevolezza della stessa. Usando un classico esempio dei dati ottenuti dallo studio dei meccanismi decisionali (tanto caro agli studiosi di marketing) il nostro cervello ha già preso una decisione prima (millisecondi) che noi sappiamo di averla presa.
Se il cervello "sa" quello che noi crediamo di non sapere, è possibile allora teoricamente cercare con strumenti adeguati i segni neurali di tale processo in modo estrarli: in altre parole leggere il pensiero.
Presso l'Integrative Neuroimaging Technology center della UCLA, sono da
anni in corso studi sulle modifiche dell'attività cerebrale durante "il pensare", che si basano su tecniche di risonanza magnetica funzionale del cervello.
I dati ottenuti da queste analisi, integrati da tecniche sviluppo della intelligenza artificiale, tipo Machine Learning, sono alla base degli studi per capire se, e a che livello, è possibile ricostruire lo stato cognitivo (e magari i pensieri)
di un soggetto umano.
Il processo di Machine Learning si divide in genere in due fasi: "di training" in cui il computer "impara" usando una serie di risultati noti ; "di "previsione", in cui il computer costruisce una linea decisionale sulla base di tale conoscenza.
No, non è fantascienza come del resto è provato da alcuni device già oggi in uso che permettono di tradurre il "pensiero di movimento" captato con appositi sensori in movimenti reali di arti meccanici. Ma il lavoro ora si è spinto molto più in là come evidente dalla possibilità di ricostruire su un monitor l'immagine vista da un soggetto, la cui attività cerebrale venga scansionata. Una ricostruzione sorprendente per il realismo
(vedi sotto il
risultato)
A sinistra l'immagine vista, a destra quella ricavata dalla sola analisi dell'attività cerebrale. |
*******
Altro studio, stessa università (UCLA).
Questa volta i ricercatori hanno cercato di visualizzare il desiderio di nicotina nei fumatori, sempre mediante la scansione della attività cerebrale.
Nello studio, ai volontari (tutti fumatori) sono stati mostrati tre video diversi per contenuto: in un caso il video doveva richiamare il piacere del fumare, nel secondo il contenuto era neutro e il terzo era "vuoto".
Pur avendo a disposizione le sigarette fu chiesto ai partecipanti di trattenersi dal fumare. L'obiettivo era quello di identificare le regioni del cervello che si attivano quando la persona si oppone al desiderio di nicotina.
Grazie all'utilizzo di algoritmi "classici" usati nei programmi di apprendimento si è cercato di fare imparare al programma a riconoscere quali fossero le attività coinvolte nella repressione rispetto al "rumore di fondo".
Il risultato è stato eccellente: la macchina è stata in grado di dire con un elevato grado di precisione (90 per cento per alcuni dei modelli testati) che cosa stavano guardando i soggetti e se stavano veramente resistendo alla " tentazione" di fumare.
In sostanza, l'algoritmo è stato in grado di integrare gli input mentali dei volontari arrivando a prevedere quando "stavano per cedere" alla tentazione.
In un prossimo futuro questi metodi di apprendimento automatico potrebbero essere usati in contesti di biofeedback, fornendo cioè ad i soggetti le letture del loro cervello in tempo reale. Un modo per anticipare a loro quello che il cervello sembra avere già deciso (ad esempio cedere alla tentazione) e quindi rafforzare la loro determinazione ad opporsi.
Articolo successivo sul tema "lettura" del pensiero, qui.
Fonte
University of California - Los Angeles/news
(dicembre 2011)
Questa volta i ricercatori hanno cercato di visualizzare il desiderio di nicotina nei fumatori, sempre mediante la scansione della attività cerebrale.
Nello studio, ai volontari (tutti fumatori) sono stati mostrati tre video diversi per contenuto: in un caso il video doveva richiamare il piacere del fumare, nel secondo il contenuto era neutro e il terzo era "vuoto".
Pur avendo a disposizione le sigarette fu chiesto ai partecipanti di trattenersi dal fumare. L'obiettivo era quello di identificare le regioni del cervello che si attivano quando la persona si oppone al desiderio di nicotina.
Grazie all'utilizzo di algoritmi "classici" usati nei programmi di apprendimento si è cercato di fare imparare al programma a riconoscere quali fossero le attività coinvolte nella repressione rispetto al "rumore di fondo".
Il risultato è stato eccellente: la macchina è stata in grado di dire con un elevato grado di precisione (90 per cento per alcuni dei modelli testati) che cosa stavano guardando i soggetti e se stavano veramente resistendo alla " tentazione" di fumare.
In sostanza, l'algoritmo è stato in grado di integrare gli input mentali dei volontari arrivando a prevedere quando "stavano per cedere" alla tentazione.
In un prossimo futuro questi metodi di apprendimento automatico potrebbero essere usati in contesti di biofeedback, fornendo cioè ad i soggetti le letture del loro cervello in tempo reale. Un modo per anticipare a loro quello che il cervello sembra avere già deciso (ad esempio cedere alla tentazione) e quindi rafforzare la loro determinazione ad opporsi.
La saggezza degli antichi dice "conosci il tuo nemico, prevedine le mosse ed anticipalo".
Articolo successivo sul tema "lettura" del pensiero, qui.
Fonte
University of California - Los Angeles/news
(dicembre 2011)
Nessun commento:
Posta un commento