La ricerca utilizza l'intelligenza artificiale per misurare le emozioni umane

Una nuova ricerca presentata virtualmente all'incontro annuale della Cognitive Neuroscience Society (CNS) mostra come vengono utilizzati metodi computazionali basati sui dati per spiegare il tratto umano più basilare: le emozioni. Gli investigatori ritengono che le loro scoperte capovolgeranno vecchie idee sulla struttura delle emozioni nell'umanità.

Gli scienziati stanno applicando la potenza di calcolo per comprendere tutto, dal modo in cui generiamo emozioni spontanee durante il vagabondaggio mentale al modo in cui decodifichiamo le espressioni facciali attraverso le culture.

Gli investigatori ritengono che i risultati siano importanti per caratterizzare il modo in cui le emozioni contribuiscono al benessere, alla neurobiologia dei disturbi psichiatrici e persino a come creare robot sociali più efficaci.

"L'intelligenza artificiale (AI) consente agli scienziati di studiare le emozioni in modi che prima si pensava fossero impossibili, il che sta portando a scoperte che trasformano il modo in cui pensiamo che le emozioni siano generate da segnali biologici", ha affermato il dott. Kevin LaBar della Duke University.

Sei emozioni umane fondamentali - paura, rabbia, disgusto, tristezza, felicità e sorpresa - sono state considerate universali nella psicologia umana per decenni. Eppure, nonostante la prevalenza sociale di questa idea, gli esperti sostengono che il consenso scientifico mostra effettivamente che queste emozioni sono tutt'altro che universali.

In particolare, c'è un divario significativo nel riconoscimento facciale di queste emozioni attraverso le culture, in particolare per le persone dell'Asia orientale, ha affermato il dottor Rachael Jack, ricercatore presso l'Università di Glasgow.

Jack ha lavorato per capire quello che lei chiama il "linguaggio del viso"; come i singoli movimenti del viso si combinano in modi diversi per creare espressioni facciali significative (come il modo in cui le lettere si combinano per creare parole).

"Penso a questo un po 'come tentare di decifrare geroglifici o una lingua antica sconosciuta", ha detto Jack. "Sappiamo così tanto della lingua parlata e scritta, persino centinaia di lingue antiche, ma abbiamo una conoscenza formale relativamente scarsa dei sistemi di comunicazione non verbale che usiamo ogni giorno e che sono così fondamentali per tutte le società umane".

In un nuovo lavoro, Jack e il suo team hanno creato un nuovo metodo basato sui dati per creare modelli dinamici di questi movimenti del viso, come un ricettario di espressioni facciali delle emozioni. Il suo team sta ora trasferendo questi modelli ad agenti digitali, come i robot sociali e gli esseri umani virtuali, in modo che possano generare espressioni facciali che siano socialmente sfumate e culturalmente sensibili.

Dalla loro ricerca hanno creato un nuovo generatore di movimenti del viso che può selezionare casualmente un sottoinsieme di movimenti individuali del viso, come alzare le sopracciglia, rughe del naso o barella delle labbra, e attivare in modo casuale l'intensità e il tempismo di ciascuno.

Questi movimenti del viso attivati ​​in modo casuale si combinano quindi per creare un'animazione facciale. I partecipanti allo studio di culture diverse classificano quindi l'animazione facciale in base alle sei emozioni classiche, oppure possono selezionare "altro" se non percepiscono nessuna di queste emozioni.

Dopo molte di queste prove, i ricercatori costruiscono una relazione statistica tra i movimenti del viso presentati in ogni prova e le risposte dei partecipanti, che produce un modello matematico.

"In contrasto con i tradizionali approcci basati sulla teoria in cui gli sperimentatori hanno preso una serie ipotizzata di espressioni facciali e le hanno mostrate ai partecipanti in tutto il mondo, abbiamo aggiunto un approccio psicofisico", ha detto Jack.

"È più basato sui dati e più agnostico nel campionamento e nel test delle espressioni facciali e, in modo critico, utilizza le percezioni soggettive dei partecipanti culturali per capire quali movimenti del viso guidano la loro percezione di una data emozione, ad esempio, 'è felice'".

Questi studi hanno condensato le sei espressioni comunemente pensate di emozioni facciali universali a sole quattro espressioni interculturali. "Ci sono differenze culturali sostanziali nelle espressioni facciali che possono ostacolare la comunicazione interculturale", ha detto Jack. "Spesso, ma non sempre, scopriamo che le espressioni facciali dell'Asia orientale hanno occhi più espressivi delle espressioni facciali occidentali, che tendono ad avere bocche più espressive, proprio come le emoticon orientali rispetto a quelle occidentali!"

Aggiunge che ci sono anche punti in comune culturali che possono essere utilizzati per supportare un'accurata comunicazione interculturale di messaggi specifici; ad esempio, le espressioni facciali di felice, interessato e annoiato sono simili nelle culture orientali e occidentali e possono essere facilmente riconosciute in tutte le culture.

Jack e il suo team stanno ora utilizzando i loro modelli per migliorare le capacità di segnalazione sociale di robot e altri agenti digitali che possono essere utilizzati a livello globale. "Siamo molto entusiasti di trasferire i nostri modelli di espressione facciale a una gamma di agenti digitali e di vedere il notevole miglioramento delle prestazioni", afferma.

Capire come l'esperienza soggettiva dell'emozione è mediata nel cervello è il Santo Graal della neuroscienza affettiva, ha detto LaBar di Duke."È un problema difficile e fino ad oggi sono stati fatti pochi progressi". Nel suo laboratorio, LaBar e colleghi stanno lavorando per comprendere le emozioni che emergono mentre il cervello vaga a riposo.

"Indipendentemente dal fatto che siano innescate da pensieri o ricordi interni, queste emozioni del 'flusso di coscienza' sono obiettivi di ruminazione e preoccupazione che possono portare a stati d'animo prolungati e possono influenzare la memoria e il processo decisionale", ha detto.

Fino a poco tempo, i ricercatori non sono stati in grado di decodificare queste emozioni dai segnali di stato di riposo della funzione cerebrale. Ora, il team di LaBar è stato in grado di applicare strumenti di apprendimento automatico per derivare marcatori di neuroimaging di un piccolo insieme di emozioni come paura, rabbia e sorpresa. Inoltre, i ricercatori hanno modellato il modo in cui queste emozioni emergono spontaneamente nel cervello mentre i soggetti stanno riposando in uno scanner MRI.

Il fulcro del lavoro è stato addestrare un algoritmo di apprendimento automatico per differenziare i modelli di attività cerebrale che separano le emozioni l'una dall'altra. I ricercatori presentano un algoritmo di classificazione dei pattern con un set di dati di formazione da un gruppo di partecipanti a cui sono stati presentati clip musicali e filmati che hanno indotto emozioni specifiche.

Utilizzando il feedback, l'algoritmo impara a pesare gli input provenienti da diverse regioni del cervello per ottimizzare la segnalazione di ogni emozione. I ricercatori testano quindi la capacità del classificatore di prevedere le emozioni suscitate in un nuovo campione di partecipanti utilizzando la serie di pesi cerebrali che ha generato dal campione di prova.

"Una volta che i modelli cerebrali specifici delle emozioni sono stati convalidati in questo modo, cerchiamo prove che questi modelli emergano spontaneamente nei partecipanti che sono semplicemente sdraiati a riposo nello scanner", ha detto Labar.

"Possiamo quindi determinare se il classificatore di pattern predice accuratamente le emozioni che le persone segnalano spontaneamente nello scanner e identificare le differenze individuali".

Fonte: Cognitive Neuroscience Society / EurekAlert

!-- GDPR -->