Le sole espressioni facciali potrebbero non trasmettere uno stato emotivo

Una nuova ricerca chiarisce che l'intelligenza emotiva implica molto di più che leggere le microespressioni delle persone. Quando si tratta di leggere lo stato d'animo di una persona, il contesto visivo dello sfondo e dell'azione è importante quanto le espressioni facciali e il linguaggio del corpo.

I ricercatori dell'Università della California, Berkeley, danno l'esempio dell'attore James Franco nel film candidato all'Oscar "127 ore". In una scena, Franco sembra vagamente felice mentre registra un video diario nel film. Ma quando la telecamera si allontana, il pubblico vede che il suo braccio è schiacciato sotto un masso e che il suo sorriso smentisce la sua agonia.

Il nuovo punto di vista sfida decenni di ricerca postulando che l'intelligenza emotiva e il riconoscimento si basano in gran parte sulla capacità di leggere le microespressioni facciali. Si credeva che le espressioni fossero un indicatore di felicità, tristezza, rabbia, paura, sorpresa, disgusto, disprezzo e altri stati d'animo e sentimenti positivi e negativi.

Il nuovo studio, che apparirà online questa settimana sulla rivista Atti della National Academy of Sciences, suggerisce che il rilevamento emotivo richiede più di una semplice "lettura" facciale.

"Il nostro studio rivela che il riconoscimento delle emozioni è, nel suo cuore, una questione di contesto tanto quanto riguarda i volti", ha detto l'autore principale Zhimin Chen, uno studente di dottorato in psicologia alla UC Berkeley.

Nello studio, i ricercatori hanno offuscato i volti e i corpi degli attori in dozzine di clip in mute di film di Hollywood e home video. Nonostante l'invisibilità virtuale dei personaggi, centinaia di partecipanti allo studio sono stati in grado di leggere con precisione le proprie emozioni esaminando lo sfondo e il modo in cui interagivano con l'ambiente circostante.

Il modello di "tracciamento affettivo" che Chen ha creato per lo studio consente ai ricercatori di monitorare il modo in cui le persone valutano le emozioni dei personaggi momento per momento mentre guardano i video.

Il metodo di Chen è in grado di raccogliere grandi quantità di dati in breve tempo e potrebbe eventualmente essere utilizzato per valutare come le persone con disturbi come l'autismo e la schizofrenia leggono le emozioni in tempo reale e aiutano con le loro diagnosi.

"Alcune persone potrebbero avere deficit nel riconoscimento delle espressioni facciali, ma possono riconoscere le emozioni dal contesto", ha detto Chen. "Per altri è il contrario."

Inoltre, i risultati, basati su analisi statistiche delle valutazioni raccolte, potrebbero informare lo sviluppo della tecnologia di riconoscimento facciale.

"In questo momento, le aziende stanno sviluppando algoritmi di apprendimento automatico per riconoscere le emozioni, ma addestrano i loro modelli solo su facce tagliate e quei modelli possono solo leggere le emozioni dai volti", ha detto Chen. "La nostra ricerca mostra che i volti non rivelano le vere emozioni in modo molto accurato e che l'identificazione dello stato d'animo di una persona dovrebbe tenere in considerazione anche il contesto."

Per lo studio, Chen e l'autore senior dello studio, il dottor David Whitney, scienziato della vista e professore di psicologia della UC Berkeley, hanno testato le capacità di riconoscimento delle emozioni di quasi 400 giovani adulti. Gli stimoli visivi che hanno usato erano video clip di vari film di Hollywood, documentari e home video che mostravano risposte emotive in contesti più naturali.

I partecipanti allo studio sono andati online per visualizzare e valutare i video clip. Una griglia di valutazione è stata sovrapposta al video in modo che i ricercatori potessero tracciare il cursore di ogni partecipante allo studio mentre si muoveva sullo schermo, elaborando le informazioni visive e valutando le emozioni momento per momento.

Nel primo di tre esperimenti, 33 partecipanti allo studio hanno visto le interazioni nei filmati tra due personaggi, uno dei quali era sfocato, e hanno valutato le emozioni percepite del personaggio sfocato. I risultati hanno mostrato che i partecipanti allo studio hanno dedotto come il personaggio invisibile si sentisse in base non solo alle loro interazioni interpersonali, ma anche a ciò che stava accadendo in background.

Successivamente, circa 200 partecipanti allo studio hanno visto video clip che mostravano le interazioni in tre diverse condizioni: una in cui tutto era visibile, un'altra in cui i personaggi erano sfocati e un'altra in cui il contesto era sfocato. I risultati hanno mostrato che il contesto era importante quanto il riconoscimento facciale per decodificare le emozioni.

Nell'esperimento finale, 75 partecipanti allo studio hanno visto clip di documentari e home video in modo che i ricercatori potessero confrontare il riconoscimento delle emozioni in contesti più naturalistici. Ancora una volta, il contesto era fondamentale per inferire le emozioni dei personaggi quanto lo erano le loro espressioni facciali e i loro gesti.

"Nel complesso, i risultati suggeriscono che il contesto non è solo sufficiente per percepire le emozioni, ma anche necessario per percepire le emozioni di una persona", ha detto Whitney, professore di psicologia alla UC Berkeley. "Ammettilo, il viso non è sufficiente per percepire l'emozione."

Fonte: University of California Berkeley

!-- GDPR -->