In sviluppo: smartphone in grado di valutare l'umore

I ricercatori dell'Università di Rochester stanno sviluppando un nuovo programma per computer che misura i sentimenti umani attraverso la parola, con un'app prototipo per smartphone già creata.

Il programma non analizza ciò che una persona sta dicendo, ma piuttosto come.

"In realtà abbiamo usato registrazioni di attori che leggono la data del mese - non importa davvero quello che dicono, è come lo dicono che ci interessa", ha detto Wendi Heinzelman, Ph.D., professore di ingegneria elettrica e informatica.

Il programma analizza 12 caratteristiche del discorso, come il tono e il volume, per identificare una delle sei emozioni da una registrazione audio. I ricercatori affermano che raggiunge l'81% di precisione, un miglioramento significativo rispetto a studi precedenti che raggiungevano solo il 55% circa di precisione.

La ricerca è già stata utilizzata per sviluppare un prototipo di un'app che mostra una faccia felice o triste dopo aver registrato e analizzato la voce dell'utente. È stato costruito da uno degli studenti laureati di Heinzelman, Na Yang, durante uno stage estivo presso Microsoft Research.

"La ricerca è ancora agli inizi", ha ammesso Heinzelman, "ma è facile immaginare un'app più complessa che potrebbe utilizzare questa tecnologia per qualsiasi cosa, dalla regolazione dei colori visualizzati sul tuo cellulare (telefono) alla riproduzione di musica adatta al tuo ti senti dopo aver registrato la tua voce. "

Heinzelman e il suo team stanno collaborando con gli psicologi di Rochester Drs. Melissa Sturge-Apple e Patrick Davies, che stanno attualmente studiando le interazioni tra adolescenti e genitori. "Un modo affidabile per classificare le emozioni potrebbe essere molto utile nella nostra ricerca", ha affermato Sturge-Apple. "Significherebbe che un ricercatore non deve ascoltare le conversazioni e inserire manualmente le emozioni di persone diverse in fasi diverse".

Secondo i ricercatori, insegnare a un computer a comprendere le emozioni inizia con il riconoscimento di come lo fanno gli esseri umani.

"Potresti sentire qualcuno parlare e pensare 'oh, sembra arrabbiato'. Ma cos'è che te lo fa pensare?" ha detto Sturge-Apple.

Ha spiegato che l'emozione influisce sul modo in cui le persone parlano alterando il volume, il tono e persino le armoniche del loro discorso. "Non prestiamo attenzione a queste caratteristiche individualmente, siamo appena venuti a imparare come suona la rabbia, in particolare per le persone che conosciamo", ha aggiunto.

Ma affinché un computer classifichi le emozioni, deve lavorare con quantità misurabili. Quindi i ricercatori hanno stabilito 12 caratteristiche specifiche nel discorso che sono state misurate in ciascuna registrazione a brevi intervalli. I ricercatori hanno quindi classificato ciascuna delle registrazioni e le hanno utilizzate per insegnare al programma del computer come suonano "triste", "felice", "pauroso", "disgustato" o "neutro".

Il sistema ha quindi analizzato le nuove registrazioni e ha cercato di determinare se la voce nella registrazione rappresentava una delle emozioni conosciute. Se il programma per computer non è stato in grado di decidere tra due o più emozioni, ha semplicemente lasciato quella registrazione non classificata.

"Vogliamo essere certi che quando il computer pensa che il discorso registrato rifletta un'emozione particolare, è molto probabile che stia davvero raffigurando questa emozione", ha detto Heinzelman.

Ricerche precedenti hanno dimostrato che i sistemi di classificazione delle emozioni sono altamente dipendenti dal parlante, il che significa che funzionano molto meglio se il sistema è addestrato dalla stessa voce che analizzerà. "Questo non è l'ideale per una situazione in cui si desidera essere in grado di eseguire un esperimento su un gruppo di persone che parlano e interagiscono, come i genitori e gli adolescenti con cui lavoriamo", ha detto Sturge-Apple.

I nuovi risultati confermano questo risultato. Se la classificazione delle emozioni basata sul linguaggio viene utilizzata su una voce diversa da quella che ha addestrato il sistema, la precisione è scesa dall'81% a circa il 30%. I ricercatori stanno ora cercando modi per ridurre al minimo questo effetto addestrando il sistema con una voce nella stessa fascia di età e dello stesso sesso.

"Ci sono ancora sfide da risolvere se vogliamo utilizzare questo sistema in un ambiente simile a una situazione di vita reale, ma sappiamo che l'algoritmo che abbiamo sviluppato è più efficace dei precedenti tentativi", ha detto Heinzelman.

Fonte: University of Rochester

!-- GDPR -->