Robot che parlano spazzatura agitano gli avversari umani

Il parlare spazzatura è stata una tattica a lungo utilizzata per agitare gli avversari del gioco, e ora un nuovo studio mostra che le parole scoraggianti possono influenzare il gioco, anche se provengono da un robot.

Il discorso spazzatura nello studio era decisamente mite, con espressioni come "Devo dire che sei un giocatore terribile" e "Nel corso del gioco il tuo modo di giocare è diventato confuso". Tuttavia, le persone che hanno giocato a un particolare gioco con il robot - un robot umanoide disponibile in commercio noto come Pepper - hanno ottenuto risultati peggiori quando il robot li ha scoraggiati e meglio quando il robot li ha incoraggiati.

L'autore principale Aaron M. Roth ha detto che alcuni dei 40 partecipanti allo studio erano tecnicamente sofisticati e capivano perfettamente che una macchina era la fonte del loro disagio.

"Un partecipante ha detto: 'Non mi piace quello che dice il robot, ma è così che è stato programmato, quindi non posso biasimarlo'", ha detto Roth, che ha condotto lo studio mentre era uno studente di master alla Carnegie Istituto di robotica della Mellon University (CMU).

Ma i ricercatori hanno scoperto che, nel complesso, le prestazioni umane fluttuavano indipendentemente dalle conoscenze tecniche dei partecipanti.

Lo studio, presentato il mese scorso alla IEEE International Conference on Robot & Human Interactive Communication (RO-MAN) a Nuova Delhi, in India, si discosta dai tipici studi di interazione uomo-robot, che tendono a concentrarsi su come esseri umani e robot possono meglio lavorare insieme.

"Questo è uno dei primi studi sull'interazione uomo-robot in un ambiente in cui non stanno cooperando", ha detto il coautore Dr. Fei Fang, un assistente professore presso l'Institute for Software Research.

Lo studio ha implicazioni significative per un mondo in cui si prevede che il numero di robot e dispositivi Internet of things (IoT) con funzionalità di intelligenza artificiale crescerà in modo esponenziale.

"Possiamo aspettarci che gli assistenti domiciliari siano cooperativi", ha detto, "ma in situazioni come lo shopping online, potrebbero non avere gli stessi obiettivi che abbiamo noi".

Lo studio è stato il risultato di un progetto studentesco, un corso che insegna Fang. Gli studenti volevano esplorare gli usi della teoria dei giochi e della razionalità limitata nel contesto dei robot, quindi hanno progettato uno studio in cui gli esseri umani avrebbero gareggiato contro un robot in un gioco chiamato "Guards and Treasures". Un cosiddetto gioco Stackelberg, i ricercatori lo usano per studiare la razionalità; Fang lo impiega nella sua ricerca sulla sicurezza informatica per studiare l'interazione difensore-attaccante.

Per lo studio, ogni partecipante ha giocato 35 volte con il robot, godendosi le parole incoraggianti del robot o agitandosi con commenti sprezzanti. Anche se la razionalità dei giocatori umani è migliorata con l'aumentare del numero di partite giocate, coloro che sono stati criticati dal robot non hanno ottenuto punteggi così come quelli che sono stati elogiati.

È risaputo che le prestazioni di una persona sono influenzate da ciò che dicono gli altri, ma lo studio mostra che anche gli esseri umani rispondono a ciò che dicono le macchine, ha detto il dottor Afsaneh Doryab, uno scienziato dei sistemi presso l'Human-Computer Interaction Institute (HCII) della CMU durante il studio e ora assistente professore in Sistemi di ingegneria e ambiente presso l'Università della Virginia.

La capacità di questa macchina di sollecitare le risposte potrebbe avere implicazioni per l'apprendimento automatizzato, il trattamento della salute mentale e persino l'uso di robot come compagni, ha affermato.

Il lavoro futuro potrebbe concentrarsi sull'espressione non verbale tra robot e esseri umani, ha detto Roth, ora dottore di ricerca. studente presso l'Università del Maryland. Fang suggerisce che è necessario imparare di più su come diversi tipi di macchine, ad esempio un robot umanoide rispetto a una scatola di computer, potrebbero evocare risposte diverse negli esseri umani.

Fonte: Carnegie Mellon University

!-- GDPR -->