In che modo l'etica squishy di Facebook li ha messi nei guai

Ah, quanto velocemente le persone indietreggiano quando vengono scoperte a fare qualcosa di un po 'meno che trasparente. E forse qualcosa di un po '... morbido, dal punto di vista etico.

Questo è ciò che il "data scientist" di Facebook Adam D.I. Kramer stava facendo domenica, quando ha pubblicato un aggiornamento di stato sulla sua pagina Facebook cercando di spiegare perché Facebook ha condotto un brutto esperimento e manipolato - più del solito - ciò che le persone hanno visto nel loro feed di notizie.

Per un po 'di umorismo del martedì mattina, diamo un'occhiata a ciò che ha detto Kramer domenica, rispetto a ciò che ha scritto nello studio.

Cominciamo con l'esame della proclamata motivazione per lo studio, ora rivelata da Kramer:

Abbiamo ritenuto che fosse importante indagare sulla preoccupazione comune che vedere gli amici pubblicare contenuti positivi porta le persone a sentirsi negative o escluse. Allo stesso tempo, eravamo preoccupati che l'esposizione alla negatività degli amici potesse portare le persone a evitare di visitare Facebook

A che scopo? Manipolereste ulteriormente il feed di notizie, facendo sembrare che la vita di tutti fosse una ciliegina sulla torta di un gelato e ridureste la visualizzazione di contenuti negativi?

Non ha molto senso che una società a scopo di lucro si preoccupi di questo, a meno che non possa avere un risultato perseguibile. E qualsiasi risultato attuabile di questo studio farebbe sembrare Facebook ancora meno connesso al mondo reale di quanto lo sia oggi.2

Nello studio (Kramer et al., 2014), i ricercatori hanno affermato che il loro esperimento era ampio e manipolativo:

Mostriamo, tramite un enorme esperimento (N = 689,003) su Facebook ...

L'esperimento ha manipolato la misura in cui le persone (N = 689.003) sono state esposte alle espressioni emotive nel loro feed di notizie. [...] Sono stati condotti due esperimenti paralleli per le emozioni positive e negative: uno in cui l'esposizione ai contenuti emotivi positivi degli amici nel loro feed di notizie era ridotta e uno in cui l'esposizione a contenuti emotivi negativi nel loro feed di notizie era
ridotto.

In queste condizioni, quando una persona caricava il proprio feed di notizie, post che contenevano contenuto emotivo della relativa valenza emotiva, ogni post emotivo aveva tra un 10% e
90% di possibilità (in base al loro ID utente) di essere omesso dal feed di notizie per quella specifica visualizzazione.

Se facevi parte dell'esperimento, i post con una parola di contenuto emotivo avevano fino al 90% di possibilità di essere omessi dal tuo feed di notizie. Nel mio, e nei libri della maggior parte delle persone, questo è piuttosto manipolativo.

Ora guarda come Kramer (aka Danger Muffin) minimizza l'impatto dell'esperimento nella sua spiegazione pubblicata su Facebook:

Per quanto riguarda la metodologia, la nostra ricerca ha cercato di indagare sull'affermazione di cui sopra deprezzando molto minimamente una piccola percentuale di contenuti nel feed di notizie (in base alla presenza o meno di una parola emotiva nel post) per un gruppo di persone (circa lo 0,04% degli utenti, o 1 nel 2500) ...

Ah, passiamo da "fino al 90% di possibilità" a "ridurre al minimo la priorità di una piccola percentuale di contenuti". Non è sorprendente come si possa caratterizzare in modo creativo lo stesso identico studio in due modi virtualmente contraddittori?

È stato significativo o no?

Lo studio stesso fa più affermazioni e conclusioni sul significato e l'impatto dei loro risultati (nonostante le dimensioni degli effetti ridicolmente ridotte). In qualche modo tutte queste affermazioni odiose e di vasta portata hanno superato i revisori della rivista PNAS (che dovevano aver dormito quando hanno timbrato questo articolo) e sono stati autorizzati a stare in piedi senza qualifiche.

Nella spiegazione di Kramer pubblicata domenica, suggerisce che i loro dati non hanno comunque trovato nulla di cui le persone dovrebbero preoccuparsi:

E alla fine della giornata, l'impatto effettivo sulle persone nell'esperimento era la quantità minima per rilevarlo statisticamente ... 3

Il che contraddice direttamente le affermazioni fatte nello studio stesso:

Questi risultati suggeriscono che le emozioni espresse dagli amici, tramite i social network online, influenzano i nostri stati d'animo, costituendo, a nostra conoscenza, la prima prova sperimentale di contagio emotivo su vasta scala tramite i social network [...]

I messaggi online influenzano la nostra esperienza delle emozioni, che possono influenzare una varietà di comportamenti offline.

Senta là - nessun qualificatore su quelle affermazioni. Senza dire: "Oh, ma questo non avrebbe un impatto sulle emozioni di un individuo". No, a mio parere, una contraddizione completa rispetto a quanto afferma ora uno dei ricercatori.

Ma era etico?

Molte controversie hanno circondato se questo tipo di aggiuntivo la manipolazione del tuo feed di notizie su Facebook è etica e se va bene incorporare un modulo di consenso per la ricerca globale nei termini del contratto di servizio di un sito web. (Facebook manipola già ciò che vedi nel tuo feed di notizie tramite il suo algoritmo.)

In primo luogo, togliamo l'argomento della falsa pista che questa ricerca non è la stessa che le società di ricerca interne fanno per l'usabilità o i test di progettazione. Questo tipo di ricerca non viene mai pubblicato e mai svolto per esaminare ipotesi scientifiche sul comportamento umano emotivo. È come confrontare le mele con le arance per suggerire che sono la stessa cosa.

La ricerca su soggetti umani generalmente deve essere approvata da una terza parte indipendente chiamata comitato di revisione istituzionale (IRB). Questi di solito sono ospitati nelle università e esaminano tutte le ricerche condotte dai ricercatori dell'università per assicurarsi che non violino cose come la legge, i diritti umani o la dignità umana. Le aziende a scopo di lucro come Facebook generalmente non hanno un equivalente IRB esatto. Se uno studio su soggetti umani non è stato esaminato da un IRB, se fosse etico o morale rimane una questione aperta.

Ecco la difesa del progetto di ricerca da parte di "data scientist" 4 Kramer, come indicato nello studio:

[I dati sono stati elaborati in un modo] tale che nessun testo è stato visto dai ricercatori. In quanto tale, era coerente con la politica di utilizzo dei dati di Facebook, a cui tutti gli utenti accettano prima di creare un account su Facebook, costituendo un consenso informato per questa ricerca.

Tuttavia, Kashmir Hill suggerisce che la politica sull'uso dei dati di Facebook è stata modificata 4 mesi dopo che lo studio è stato condotto per consentire esplicitamente l'uso "di ricerca" dei dati di Facebook.

Sembravano anche essersi sbagliati nell'ottenere l'approvazione IRB di un'università per lo studio. Hill ha riferito in precedenza che l'IRB di Cornell non ha esaminato lo studio.5 Nessuno dei ricercatori si è fatto avanti per spiegare perché a quanto pare hanno detto all'editore PNAS di averlo gestito dall'IRB di un'università.

Chris Chambers del Regno Unito Guadian offre questo riassunto della triste situazione:

Questa situazione è, francamente, ridicola. In quale versione del 2014 è accettabile per riviste, università e scienziati offrire parole da donnola e offuscamento in risposta a semplici domande sull'etica della ricerca? Com'è accettabile che un comitato etico decida che gli stessi autori che hanno assistito Facebook nella progettazione di uno studio interventistico per cambiare lo stato emotivo di oltre 600.000 persone, in qualche modo, "non si sono impegnati direttamente nella ricerca umana"?

Ciliegina sulla torta: The Non-Apology

Kramer non si è scusato per aver effettuato la ricerca senza il consenso informato dell'utente. Invece, si è scusato per il modo in cui ha scritto la ricerca:

Posso capire perché alcune persone hanno preoccupazioni al riguardo, e io ei miei coautori siamo molto dispiaciuti per il modo in cui l'articolo ha descritto la ricerca e l'ansia che ha causato.

Le persone non sono arrabbiate che tu abbia fatto la ricerca, sono arrabbiate che tu abbia fatto la ricerca su di loro senza la loro conoscenza o il loro consenso. E scusa Facebook, ma seppellire il "consenso" in migliaia di parole di mumbo-jumbo legale può proteggerti legalmente, ma non ti protegge dal buon senso. O le reazioni delle persone quando scoprono che le stai usando come cavie.

Le persone vogliono semplicemente un modo significativo per disattivare i tuoi esperimenti su di loro e sul loro feed di notizie senza la loro conoscenza o il loro consenso.

Facebook non lo offre oggi. Ma sospetto che se Facebook vuole continuare a fare ricerche di questa natura, presto offrirà questa opzione ai suoi utenti.

Un caso di studio sull'etica per tutti i tempi

Questa situazione è un perfetto esempio di come non condurre ricerche sui dati dei tuoi utenti senza il loro esplicito consenso. Sarà insegnato nelle lezioni di etica per anni - e forse decenni - a venire.

Agirà anche come un caso di studio su cosa non fare come social network se vuoi rimanere fidato dei tuoi utenti.

Facebook dovrebbe offrire a tutti gli utenti delle vere scuse per aver condotto questo tipo di ricerca su di loro senza la loro esplicita conoscenza e autorizzazione. Dovrebbero anche modificare i loro requisiti di ricerca interna in modo che tutti gli studi condotti sui loro utenti passino attraverso un IRB esterno con sede in università.

Ulteriore lettura

Fiasco di Facebook: lo studio di Cornell sul "contagio emotivo" era una violazione dell'etica?

Facebook ha aggiunto "ricerca" al contratto con l'utente 4 mesi dopo lo studio sulla manipolazione delle emozioni

Riferimento

Kramer, ADI, Guillory, JE, Hancock, JT. (2014). Prove sperimentali di contagio emotivo su vasta scala attraverso i social network. PNAS. www.pnas.org/cgi/doi/10.1073/pnas.1320040111

Note a piè di pagina:

  1. Cosa che ci hanno già detto nello studio: "Un test per verificare se i post con contenuti emotivi sono più coinvolgenti". [↩]
  2. Facebook sembra meno connesso alla mia vita reale, visto che il mio feed di notizie sembra essere in gran parte passato da post sulle vite delle persone a "link che trovo interessanti", anche se non faccio mai clic su quei link! [↩]
  3. Il che è un modo da ricercatore per dire: "Il nostro esperimento non ha trovato alcuna dimensione dell'effetto degna di nota. Ma suoneremo i risultati come se l'avessimo fatto (dal momento che in realtà abbiamo trovato una rivista, PNAS, abbastanza idiota da pubblicarla!). " [↩]
  4. Uso le virgolette intorno a questo titolo, perché tutti i ricercatori e gli scienziati sono scienziati dei dati: questo è ciò che differenzia un ricercatore da un narratore. [↩]
  5. Infatti, notano che Hancock, un autore nominato sulla carta, aveva accesso solo ai risultati, nemmeno ai dati effettivi! [↩]

!-- GDPR -->