Facebook prende in giro i suoi utenti con una nuova politica di ricerca
In qualsiasi paese moderno del primo mondo, il governo richiede ai ricercatori universitari legittimi di passare attraverso un comitato di revisione indipendente (IRB) quando conducono ricerche sugli esseri umani. Ciò è dovuto agli abusi del passato da parte dei governi e delle organizzazioni che hanno usato l'apparenza di "cercare la conoscenza" per nascondere i loro sforzi per manipolare le persone per i propri mezzi e fini.Ma sai cosa? Facebook non è un paese del primo mondo. Quindi, nel tentativo di capire meglio come monetizzare al meglio il tuo utilizzo del loro servizio, non hanno bisogno dell'approvazione di un IRB per condurre ricerche su di te.
E ora, secondo me, stanno apertamente prendendo in giro i loro utenti con il loro ultimo aggiornamento alle loro pratiche di ricerca.
L'ultima controversia è iniziata quando il ricercatore di Facebook "data scientist" Adam D.I. Kramer ha pubblicato uno studio che manipolava i feed di notizie di Facebook delle persone senza la loro conoscenza o il loro consenso. Kramer ha rilasciato una non scusa dopo l'incidente, e poi ciò che è seguito sono stati tre mesi di totale silenzio da parte di Facebook sulla questione.
Oggi, Facebook ha finalmente rotto il silenzio e ha scritto questo post sul blog sulle loro politiche di ricerca aggiornate.
In nessun punto della voce è menzionata la parola "etica". Questo da solo dimostra che Facebook ancora non capisce cosa ha sbagliato con la ricerca precedente e ha poche informazioni su come la ricerca nelle scienze sociali sia completamente diversa, per una ragione, dall'informatica. Facebook non ha ancora un responsabile per l'etica.
Quindi cosa ha effettivamente cambiato Facebook? La nuova ricerca dovrà passare attraverso un IRB (o qualsiasi altra cosa equivalente in un'azienda a scopo di lucro che cerca di massimizzare la monetizzazione dei suoi utenti)?
A quanto pare, non molto.
Ora, alcune ricerche che sono soggettivamente determinate che potrebbero richiedere una "revisione aggiuntiva" saranno sottoposte a ... una revisione aggiuntiva. Da altri su Facebook.
Immagino che nessuno su Facebook abbia sentito la frase "conflitto di interessi"?
Beh, almeno sono sicuro che ora richiederanno il consenso informato dei suoi utenti per partecipare a esperimenti su soggetti umani, giusto?
No. Facebook sa che pochi darebbero volontariamente il loro consenso a essere manipolati dai loro algoritmi e per i capricci dei loro "data scientist", quindi non si preoccuperanno di chiederti il consenso.
E allora volere? Facebook cambia? Ebbene, a quanto pare, hanno aggiunto "linee guida più chiare" perché apparentemente Facebook aveva poche (o poco chiare?) Linee guida in precedenza. Apparentemente chiunque in Facebook potrebbe fare tutto ciò che desidera in termini di ricerca, manipolando le esperienze dei suoi utenti quando e come vogliono. Hanno anche aggiunto "formazione", perché, ancora una volta, apparentemente Facebook consente alle persone con poca o nessuna formazione nella ricerca su soggetti umani di condurre esperimenti sui suoi utenti. Ciò significa che tu, povero ignaro datapoint.
Il nuovo pannello di revisione interno ha un gruppo di persone su di esso, ma ancora una volta, non è chiaro che nessuno abbia effettivamente familiarità o abbia un background nella ricerca e nell'etica delle scienze sociali. Dal momento che non è stata trovata alcuna menzione di etica, è probabile che Facebook non riesca ancora a "capire" cosa ha sbagliato. Almeno questo è ciò che tolgo da questo meraviglioso post sul blog di marketing.
E devi amare questo ultimo colpo ad ogni utente di Facebook oggi:
Come la maggior parte delle aziende di oggi, i nostri prodotti sono costruiti sulla base di ricerche, sperimentazioni e test approfonditi. [...]
Vogliamo fare questa ricerca in un modo che onori la fiducia che riponi in noi utilizzando Facebook ogni giorno.
Quello che non menzionano è che la maggior parte delle aziende oggi che costruiscono i propri prodotti su "ricerche approfondite, sperimentazioni e test" lo fanno in condizioni di test esplicite chiaramente comunicate ai propri utenti.
Pensi che P&G esca e modifichi la formulazione dei suoi prodotti più popolari su consumatori ignari senza ottenere prima il loro consenso? Pensi che GM o Ford testino le modifiche alle sospensioni o all'ergonomia del loro veicolo su persone che hanno appena speso $ 30.000 per una delle loro auto? Pensi che Target cambi tutti i suoi prezzi solo per te quando entri nel negozio, solo per vedere come potresti reagire ??
Il punto è che le aziende conducono effettivamente test e ricerche sui loro prodotti, ma solo con il consenso esplicito e informato del cliente. Non lo fanno solo per testare ipotesi a caso.
Niente nelle nuove politiche di ricerca di Facebook richiede agli utenti il loro consenso esplicito e informato a partecipare a un esperimento su soggetti umani. E non rimane alcuna revisione indipendente della loro ricerca su soggetti umani - niente nemmeno vicino a un IRB universitario.
In sintesi, la nuova politica di ricerca di Facebook prende in giro i suoi utenti. Tu, a quanto pare, non sei altro che un datapoint di marketing per Facebook, che non merita lo stesso consenso informato a cui avrebbe diritto qualsiasi normale partecipante alla ricerca. Facebook ha chiarito, almeno a me, che non sono interessati a diventare un membro legittimo della comunità di ricerca. Invece, sembrano essere felici di rimanere "scienziati dei dati" e tu sei semplicemente i dati
Note a piè di pagina:
- E naturalmente, non c'è nessun posto dove commentare questo post di blog su Facebook. Per una società di social networking, Facebook sembra ironicamente non gradire qualsiasi social networking reale con se stesso. [↩]