Sorpresa: Facebook dice che Facebook va bene per le notizie!

Uno studio è stato pubblicato la scorsa settimana sulla rivista Scienza ciò dimostra che l'algoritmo di Facebook non è la causa di un'ipotetica "bolla di filtraggio", dove le persone vedono solo notizie che si allineano con le loro tendenze politiche su un social network.

L'unico problema? È uno studio di Facebook condotto da persone che lavorano per Facebook.

Dovremmo davvero essere così sorpresi dal fatto che i ricercatori di Facebook riducano al minimo l'impatto delle manipolazioni della loro azienda sui feed di notizie delle persone?

Lo studio, Esposizione a notizie e opinioni ideologicamente diverse su Facebook, di Eytan Bakshy e colleghi di Facebook è stato pubblicato la scorsa settimana in Scienza. Come potrebbe essere pubblicato questo studio sulla prestigiosa rivista Scienza? 1 La revisione tra pari non dovrebbe catturare studi egoistici pubblicati da aziende che dimostrano solo ciò che l'azienda vuole che i dati mostrino?

Ci si deve chiedere come i revisori paritari abbiano superato questo studio come pubblicato. Molte critiche allo studio sono già state pubblicate, quindi mi limiterò a fare una rapida carrellata dei problemi citati da altri. Questa critica di Christian Sandvig riassume praticamente il problema di come i ricercatori di Facebook hanno elaborato le proprie scoperte nello studio pubblicato:

In tema di confronti, lo studio prosegue affermando che:

"Stabiliamo definitivamente che ... le scelte individuali più degli algoritmi limitano l'esposizione a contenuti che mettono in discussione l'atteggiamento."

"Rispetto al ranking algoritmico, le scelte degli individui su cosa consumare hanno avuto un effetto più forte"

I campanelli d'allarme stanno suonando per me. Una volta l'industria del tabacco avrebbe potuto finanziare uno studio che afferma che il fumo è meno pericoloso dell'estrazione del carbone, ma qui abbiamo uno studio sul fumo dei minatori di carbone. Probabilmente mentre sono nella miniera di carbone.

Quello che voglio dire è che non esiste uno scenario in cui “scelte dell'utente” e “algoritmo” possano essere scambiate, perché avvengono insieme […]. Gli utenti selezionano da ciò che l'algoritmo ha già filtrato per loro. È una sequenza.

Penso che l'affermazione corretta su queste due cose sia che sono entrambe cattive: entrambe aumentano la polarizzazione e la selettività. Come ho detto sopra, l'algoritmo sembra aumentare modestamente la selettività degli utenti.

In effetti, penseresti che i ricercatori di Facebook che, sai, lavorano per Facebook, capirebbero che non puoi stuzzicare e separare l'algoritmo dal comportamento dell'utente, poiché uno dipende dall'altro. Senza manipolare l'algoritmo (che la ricerca di Facebook Adam Kramer ha scoperto non è una buona cosa da fare senza prima ottenere il consenso informato dell'utente), non si può davvero dire perché gli utenti fanno clic su una cosa più che su un'altra.

Ma questa recensione dello studio di Facebook di Zeynep Tufekci, professore presso l'Università del North Carolina, a Chapel Hill, ha scritto che ciò che i dati dello studio hanno realmente trovato erano sepolti nell'appendice dello studio:

Più alto è il collegamento, più è probabile che venga cliccato. Si vive e si muore per posizionamento, determinato dall'algoritmo di newsfeed. (L'effetto, come osserva correttamente Sean J. Taylor, è una combinazione di posizionamento e il fatto che l'algoritmo indovina quello che vorresti).

Questo era già noto, per lo più, ma è fantastico averlo confermato dai ricercatori di Facebook (lo studio è stato scritto esclusivamente dai dipendenti di Facebook). [...]

Una scoperta nuova è che l'algoritmo del feed di notizie (modestamente) sopprime contenuti diversi, e un'altra scoperta cruciale e anche nuova è che il posizionamento nel feed è (fortemente) influente sui tassi di click-through.

Facebook ti mostra notizie che è più probabile che tu legga (perché concorda con il tuo punto di vista politico) e che più in alto appare nel tuo feed di notizie, più è probabile che ci clicchi sopra.

In altre parole, la manipolazione da parte di Facebook del tuo feed di notizie continua a essere un importante fattore che contribuisce a determinare su cosa probabilmente farai clic. E continuano a manipolare quel feed per mostrarti notizie politicamente allineate più che se non ci fosse alcun pregiudizio nel loro algoritmo.

E, come nota importante Tufekci, questo era un piccolo gruppo selezionato di utenti di Facebook studiato, solo perché era più conveniente (ed economico) per i ricercatori di Facebook studiarli. Hanno esaminato solo gli utenti che hanno identificato la propria affiliazione politica su Facebook e si sono collegati regolarmente al servizio (circa il 4% degli utenti totali di Facebook [solo il 9% degli utenti dichiara la propria affiliazione politica su Facebook, il che significa che questo non è un campione che puoi generalizzare qualsiasi cosa da]). Non dice nulla sugli utenti di Facebook che non dichiarano la loro affiliazione politica su Facebook, che è la maggior parte di noi.

Facebook avrebbe potuto condurre uno studio più approfondito? Certo, ma avrebbe richiesto tecniche di ricerca più tradizionali, come il reclutamento di sondaggi sul sito combinato con il reclutamento casuale di email fuori sede.

Quindi, ecco la scoperta non filtrata e imparziale dai dati (per gentile concessione di Tufekci) che i ricercatori di Facebook apparentemente si sono girati per dire che ciò che vedi nel loro feed di notizie non è colpa loro:

I ricercatori di Facebook dimostrano in modo conclusivo che l'algoritmo di feed di notizie di Facebook riduce i contenuti ideologicamente diversi e trasversali che le persone vedono dai loro social network su Facebook in misura misurabile. I ricercatori riferiscono che l'esposizione a contenuti diversi è soppressa dall'algoritmo di Facebook dell'8% per i liberali autoidentificati e del 5% per i conservatori autoidentificati.

Oppure, come afferma Christian Sandvig, "l'algoritmo filtra 1 su 20 storie di notizie difficili trasversali che un conservatore autoidentificato vede (o il 5%) e 1 su 13 storie di notizie difficili trasversali che un liberale auto-identificato vede (8%). " Stai vedendo meno notizie con cui non sei d'accordo e che vengono condivise dai tuoi amici perché l'algoritmo non te le mostra.

Sfortunatamente, al di fuori di New York Times e pochi altri punti vendita selezionati, la maggior parte dei principali siti di media di notizie hanno appena riportato ciò che i ricercatori di Facebook hanno affermato nel loro studio, senza scetticismo.

Ma ora sai la verità: Facebook ha studiato un piccolo campione non rappresentativo, quindi ha minimizzato ciò che i loro dati hanno effettivamente mostrato per enfatizzare un risultato più positivo nei confronti dell'azienda. Per me, questo è un altro esempio di ricercatori di Facebook che non capiscono davvero il punto della ricerca scientifica: condividere conoscenze con il mondo che non è di parte e manipolato.

Per ulteriori letture ...

Zeynep Tufekci: come l'algoritmo di Facebook sopprime la diversità dei contenuti (modestamente) e come il feed di notizie governa i tuoi clic

Christian Sandvig: Lo studio di Facebook "Non è colpa nostra"

NY Times: Facebook usa la polarizzazione? Il sito inizia a differire

Note a piè di pagina:

  1. Purtroppo, ora devo aggiungere un'altra rivista al mio elenco di pubblicazioni scientifiche rispettate che necessitano di un ulteriore esame. Come sanno i lettori di lunga data di World of Psychology, quell'elenco si allunga ogni anno: Pediatria (La pediatria pubblica studi sulla tecnologia che sono apparentemente esaminati da nessuno che abbia familiarità con le relazioni causali della ricerca di base.), Cyberpsicologia, comportamento e social network (La cyberpsicologia pubblica apparentemente qualsiasi studio sulla dipendenza da Internet o sui social network, indipendentemente dalla sua qualità.) E ora, Scienza. [↩]

!-- GDPR -->