La debole negazione di notizie false da parte di Facebook e il suo impatto
Facebook dipinge un'immagine molto dicotomica e contraddittoria di se stessa. Da un lato, affermano di essere il più grande social network del mondo, con un impatto sulla vita di oltre un miliardo di persone ogni mese. Dall'altro lato, il CEO Mark Zuckerberg - apparentemente non sta usando il proprio social network o forse vive sotto una roccia lo scorso anno? - afferma che Facebook non ha praticamente alcuna influenza sulle elezioni nazionali.La disconnessione è importante, perché mostra che Facebook non sembra assumere una posizione di leadership di responsabilità per liberare e rafforzare la tecnologia che è diventata una parte della vita di miliardi di persone ogni giorno. Le fake news sono un vero problema su Facebook e, in tal caso, cosa si può fare al riguardo?
Martedì, dopo che Google ha dichiarato che non avrebbe più accettato nella sua rete pubblicitaria gli editori che pubblicano notizie false - notizie fittizie progettate per essere condivise e cliccate da altri - Facebook ha seguito l'esempio. Sta dicendo che Facebook ha seguito l'esempio di Google dati i commenti dell'amministratore delegato di Facebook Mark Zuckerberg durante il fine settimana definendo "folle" il fatto che Facebook avrebbe avuto alcuna influenza nelle recenti elezioni presidenziali più controverse.
Tuttavia, vietare ai siti di notizie false di utilizzare la tua rete pubblicitaria è ben lungi dal lavorare effettivamente sul vero problema: le persone condividono e apprezzano le notizie false con la stessa prontezza delle notizie reali e legittime.
Will Oremus, scrivendo a Slate, espone il problema:
Il problema è il rifiuto di Facebook di riconoscere il suo ruolo sempre più dominante nei media. È improbabile che vada via, anche se le notizie false lo fanno. In un'intervista pubblica giovedì scorso, Zuckerberg ha affermato che le fake news su Facebook "sicuramente non hanno avuto alcun impatto" sulle elezioni e che suggerire il contrario era "un'idea piuttosto folle". [...]
Allo stesso tempo, ha ammonito che Facebook doveva "procedere con molta attenzione", perché "identificare la" verità "è complicato". [...]
Ma c'è una sensazione crescente, sia all'interno che all'esterno dell'azienda, che possa procedere con troppa cautela, visto il suo ruolo sempre più dominante nella distribuzione delle notizie online. E le smentite di Zuckerberg sembrano alimentare le fiamme.
Infatti. Quando il tuo CEO sembra così disconnesso dalla realtà sul campo, ti viene da chiederti cosa passa il tempo a fare tutto il giorno. Le notizie false vengono trasmesse su Facebook altrettanto prontamente delle notizie legittime (e le immagini dei gattini), condivise e apprezzate milioni di volte durante le passate elezioni. Sebbene Facebook abbia alcuni strumenti di segnalazione rudimentali, forniscono zero feedback all'utente suggerendo che qualcosa è mai stato fatto. Senza feedback, gli utenti hanno pochi incentivi a utilizzare questi strumenti, quindi la maggior parte delle persone semplicemente non si preoccupa di loro.
Ma identificare le fake news non significa realmente identificare "la verità", è identificare fatti facilmente verificabili che non sono veri (ciò che la maggior parte di noi chiama "bugie" o "finzione"). Soprattutto quando si tratta di cose facilmente verificabili su cui Facebook è completamente caduto durante le scorse elezioni, come la menzogna che il Papa ha appoggiato a Trump.
Man mano che Facebook è cresciuto, tuttavia, sembra essere diventato più compiacente e pigro riguardo alle sue responsabilità nei confronti dei suoi utenti:
[Edward] Snowden ha avvertito che i social media sono attenti a rispettare gli utenti man mano che crescono, ma diventano più spericolati man mano che stabiliscono il dominio. "Per avere un'azienda che abbia abbastanza potere per rimodellare il nostro modo di pensare, non credo di dover descrivere quanto sia pericoloso", ha concluso. […] "Quando si installa un Google, un Facebook, un Twitter, sembra che non se ne vadano mai", ha detto. "Quando un fornitore di servizi prende una decisione sbagliata, ne soffriamo tutti."
Facebook dice: "Ehi, siamo prima di tutto un'azienda tecnologica. Non vogliamo entrare in questa complicata faccenda di dover coinvolgere gli esseri umani nei nostri processi. " Tuttavia, come stanno scoprendo, quando gestisci un'azienda tecnologica il cui unico scopo è connettere gli esseri umani tra loro in un modo significativo, potresti aver bisogno di coinvolgere effettivamente gli umani nel processo (al di fuori della codifica del ovviamente imperfetto algoritmi). Negare che sia necessario fare di più è seppellire la testa nella sabbia e sperare che il problema scompaia.
Problema prontamente risolto - da quattro studenti universitari
Ora, tutto questo sarebbe un punto controverso se il problema fosse insormontabile, irrisolvibile.
Ma è facilmente risolvibile, come hanno appena dimostrato quattro studenti universitari della Princeton University. La loro soluzione è un'estensione del browser solo per Chrome (se fossero ingegneri di Facebook, potrebbero facilmente inserirla direttamente nel social network):
"Per i link, prendiamo in considerazione la reputazione del sito web, lo interroghiamo anche contro malware e database di siti web di phishing e prendiamo anche il contenuto, lo cerchiamo su Google / Bing, recuperiamo le ricerche con grande sicurezza e riassumiamo quel link e lo mostriamo all'utente. Per immagini come le istantanee di Twitter, convertiamo l'immagine in testo, utilizziamo i nomi utente menzionati nel tweet, per ottenere tutti i tweet dell'utente e controlliamo se il tweet corrente è mai stato pubblicato dall'utente. "
Il plug-in del browser aggiunge quindi un piccolo tag nell'angolo che dice se la storia è verificata. [...]
Ma gli studenti mostrano che gli algoritmi possono essere costruiti per determinare con ragionevole certezza quali notizie sono vere e quali no e che si può fare qualcosa per mettere quelle informazioni di fronte ai lettori mentre pensano di fare clic.
Infatti. Penseresti che un'azienda del valore di miliardi di dollari avrebbe potuto capirlo da sola prima che diventasse il problema delle elezioni del 2016. In effetti, un piccolo gruppo di ingegneri di Facebook sta ora prendendo in mano la situazione, per cercare di convincere il proprio CEO che questo è un problema reale, ma che possono risolvere.
Le notizie false sono un problema che può essere risolto. Ma prima i responsabili (come Zuckerberg) devono riconoscere che si tratta di un problema reale: che i social network come Facebook svolgono un ruolo sociale significativo nella politica di molti paesi.