di SIMONE COSIMI
Un doc interno ottenuto e diffuso dal Guardian, poi aggiornato e diffuso anche dallo stesso social network nel tentativo di difendersi, svela i complessi livelli di valutazione che conducono alla selezione degli argomenti caldi da sottoporre agli utenti. Zuckerberg: “Indagheremo”
Facebook, le news scelte da mano umana. Documento interno rivela le linee guidaL’INTERVENTO degli algoritmi nel determinare cosa debbano leggere centinaia di milioni di utenti quando accedono al social network è più limitato di quanto si volesse far credere. Un documento interno riservato, uno di quelli che raramente vengono alla luce, ha allargato ancora di più lo scandalo esploso l’altro giorno: Facebook gestisce le notizie in base a parametri “editoriali”. Spesso censurando quelle sgradite, magari di stampo conservatore, o infilandone alcune necessarie a sostenere la propria immagine. Una rivelazione che ha perfino condotto il Senato statunitense a chiedere spiegazioni al colosso californiano. La guida, ottenuta e diffusa dal Guardian, ha reso ancora più evidente che la cose non stanno affatto come Menlo Park ha ripetuto per giorni. Dietro alla sezione Tendenze, che in Italia non vediamo ma è attiva in molti mercati in lingua inglese e in fase di sperimentazione in spagnolo e portoghese, c’è infatti una piccola squadra, composta da non oltre una dozzina di persone, che decide quali devono essere gli argomenti caldi di cui far discutere la propria, sterminata community.
Come funziona la gestione delle news. Le linee guida interne parlano chiaro. Ogni passaggio risente di decisioni umane e dunque editoriali. Come quelle di una qualsiasi altra testata al mondo (tanto da fare riferimento, per alcuni elementi basilari, alle indicazioni dell’Associated Press). Il punto, occorre ricordarlo, è che Facebook si è sempre posta come una piattaforma totalmente neutrale, un mero snodo fra ciò che è più letto, cliccato e condiviso. Questo l’elemento di partenza per giudicare l’intera querelle.
Le vicende delle ultime ore si rincorrono e accavallano. Conviene procedere con ordine. Il Guardian ha ottenuto un documento di 21 pagine contenente le indicazioni destinate a quel gruppo interno di lavoro. Per contrastarne la diffusione e difendersi dalle accuse Facebook ne ha successivamente diffuso una versione aggiornata, lunga 28 pagine, con dei paragrafi del tutto inediti, consultabile qui. Insomma, è in corso un vero e proprio Newsgate. Un fatto, però, è evidente: nel giro di un paio di giorni Facebook ha fatto marcia indietro. In un primo momento ha negato perfino l’esistenza di un team specializzato, spergiurando sulla totale automatizzazione della selezione. Ora, alla ricerca di una trasparenza difficile da guadagnare, rilascia addirittura il “manuale” aggiornato destinato proprio a quella squadra di editor in carne e ossa. Una giravolta non da poco. Firmata in un post sul blog ufficiale dal vicepresidente Justin Osofsky.
I punti fermi della vicenda. Ciò che rimane piuttosto chiaro è appunto l’esistenza di una squadra di news editor che lavora per turni ed è stata istruita su come gestire le storie in evidenza nel modulo delle Tendenze così come, al contrario, su come silenziare ed eliminare certi argomenti. Da una parte c’è chi sostiene a discrezione degli editor. Dall’altra – e le linee guide ritoccate in fretta e furia e date alla stampa supportano questa versione – il top management che spiega come il loro intervento sia riassumibile in quattro semplici passaggi: confermare che il fatto sia reale e concreto; scrivere una descrizione corroborata da articoli apparsi su almeno tre testate fra le mille elencate; applicare un’etichetta tematica (sport, politica); valutare se si tratti di una notizia globale o nazionale. Al punto 3 del capitolo “Injecting topics”, per esempio, si mette in chiaro che se l’argomento non è stato preventivamente setacciato dall’algoritmo non possa essere inserito. Ma questo contraddice ciò che nei fatti è più volte avvenuto.
Le fonti prese in considerazione. Dalle linee guida si comprende anche come le fonti valutate per stabilire cosa possa definirsi una notizia “di tendenza” siano appena una decina. In sostanza, se almeno cinque fra i seguenti siti la pubblicano, un certo tema si può inserire nell’elenco con la massima rilevanza. Le testate (in parte modificate rispetto al leak del Guardian) sono Bbc News, Cnn, Fox News, The Guardian (ironia?), Nbc News, The New York Times, Usa Today, The Wall Street Journal, The Washington Post e BuzzFeed News. Sempre Osofsky, nel suo intervento, ha appunto allargato questa lista a un migliaia di altre fonti (eccole) per garantire il massimo della ricchezza informativa. C’è anche Repubblica.it. Nel complesso, i criteri di notiziabilità sono affrontati al settimo punto delle guidelines.
E se c’è Facebook di mezzo le indicazioni (ne esistono ovviamente di altro tipo, il Guardian ha per esempio ottenuto anche quelle rivolte a una serie di altre funzionalità, all’applicazione Facebook Paper e una serie d’indicazioni più generali) si fanno più stringenti, così come quando le fonti considerate sono pagine di personaggi noti, star o celebrità. Insomma, questo “prontuario” redazionale, per così dire, smentisce clamorosamente le difese di questi giorni arrivate dall’azienda. Tom Stocky, vicepresidente con delega alle ricerche, aveva per esempio assicurato che il social “non inserisce artificialmente storie nei Trending topics e non istruisce gli editor a farlo”. Mica tanto.
Le contraddizioni. Come fanno giustamente notare diversi osservatori, dipende da cosa s’intenda per “artificialmente”. Rimane il fatto che non è tutto così neutrale come si vuole far credere. Al contrario, la valutazione umana è centrale. Alcuni altri ex dipendenti, nei giorni successivi all’inchiesta iniziale firmata da Gizmodo, si sono in parte allontanati dalle dichiarazioni degli ex colleghi. Raccontando che l’intervento umano è sì presente ma è reso necessario solo perché l’algoritmo non sforna sempre il giusto mix di notizie per un certo momento. Accadde per esempio nel 2014 con il “buco” sulle proteste di Ferguson, in Missouri, che furono inserite “a mano” nella sezione incriminata perché i meccanismi automatici non avevano beccato l’argomento. Due gli estremi: nella peggiore delle ipotesi in campo i temi vengono dunque decisi a tavolino, nella migliore ogni tanto c’è bisogno di un’aggiustatina. Tutto per sottrarre a Twitter anche l’ultima e unica dimensione in cui supera Facebook, quella dell’informazione in tempo reale. Il cuore del problema, a ben vedere, non cambia di una virgola.
L’intervento di Mark Zuckerberg. Tanto da richiedere la discesa in campo di Mark Zuckerberg in persona. Il Ceo e fondatore è intervenuto in un post sul suo profilo difendendo le linee guida (servono a “evitare che alcuni punti di vista abbiano priorità rispetto ad altri”) ma aprendo alla possibilità che le manipolazioni esistano e siano avvenute: “Apriremo un’indagine per assicurarci che il nostro team abbia garantito l’integrità del prodotto” ha scritto. Aggiungendo che al momento “non abbiamo evidenza che quell’inchiesta sia veritiera” e correndo ai ripari sotto il profilo politico: “Nelle prossime settimane inviterò i leader conservatori e altre persone di vari orientamenti per capire il loro punto di vista e comprendere come Facebook possa rimanere il più aperta possibile”.
Poche ore prima l’aveva anticipato Osofsky: “Le linee guida dimostrano che disponiamo di una serie di controlli e bilanciamenti per consentirci di mostrare le storie più importanti, senza riguardo alla loro connotazione ideologica – aveva spiegato – Facebook non autorizza né incoraggia i propri editor a discriminare sistematicamente alcune fonti. Punto. Quello che questo documento mostra è che abbiamo organizzato questo prodotto puntando alla qualità, nella speranza di consegnare agli utenti un’esperienza più sensata”. Va infine precisato che un altro algoritmo interviene dopo questo filtro umano, mostrando a ciascun utente un diverso mix di notizie in base a una quantità di parametri come le Pagine che gli piacciono o i luoghi visitati. Insomma, il processo di
selezione sembra un succulento sandwich in cui il pane è costituito dagli algoritmi di Menlo Park e il companatico dalla gestione della squadra giornalistica. Bisogna ora capire se quel team è in grado di condire quel panino o di aggiungere a sua discrezione altri ingredienti.
Invia un commento