Attualità

«È una fonte autorevole?» «Ma che ne so»

Facebook ha modificato il suo algoritmo per punire le notizie false condivise sul social network: che cosa cambierà per i siti che diffondono "hoaxes" come quello recente sulle cooperanti rapite in Siria? Un punto a più voci.

di Redazione

Facebook ha comunicato una serie di modifiche al suo News Feed relative agli articoli che diffondono notizie false, tesi complottiste e bufale: si potranno segnalare e compariranno con meno frequenza. La mossa può essere intesa come una vittoria di chi crede che gli “online hoax” finora abbiano avuto troppo la vita facile online? Di recente una news inventata – quella dei mai verificati rapporti sessuali delle cooperanti rapite in Siria e poi liberate, Greta Ramelli e Vanessa Marzullo, coi loro sequestratori – è arrivata fino alla vicepresidenza del Senato, quando Maurizio Gasparri l’ha ripresa su Twitter spacciandola per una notizia vera e propria. E le bufale sono spesso enormi driver di traffico su Internet, tanto da aver generato una nicchia dove vince chi la spara più grossa. A livello di società, come possiamo difenderci da questo fenomeno? E quali possono essere gli effetti che avrà nel futuro prossimo? L’abbiamo chiesto al sociologo e teorico dei media Nathan Jurgenson, alla giornalista e social media editor Cristiana Raffa, ad Anna Momigliano e Davide Piacenza, che ci hanno dato quattro riflessioni sull’argomento.

 

Nathan Jurgenson

Il filosofo Paul Virilio ha detto che quando si inventa la nave si inventa anche il naufragio, e Facebook è ora di fronte al tentativo di mitigare il danno che ha creato. Facebook è una macchina costruita e ottimizzata per incoraggiare i contenuti “simpatici” e condivisibili, non quelli affidabili e importanti. Si tratta di un intero sito progettato per massimizzare il tempo trascorso dagli utenti su di esso. L’ordinamento delle informazioni viene comprato e venduto quando gli individui e le istituzioni pagano per “promuovere” i post. Non c’è ragione per cui questa macchina chiamata Facebook dovrebbe produrre uno spazio sano di informazione. Adesso però provano a mitigare il danno che hanno inferto al dibattito pubblico, ovvero impostare sulla viralità e mettere tutto in vendita.

Dico mitigare, non invertire. Infatti perché il loro sistema di flagging proposto funzioni la notizia falsa deve essere già diventata virale. Di conseguenza, dunque, il sistema avrà già fatto danni prima che le contromisure possano rallentarne gli effetti. L’opzione di flagging non risolve il problema di una logica interna che classifica le notizie secondo un newsfeed concepito per promuovere tutto ciò che mantiene gli utenti sul sito, e in base a chi è disposto a pagare. Il dibattito pubblico non è qualcosa che può essere “aggiustato” da ingegneri che hanno dimostrato ben poca competenza nel trattare questioni delicate come la verità e l’informazione. Mi rendo conto che stanno cercando di risolvere il problema, ma questa è tutt’altro che una risposta. Le scialuppe di salvataggio possono aiutare, ma se vogliamo evitare che la nostra nave affondi, quello che ci serve è qualcosa di più radicale.

 

Cristiana Raffa

Non ci sarà alcun intervento umano nella valutazione delle bufale. Tutto affidato agli algoritmi, precisano da Facebook. Ma la macchina del repulisti, che effettivamente agirà attraverso calcoli computerizzati, si attiverà solo dopo segnalazioni degli utenti. Purtroppo il fattore umano è fallibile, comprende anche troll organizzati e Gasparri. Dunque la speranza è riposta nella legge dei grandi numeri, con quelli dovrebbe più o meno funzionare.

Il risultato sarà che le pagine foriere di baggianate saranno penalizzate nelle visualizzazioni e i post mendaci recheranno la piccolissima, quasi impercettibile, scritta “diverse persone hanno rilevato che qui ci sono informazioni false”. Meglio di niente.

Il problema è che una notizia falsa, soprattutto quando desta scandalo o psicosi collettiva, fa un botto che sovrasta qualunque smentita, rettifica o piccola etichetta d’avvertenza. Nel tempo e nel flusso si perdono i dettagli e si dimenticano le conseguenze. Nella mente dei più resta solo il frastuono. È certo che tanti tra un anno penseranno che le cooperanti Greta e Vanessa avevano avuto rapporti sessuali con i guerriglieri, che le maestre di Rignano Flaminio erano pedofile, che Paolo Villaggio è morto, che Tonio Cartonio era eroinomane.

Viviamo in quel Paese che galleggia da anni tra il 60esimo e il 70esimo posto per la libertà di stampa, con un ordine professionale che pretende di valutare con criteri di vent’anni fa chi è giornalista e chi no. Dove l’impoverimento del mercato editoriale porta a una sempre minore indipendenza dei produttori d’informazione. I cani da guardia della democrazia, pagati due spicci lordi ad articolo e spesso senza garanzia di tutele legali per svolgere il presunto ruolo, con la catena corta e senza denti non morderanno più nessuno. Per forza dobbiamo puntare tutto sugli algoritmi.

L’algoritmo è retto, sa un sacco di cose, fa bene il suo lavoro e basta. Non è amico di nessuno, non riceve regali a Natale. L’algoritmo, possibilmente programmato da svedesi col traduttore, magari controllasse davvero le informazioni, o addirittura le trovasse e confezionasse (per fortuna da qualche parte succede già!). L’algoritmo, sicuro che gli avanza tempo perché è instancabile, potrebbe anche gestire qualche account Twitter di vicepresidente del Senato.

 

Anna Momigliano

Ci sono due questioni separate, qui. Primo: di cosa parliamo quando parliamo di “bufale”. Secondo: chi decide cos’è una bufala. Potremmo dividere le bufale in tre categorie: da un lato le bufale complottare, che tutti i non complottari annusano lontano un miglio (scie chimiche, vaccini che causano l’autismo, eccetera); dall’altro notizie false, e più o meno credibili, che rimbalzano su fonti di informazioni più o meno credibili e che in alcuni casi richiedono tempo per essere smascherate (la storia di Assad che uccideva i bambini nelle incubatrici, le maestre pedofile di Rignano); e infine le “notizie” dichiaratamente false, insomma la satira stile Lercio, The Onion o, il mio preferito, Panarabian Enquirer. Ma qui parliamo di bufale, non disatira, direte voi. In realtà, si parla anche di satira. Infatti nella pagina in cui Facebook annuncia il nuovo strumento, che permette agli utenti di “flaggare” link che contengono notizie false porta come esempio un articolo che riportava una fantomatica ricerca scientifica sull’esistenza di Babbo Natale. A rimetterci dunque non saranno solo le bufale, ma anche la satira, come spiega il Nieman Lab. E questo – non so voi – ma per me è un problema.

Un altro problema, poi, sta nella metodologia, insomma nel come si decide se qualcosa è una bufala oppure no. Facebook chiede ai suoi utenti di segnalare, anzi “flaggare”, link che diffondono contenuti falsi. Ma chi decide se i contenuti sono falsi? Gli utenti, appunto. E questo ci porta ad altri due problemi. Il primo è che se alcune bufale si diffondono è proprio perché c’è un sacco di gente che ci crede. Incidentalmente, si tratta anche delle bufale più pericolose. Il mio timore insomma è che per ogni utente che flagga il tale articolo che urla al mostro pedofilo ce ne sarebbero duecento che mettono un “like” nullificando l’effetto. Il secondo problema è che uno strumento per segnalare notizie come false potrebbe essere utilizzato in malafede da tutta una serie di attivisti da strapazzo. Già mi immagino eserciti di pasdaran filo-palestinesi segnalare come “bufala” ogni notizia che metta in buona luce Israele, oppure un esercito di pasdaran filo-israeliani che flaggano tutte le notizie che mettono in buona luce i palestinesi. Se adesso state pensando “nessuno farebbe una cosa del genere” non avete mai seguito una guerra sui social network.

 

Davide Piacenza

Mi torna alla mente uno degli aneddoti di vita rurale che mio padre racconta con più frequenza. Inverno del 1958, sulle colline del Monferrato sono arrivate le prime televisioni, la Rai trasmette il Festival di Sanremo. Vince Domenico Modugno nientemeno che con “Nel blu dipinto di blu”. Un contadino della zona, commentando l’evento con mio nonno, dice in dialetto astigiano parole che tradiscono sincera curiosità: «A casa mia ha vinto Modugno. E a casa tua?». Mi pare che, in un Paese in cui secondo l’Istat 22 milioni di persone non hanno mai utilizzato Internet, buona parte dell’inesistente “popolo del web” si trovi grosso modo nei panni di quell’incolpevole coltivatore degli anni Cinquanta: le bufale online pescano da un bacino di utenza che non sa distinguere una fonte autorevole da una assolutamente pessima (si potrebbe discutere dei meccanismi per i quali un esponente del suddetto bacino è diventato vicepresidente del Senato, certo, ma proseguiamo), persone per cui “la verità” è un concetto relativo, discutibile, da distorcere a seconda delle proprie credenze e suggestioni.

Un articolo di Piovegovernoladro.info o affini funziona perché dice esattamente ciò che un certo segmento di popolazione vuole che dica: hai perso il lavoro? Guarda che cosa ha fatto Renzi/Letta/Monti/chiunque coi soldi di noi italiani! Temi quei volti di provenienza subsahariana che vedi alla stazione ogni sera? Leggi qui: lo sapevi che hanno tutto pagato e spesato? Greta e Vanessa (forse) sono state rilasciate dietro il pagamento di un riscatto? Erano là per soddisfare sessualmente tagliagole senz’anima, eccoti la prova. Ahimé, talvolta mi capita di avere a che fare con una persona assimilabile a questo gruppo, e quindi di sorbirmi lunghi excursus sull’ultima fantomatica malefatta di Laura Boldrini o sulle presunte condizioni disumane a cui sono costretti i nostri #marò. Difficile dire cosa causerà questo sistema, questa nicchia, sul lungo periodo. È anche vero che a fare questo uso di Internet sono soprattutto le generazioni meno giovani, a dirla tutta. Ma una via d’uscita, a volerla vedere, c’è: iniziamo a spiegare che la cosiddetta Rete è un luogo in cui mettere in gioco le proprie convinzioni e misurarne il valore, piuttosto che un posto a cui ricorrere per trovare fugaci – e traballanti – conferme. In questo senso, abbiamo 22 milioni di persone da aiutare.

 

Immagine di Studio Temp