Iscriviti alla newsletter: scopri tutte le storie di Studio!

Attualità Cultura Stili di Vita

Seguici anche su

+60k
+16k
+2k
Condividi su Facebook Condividi su Twitter Invia una e-mail

La verità, soltanto la verità

@factbot1 è un account Twitter che pubblica fatti inventati spacciandoli per veri. Un esperimento sulla percezione della realtà dai risultati prevedibili: addio verità, benvenute opinioni.

Internet è una tale babele di informazioni, lamentele e commenti che l’incontro con un fatto semplice e puro può rivelarsi illuminante. Come oasi nel deserto questi frammenti di conoscenza – veri, chiari, indiscutibili – offrono accoglienza e riposo, perpetuando l’illusione che qualcosa di certo esista ancora. Basta solo trovarlo.

Anche per questo su Twitter si sono diffusi con successo degli account che hanno fatto di questa catalogazione fattuale la loro missione. @UberFacts è leader indiscusso del settore “factoids” con 6,87 milioni di follower, seguito da @FactHive, vicino al mezzo milione di seguaci: due prodotti molto simili, entrambi votati alla raccolta di aneddoti interessanti, entrambi accusati di scarso controllo delle fonti. Proprio così, i due megafoni della verità in 140 caratteri spesso fanno cilecca: raccontano fatti “parzialmente veri” e, in qualche occasione, abboccano alle tante leggende metropolitane circolanti. Matt Novak, blogger di Gizmodo specializzato in “paleofuturo” (lo abbiamo intervistato tempo fa), ha realizzato un debunking di @UberFacts analizzando i tweet pubblicati in una sola giornata dall’account. In 24 ore @UberFacts ha postato 64 tweet, numero notevole che rientra nella media quotidiana e fa sorgere una domanda: com’è possibile controllare tanto materiale al giorno se non si ha uno staff editoriale alle spalle? La risposta sembra inevitabile: non lo si fa. Novak ha infatti dimostrato che 11 di questi fatti sono falsi, 15 parzialmente veri («true-ish») e solo 38 veri. Ulteriori sessioni di fact-checking non hanno cambiato il giudizio sull’account, che sembra poco sensibile alla verità fattuale di cui si è nominato rappresentante.

D’altronde che cos’è un fatto? E, ancora, cos’è un fatto vero?

Questi profili Twitter sembrano cercare la verità nella scienza e nei dati: le loro fonti sono calcoli statistici, studi scientifici e sulla probabilità e possono riguardare il mondo umano (le celebrità vanno forte), quello animale (scottanti particolari sulla vita sessuale delle giraffe) e l’universo (da sempre fucina di AMAZING FACTS). Hanno tutti strutture ricorrenti, pattern imposti dalla brevità di Twitter. @UberFacts e affini hanno imposto così la loro formula di “verità”: una frase breve e densa di informazioni con una determinata struttura sintattica – un format di successo che però può essere parodiato. Proprio a questo ha pensato Eric Drass, artista digitale conosciuto con il nome di Shardcore, autore dell’ultimo di una lunga serie di geniali bot, chiamato @factbot1.

«Siamo così emozionati nel leggere qualcosa a cui vogliamo credere che non perdiamo tempo a capire se sia vera o no» – Eric Drass

Che cos’è @factbot1? È un algoritmo che pubblica fatti falsi spacciandoli per veri, allegando un’immagine a corredo del tutto. «Prima di tutto ho studiato i fatti più diffusi del web», ha spiegato Drass a Studio, scoprendo che «alcuni di loro sono manipolabili. Cose come “l’aquila è l’uccello più grande” può diventare “[nome di animale] è [famiglia a cui appartiene] più [aggettivo]”. Scoperti i template di base, ho cominciato a generarli». Dando poche indicazioni al bot si ottiene spesso un risultato nonsense, «mentre io volevo sembrare plausibile», spiega l’artista. Quindi l’account si basa su un buon numero di strutture fisse i cui «spazi vuoti vengono riempiti dall’algoritmo», che pesca dati e immagini da dizionari online e altri siti. Il risultato è estremo ma plausibile, perché i suoi riferimenti assurdi si adagiano sul confortevole format creato da @UberFacts. Assomigliano a tweet che abbiamo già letto, tweet di cui ci siamo fidati: perché non crederci?

«Sfruttare il formato dei fatti virali ti permette di esplorare il genere e capire che succede quando qualcuno si inventa qualcosa. D’altronde fenomeni virali come “la migliore fotografia della giornata” e cose simili sono spesso ritoccati e falsi. Esiste un conflitto tra la nostra aspettativa rispetto la novità e le informazioni, che spesso non sono controllate a dovere. È un sistema che può portarci a condividere ciecamente i fatti con cui siamo d’accordo, ed è ancora più pericoloso quando si intreccia con la propaganda politica», continua Shardcore, perché un utente può essere portato a condividere «un fatto negativo riguardo un politico che non gli piace senza domandarsi se sia vero».

@factbot1 è un esperimento sulla percezione della verità online dai risultati demoralizzanti ma importanti. Drass ha imparato che esiste un rapporto morboso «tra la volontà di conoscenza e l’emozione che offre un’informazione che appare nel proprio feed. Siamo così emozionati nel leggere qualcosa a cui vogliamo credere che non perdiamo tempo a capire se sia vera o no». Anche per questo l’account è interessante, perché cerca di rimanere sempre reale (tranne quando l’algoritmo fa errori di grammatica associando i vari pezzi) pur sguazzando nel caso. Ad esempio questo tweet su Messi è bizzarro ma… perché non crederci? D’altronde è un fun fact!

E se i cigni neri potessero davvero respirare dalle loro zampe? C’è qualche ornitologo tra voi?

A dare l’effetto migliore sono comunque i fatti più folli e nonsense (come il seguente sui lama e la pubblicità).

La logica di @factbot1 ricorda quella di 100 Facts About Pandas, libro curato dal comico irlandese David O’Doherty che è una lunga lista di fatti sui panda. Tutti rigorosamente inventati. «I Panda venivano usati spesso come sfondo nei film in bianco e nero» non è un’informazione credibile; non lo è  nemmeno «Eleonor, panda batterista, sostituì brevemente Ringo Starr nei Beatles»: sono battute scritte sulla base del genere “curiosità dal mondo”, un formato di successo, e c’è chi ha acquistato credendo raccogliesse dati scientifici. Lo stesso avviene con la creatura di Eric Drass, che comincia a intercettare qualche commento seccato in risposta ai suoi tweet: «C’è chi scrive, “ehi questa cosa non è vera, i cigni non respirano dalle zampe!” Succede perlopiù quando i retweet raggiungono utenti lontani [dal giro di follower di @factbot1, NdA] che non si aspettano di leggere fatti “finti”».

C’è una mutazione in corso del concetto di verità, fenomeno trattato anche dal giornalista Farhad Manjoo nel suo True Enough (2008), in cui ha notato come il fenomeno sia legato a doppio filo con la diffusione di internet ma si possa scorgere anche nella cara vecchia televisione. Ad esempio nella forbice che separa la “realtà” di Fox News, canale spiccatamente conservatore statunitense, e quella di altri network: sono credenze diverse spacciate per realtà che sembrano cucite su misura ai pubblici televisivi. Questa realtà «spezzata», come la definisce Manjoo, grandina poi sui social network e i blog, territorio dove è facile spacciare baggianate per Vangelo.

Il XXI secolo sembra piegato da una nuova forma di “verità” che vuole imporsi come fattuale e relativa allo stesso tempo – un concetto ossimoro per tempi confusi. A rendere la situazione ancora più particolare, il più grande studioso di questa realtà non è uno scienziato ma un comico statunitense, Stephen Colbert. Nel 2005, nella puntata pilota del suo show The Colbert Report, show in cui si finge un commentatore repubblicano à la Fox News, il presentatore coniò una parola nuova: “truthiness“. Un neologismo intraducibile (qualcosa di simile a “verità-rietà”), in cui il concetto di “verità” diventa relativo e personale.

The Colbert Report
Get More: Daily Show Full Episodes,Indecision Political Humor,The Colbert Report on Facebook

A decidere il “grado” di verità è ovviamente la “pancia” della ggente, la passione con cui si crede a qualcosa. Opinioni (o bugie) così forti che non possono di certo essere false.

 
 

Immagine: il meme “Schrute Facts” ispirato al personaggio di The Office US Dwight Schrute.
Leggi anche: “Quello che ci fanno gli algoritmi

54da1fe3c06675ff4ccfe97c_undici-logo-white.jpg