Hype ↓
15:29 giovedì 1 gennaio 2026
Martin Scorsese ha scritto un editoriale sul New York Times in cui spiega perché Misery è il miglior film di Rob Reiner In un commosso editoriale, Scorsese ha individuato nel thriller del 1990 l’apice della filmografia del collega, ricordando la loro amicizia.
Dopo il documentario su Diddy arriverà un documentario sui figli di Diddy che parlando di Diddy Justin e Christian Combs racconteranno il rapporto col padre in una docuserie che uscirà nel 2026 e di cui è già disponibile il trailer.
La crisi climatica sta portando alla velocissima formazione del primo deserto del Brasile La regione del Sertão sta passando da arida a desertica nell'arco di una generazione: un cambiamento potenzialmente irreversibile.
L’episodio di Stranger Things in cui Will fa coming out è diventato quello peggio recensito di tutta la serie E da solo ha abbassato la valutazione di tutta la quinta stagione, nettamente la meno apprezzata dal pubblico, almeno fino a questo punto.
Il progetto europeo di rilanciare i treni notturni sta andando malissimo Uno dei capisaldi del Green Deal europeo sulla mobilità, la rinascita dei treni notturni, si è arenato tra burocrazia infinita e alti costi.
Un’azienda in Svezia dà ai suoi lavoratori un bonus in busta paga da spendere in attività con gli amici per combattere la solitudine Il progetto, che per ora è solo un'iniziativa privata, prevede un’ora al mese di ferie e un bonus di 100 euro per incentivare la socialità.
Diverse celebrity hanno cancellato i loro tributi a Brigitte Bardot dopo aver scoperto che era di estrema destra Chapell Roan e altre star hanno omaggiato Bardot sui social per poi ritirare tutto una volta scoperte le sue idee su immigrazione, omosessuali e femminismo.
È morta la donna che restaurò così male un dipinto di Cristo da renderlo prima un meme, poi un’attrazione turistica Nel 2012, l'allora 81enne Cecilia Giménez trasformò l’"Ecce Homo" di Borja in Potato Jesus, diventando una delle più amate meme star di sempre.

La verità, soltanto la verità

@factbot1 è un account Twitter che pubblica fatti inventati spacciandoli per veri. Un esperimento sulla percezione della realtà dai risultati prevedibili: addio verità, benvenute opinioni.

20 Giugno 2014

Internet è una tale babele di informazioni, lamentele e commenti che l’incontro con un fatto semplice e puro può rivelarsi illuminante. Come oasi nel deserto questi frammenti di conoscenza – veri, chiari, indiscutibili – offrono accoglienza e riposo, perpetuando l’illusione che qualcosa di certo esista ancora. Basta solo trovarlo.

Anche per questo su Twitter si sono diffusi con successo degli account che hanno fatto di questa catalogazione fattuale la loro missione. @UberFacts è leader indiscusso del settore “factoids” con 6,87 milioni di follower, seguito da @FactHive, vicino al mezzo milione di seguaci: due prodotti molto simili, entrambi votati alla raccolta di aneddoti interessanti, entrambi accusati di scarso controllo delle fonti. Proprio così, i due megafoni della verità in 140 caratteri spesso fanno cilecca: raccontano fatti “parzialmente veri” e, in qualche occasione, abboccano alle tante leggende metropolitane circolanti. Matt Novak, blogger di Gizmodo specializzato in “paleofuturo” (lo abbiamo intervistato tempo fa), ha realizzato un debunking di @UberFacts analizzando i tweet pubblicati in una sola giornata dall’account. In 24 ore @UberFacts ha postato 64 tweet, numero notevole che rientra nella media quotidiana e fa sorgere una domanda: com’è possibile controllare tanto materiale al giorno se non si ha uno staff editoriale alle spalle? La risposta sembra inevitabile: non lo si fa. Novak ha infatti dimostrato che 11 di questi fatti sono falsi, 15 parzialmente veri («true-ish») e solo 38 veri. Ulteriori sessioni di fact-checking non hanno cambiato il giudizio sull’account, che sembra poco sensibile alla verità fattuale di cui si è nominato rappresentante.

D’altronde che cos’è un fatto? E, ancora, cos’è un fatto vero?

Questi profili Twitter sembrano cercare la verità nella scienza e nei dati: le loro fonti sono calcoli statistici, studi scientifici e sulla probabilità e possono riguardare il mondo umano (le celebrità vanno forte), quello animale (scottanti particolari sulla vita sessuale delle giraffe) e l’universo (da sempre fucina di AMAZING FACTS). Hanno tutti strutture ricorrenti, pattern imposti dalla brevità di Twitter. @UberFacts e affini hanno imposto così la loro formula di “verità”: una frase breve e densa di informazioni con una determinata struttura sintattica – un format di successo che però può essere parodiato. Proprio a questo ha pensato Eric Drass, artista digitale conosciuto con il nome di Shardcore, autore dell’ultimo di una lunga serie di geniali bot, chiamato @factbot1.

«Siamo così emozionati nel leggere qualcosa a cui vogliamo credere che non perdiamo tempo a capire se sia vera o no» – Eric Drass

Che cos’è @factbot1? È un algoritmo che pubblica fatti falsi spacciandoli per veri, allegando un’immagine a corredo del tutto. «Prima di tutto ho studiato i fatti più diffusi del web», ha spiegato Drass a Studio, scoprendo che «alcuni di loro sono manipolabili. Cose come “l’aquila è l’uccello più grande” può diventare “[nome di animale] è [famiglia a cui appartiene] più [aggettivo]”. Scoperti i template di base, ho cominciato a generarli». Dando poche indicazioni al bot si ottiene spesso un risultato nonsense, «mentre io volevo sembrare plausibile», spiega l’artista. Quindi l’account si basa su un buon numero di strutture fisse i cui «spazi vuoti vengono riempiti dall’algoritmo», che pesca dati e immagini da dizionari online e altri siti. Il risultato è estremo ma plausibile, perché i suoi riferimenti assurdi si adagiano sul confortevole format creato da @UberFacts. Assomigliano a tweet che abbiamo già letto, tweet di cui ci siamo fidati: perché non crederci?

«Sfruttare il formato dei fatti virali ti permette di esplorare il genere e capire che succede quando qualcuno si inventa qualcosa. D’altronde fenomeni virali come “la migliore fotografia della giornata” e cose simili sono spesso ritoccati e falsi. Esiste un conflitto tra la nostra aspettativa rispetto la novità e le informazioni, che spesso non sono controllate a dovere. È un sistema che può portarci a condividere ciecamente i fatti con cui siamo d’accordo, ed è ancora più pericoloso quando si intreccia con la propaganda politica», continua Shardcore, perché un utente può essere portato a condividere «un fatto negativo riguardo un politico che non gli piace senza domandarsi se sia vero».

@factbot1 è un esperimento sulla percezione della verità online dai risultati demoralizzanti ma importanti. Drass ha imparato che esiste un rapporto morboso «tra la volontà di conoscenza e l’emozione che offre un’informazione che appare nel proprio feed. Siamo così emozionati nel leggere qualcosa a cui vogliamo credere che non perdiamo tempo a capire se sia vera o no». Anche per questo l’account è interessante, perché cerca di rimanere sempre reale (tranne quando l’algoritmo fa errori di grammatica associando i vari pezzi) pur sguazzando nel caso. Ad esempio questo tweet su Messi è bizzarro ma… perché non crederci? D’altronde è un fun fact!

E se i cigni neri potessero davvero respirare dalle loro zampe? C’è qualche ornitologo tra voi?

A dare l’effetto migliore sono comunque i fatti più folli e nonsense (come il seguente sui lama e la pubblicità).

La logica di @factbot1 ricorda quella di 100 Facts About Pandas, libro curato dal comico irlandese David O’Doherty che è una lunga lista di fatti sui panda. Tutti rigorosamente inventati. «I Panda venivano usati spesso come sfondo nei film in bianco e nero» non è un’informazione credibile; non lo è  nemmeno «Eleonor, panda batterista, sostituì brevemente Ringo Starr nei Beatles»: sono battute scritte sulla base del genere “curiosità dal mondo”, un formato di successo, e c’è chi ha acquistato credendo raccogliesse dati scientifici. Lo stesso avviene con la creatura di Eric Drass, che comincia a intercettare qualche commento seccato in risposta ai suoi tweet: «C’è chi scrive, “ehi questa cosa non è vera, i cigni non respirano dalle zampe!” Succede perlopiù quando i retweet raggiungono utenti lontani [dal giro di follower di @factbot1, NdA] che non si aspettano di leggere fatti “finti”».

C’è una mutazione in corso del concetto di verità, fenomeno trattato anche dal giornalista Farhad Manjoo nel suo True Enough (2008), in cui ha notato come il fenomeno sia legato a doppio filo con la diffusione di internet ma si possa scorgere anche nella cara vecchia televisione. Ad esempio nella forbice che separa la “realtà” di Fox News, canale spiccatamente conservatore statunitense, e quella di altri network: sono credenze diverse spacciate per realtà che sembrano cucite su misura ai pubblici televisivi. Questa realtà «spezzata», come la definisce Manjoo, grandina poi sui social network e i blog, territorio dove è facile spacciare baggianate per Vangelo.

Il XXI secolo sembra piegato da una nuova forma di “verità” che vuole imporsi come fattuale e relativa allo stesso tempo – un concetto ossimoro per tempi confusi. A rendere la situazione ancora più particolare, il più grande studioso di questa realtà non è uno scienziato ma un comico statunitense, Stephen Colbert. Nel 2005, nella puntata pilota del suo show The Colbert Report, show in cui si finge un commentatore repubblicano à la Fox News, il presentatore coniò una parola nuova: “truthiness“. Un neologismo intraducibile (qualcosa di simile a “verità-rietà”), in cui il concetto di “verità” diventa relativo e personale.

A decidere il “grado” di verità è ovviamente la “pancia” della ggente, la passione con cui si crede a qualcosa. Opinioni (o bugie) così forti che non possono di certo essere false.

 
 

Immagine: il meme “Schrute Facts” ispirato al personaggio di The Office US Dwight Schrute.
Leggi anche: “Quello che ci fanno gli algoritmi

Articoli Suggeriti
Social Media Manager

Leggi anche ↓
Social Media Manager

Ripensare tutto

Le storie, le interviste, i personaggi del nuovo numero di Rivista Studio.

Il surreale identikit di uno degli autori dell’attentato a Darya Dugina diffuso dai servizi segreti russi

La Nasa è riuscita a registrare il rumore emesso da un buco nero

Un algoritmo per salvare il mondo

Come funziona Jigsaw, la divisione (poco conosciuta) di Google che sta cercando di mettere la potenza di calcolo digitale del motore di ricerca al servizio della democrazia, contro disinformazione, manipolazioni elettorali, radicalizzazioni e abusi.