Realtà generata

I video iper realistici di Sora, la nuova intelligenza artificiale di OpenAI, hanno meravigliato e terrorizzato chi li ha visti. Gli apocalittici si chiedono: siamo pronti a vivere nell'epoca della post-realtà?

di Studio
20 Febbraio 2024

Che cosa succederebbe se una sofisticatissima e cattivissima macchina proiettasse davanti ai nostri occhi una finzione così perfetta da sovrapporsi alla realtà fino a sostituirla, fino a farcela dimenticare, fino a convincerci che è essa stessa la realtà? È una delle domande che si sono poste le sorelle Wachowski nel 1999: la loro risposta alla fine fu Matrix. È la stessa domanda che (speriamo, almeno) si è posto il Ceo di OpenAI Sam Altman da quando ha cominciato a lavorare sull’intelligenza artificiale: la sua risposta è arrivata in questi giorni, si chiama Sora (cielo in giapponese), text-to-video AI Model capace di generare scene «realistiche e fantastiche». La parola chiave qui è “scene”: a differenza di Dall-E, l’altro modello di intelligenza artificiale capace di generare immagini a partire da indicazioni testuali, altro prodotto del campionario OpenAI, Sora è capace di trasformare le parole in video lunghi 60 secondi al massimo.

I primi video generati da Sora li ha mostrati Altman sul suo profilo X. Ansioso di mostrare al mondo le prodezze di cui è capace la sua nuova creazione, Altman ha invitato i suoi follower a proporre dei prompt e a vedere cosa ne faceva Sora. Ne è venuto fuori un thread apparso in tutti i feed social e su tutte le homepage dei siti d’informazione: video realistici – iper realistici se confrontati con le prime “opere” generate dall’intelligenza artificiale – che negli occhi di chi li ha guardati hanno generato un sensazione a metà tra l’orgoglio («Ma quello che sappiamo per certo è che un bel giorno, all’inizio del XXI secolo, l’umanità intera si ritrovò unita all’insegna dei festeggiamenti. Grande fu la meraviglia per la nostra magnificenza mentre davamo alla luce I.A.», spiegava Morpheus a uno stordito Neo) e l’orrore: “Don’t believe the eye” è la frase che si è letta più spesso nei sempre più apocalittici thread Reddit e gruppi Facebook dedicati alle nuove tecnologie.

È un discorso che si ripete identico a ogni grande balzo in avanti della tecnologia. Dall’inizio di quest’anno abbiamo visto la fine del mondo prendere prima la forma degli impianti neurali di Elon Musk, poi quella dei visori per la realtà aumentata di Apple, e adesso quella delle immagini in movimento di Sora. A nessuno piace l’idea di passare per tecnoreazionario, ma è pure comprensibile la preoccupazione davanti a un mondo che sembra andare spedito verso la singolarità tecnologica auspicata dagli accelerazionisti. Soprattutto, è comprensibile l’inquietudine di fronte alla diffusa tendenza della tecnologica a strappare e ricucire a suo piacimento il tessuto stesso della realtà: manomettendo il cervello umano (Neuralink), modificando il senso fondamentale (la vista) o addirittura creando dal nulla, se davvero nulla si può definire un prompt di comando, una realtà nuova (Sora).

“Can We No Longer Believe Anything We See?”, scrivevano Tiffany Hsu e Steven Lee Myers sul New York Times nell’aprile dello scorso anno. Certo, si può dire che questa è una domanda che l’umanità si pone da quando ha cominciato a riflettere su se stessa, da Platone a Braudillard passando per tutti i pensatori passati, presenti e futuri. Ma si può anche dire che adesso, per la prima volta nella storia, l’umanità ha a disposizione – e ha anche la predisposizione, dopo anni in cui i feed composti in gran parte di immagini sono diventati il nostro principale strumento per esperire il mondo – il potere semidivino di creare una realtà altra e la libertà di scegliere in quale realtà risiede la verità. Il discorso sull’intelligenza artificiale – e in particolare sulle immagini generate usando l’intelligenza artificiale – probabilmente avrebbe preso una piega completamente diversa se questa tecnologia non fosse arrivata in mezzo a due guerre che hanno cancellato quasi tutte le poche certezze costruite dal secondo dopoguerra a oggi. Se la Russia non avesse invaso l’Ucraina, se Hamas non avesse attaccato i kibbutz israeliani, se lo Stato d’Israele non avesse fatto terra bruciata nella Striscia di Gaza, forse oggi il discorso sull’intelligenza artificiale sarebbe incentrato sui grossolani errori che ChatGPT ancora commette davanti al più banale dei quesiti o sulla difficoltà di Dall-E di contare le dita presenti sulla mano di un essere umano.

Ma viviamo nell’epoca in cui si combattono due guerre che sono guerre della disinformazione, ed è per questo che Sora – e i suoi predecessori e i suoi successori – hanno immediatamente suscitato un tale e istintivo malessere: tutto quello che può andare storto andrà storto, lo sentiamo. Di più: lo sappiamo. La reazione più apprezzata di fronte alle apparentemente infinite capacità generative di Sora è stato un post in cui un utente X immagina un futuro in cui gli esseri umani guardano impotenti e increduli «video di noi stessi che commettiamo omicidi che non abbiamo commesso». Per comprendere appieno il potenziale distruttivo dei social media ci sono voluti quasi vent’anni, diverse tornate elettorali, due guerre e una pandemia. Nei confronti dell’AI c’è stata invece sin dall’inizio una risposta basata, anche se non soprattutto, sul automatismo dell’attacco-o-fuga: la paura di essere di fronte a una minaccia all’esistenza stessa dell’umanità è stata palpabile sin dalla prima risposta “emessa” da ChatGPT, dalla prima immagine “disegnata” da Midjourney.

Abbiamo provato a sottovalutare la situazione, come sempre abbiamo fatto di fronte alle implicazioni potenzialmente disastrose delle novità tecnologiche. Abbiamo provato ad autoconvincerci che l’AI fosse un giocattolaio e che le sue creazioni fossero per il nostro divertimento: “foto” del Papa che passeggia per Roma con addosso un piumino Moncler, di panciutissimi uomini che prendono a calci nel muso coccodrilli, di Donald Trump che viene preso in custodia dalle forze dell’ordine. È stato divertente fino a quando le persone non hanno cominciato a credere che il Papa stesse davvero passeggiando per Roma con addosso un piumino Moncler, che davvero Donald Trump fosse stato preso in custodia dalle forze dell’ordine. Dal canto suo, Big Tech ha provato a fingersi preoccupata per le sorti dell’umanità: ci sono stati richiami a un cessate lo sviluppo prima che sia troppo tardi, proposte di accordi internazionali per il bene collettivo, rassicurazioni generiche su sicurezza e privacy. Tutto mentre ogni corporation si dotava della sua AI, replicando esattamente la proliferazione delle armi nucleari negli arsenali degli Stati, provando a mascherare il tutto con nomignoli da nerd (Grok, l’AI di Elon Musk) o da sognatori (Sora, appunto).

L’autore delle immagini di Donald Trump in manette era Eliot Higgins, giornalista britannico e fondatore del gruppo di giornalismo investigativo Bellingcat. Nonostante avesse pubblicato l’immagine precisando che si trattava di un prodotto di Midjourney, tantissime persone l’hanno presa per vera e ricondivisa accompagnandola con uno strillo che annunciava l’arresto dell’ex Presidente. Per capire se il problema fosse nella mente fallace delle persone o nell’eccessiva raffinatezza dei meccanismi generativi della macchina, Higgins aveva sottoposto quelle immagini al vaglio del software che a Bellingcat si usa per riconoscere fotomontaggi e deepfake. Risultato: il software aveva assicurato l’originalità e veridicità di quelle immagini. C’è chi ha anche trovato un nome per questo mondo abitato da macchine capaci di finzioni così perfette da ingannare persino le altre macchine: post-realtà.

Meta avrebbe sospeso il profilo Instagram di Florentina Holzinger, l’artista più discussa della Biennale di Venezia, per nudità

Le foto e i video della sua performance, Seaworld Venice, violano le linee guida della piattaforma in fatto di nudità, a quanto pare.

Vale la pena stare su Instagram solo per seguire Isabella Rossellini che fa i suoi vlog da Stromboli (e dal set del nuovo film di Alice Rohrwacher)

L'attrice sta condividendo su Instagram immagini e video dal set di Three Incestuous Sisters, girato negli stessi luoghi in cui i suoi genitori s'innamorarono.

Leggi anche ↓
Meta avrebbe sospeso il profilo Instagram di Florentina Holzinger, l’artista più discussa della Biennale di Venezia, per nudità

Le foto e i video della sua performance, Seaworld Venice, violano le linee guida della piattaforma in fatto di nudità, a quanto pare.

Vale la pena stare su Instagram solo per seguire Isabella Rossellini che fa i suoi vlog da Stromboli (e dal set del nuovo film di Alice Rohrwacher)

L'attrice sta condividendo su Instagram immagini e video dal set di Three Incestuous Sisters, girato negli stessi luoghi in cui i suoi genitori s'innamorarono.

La crescita dell’industria dell’AI sta causando il RAMageddon, cioè la più grave penuria di chip di memoria di tutti i tempi

Si chiama RAMageddon ed è causato dall'espansione delle server farm che hanno assorbito non solo l'attuale offerta mondiale di chip ma anche la sua capacità produttiva per diversi anni.

Canva ha ammesso che la sua AI aveva un “bug” che nelle grafiche sostituiva la parola Palestina con Ucraina senza che l’utente lo chiedesse

Lo si è scoperto grazie al progetto Cats for Palestine, una serie di grafiche in cui la parola Palestine veniva puntualmente sostituita dalla parola Ukraine.

Costruirsi un cyberdeck è diventata l’ultima forma di protesta contro la prepotenza di Big Tech

Sono piccoli computer "artigianali", costruiti con pezzi vecchi, economici e di seconda mano, e personalizzati in ogni modo possibile e immaginabile.

Hanno fatto un film sul looksmaxxing e ovviamente è un body horror

Prevedibilmente, è stato intitolato Looksmaxxing, è un cortometraggio e se ne può già vedere qualche scena nel trailer pubblicato su Instagram.