Attualità | Tech

Realtà generata

I video iper realistici di Sora, la nuova intelligenza artificiale di OpenAI, hanno meravigliato e terrorizzato chi li ha visti. Gli apocalittici si chiedono: siamo pronti a vivere nell'epoca della post-realtà?

di Studio

Che cosa succederebbe se una sofisticatissima e cattivissima macchina proiettasse davanti ai nostri occhi una finzione così perfetta da sovrapporsi alla realtà fino a sostituirla, fino a farcela dimenticare, fino a convincerci che è essa stessa la realtà? È una delle domande che si sono poste le sorelle Wachowski nel 1999: la loro risposta alla fine fu Matrix. È la stessa domanda che (speriamo, almeno) si è posto il Ceo di OpenAI Sam Altman da quando ha cominciato a lavorare sull’intelligenza artificiale: la sua risposta è arrivata in questi giorni, si chiama Sora (cielo in giapponese), text-to-video AI Model capace di generare scene «realistiche e fantastiche». La parola chiave qui è “scene”: a differenza di Dall-E, l’altro modello di intelligenza artificiale capace di generare immagini a partire da indicazioni testuali, altro prodotto del campionario OpenAI, Sora è capace di trasformare le parole in video lunghi 60 secondi al massimo.

I primi video generati da Sora li ha mostrati Altman sul suo profilo X. Ansioso di mostrare al mondo le prodezze di cui è capace la sua nuova creazione, Altman ha invitato i suoi follower a proporre dei prompt e a vedere cosa ne faceva Sora. Ne è venuto fuori un thread apparso in tutti i feed social e su tutte le homepage dei siti d’informazione: video realistici – iper realistici se confrontati con le prime “opere” generate dall’intelligenza artificiale – che negli occhi di chi li ha guardati hanno generato un sensazione a metà tra l’orgoglio («Ma quello che sappiamo per certo è che un bel giorno, all’inizio del XXI secolo, l’umanità intera si ritrovò unita all’insegna dei festeggiamenti. Grande fu la meraviglia per la nostra magnificenza mentre davamo alla luce I.A.», spiegava Morpheus a uno stordito Neo) e l’orrore: “Don’t believe the eye” è la frase che si è letta più spesso nei sempre più apocalittici thread Reddit e gruppi Facebook dedicati alle nuove tecnologie.

È un discorso che si ripete identico a ogni grande balzo in avanti della tecnologia. Dall’inizio di quest’anno abbiamo visto la fine del mondo prendere prima la forma degli impianti neurali di Elon Musk, poi quella dei visori per la realtà aumentata di Apple, e adesso quella delle immagini in movimento di Sora. A nessuno piace l’idea di passare per tecnoreazionario, ma è pure comprensibile la preoccupazione davanti a un mondo che sembra andare spedito verso la singolarità tecnologica auspicata dagli accelerazionisti. Soprattutto, è comprensibile l’inquietudine di fronte alla diffusa tendenza della tecnologica a strappare e ricucire a suo piacimento il tessuto stesso della realtà: manomettendo il cervello umano (Neuralink), modificando il senso fondamentale (la vista) o addirittura creando dal nulla, se davvero nulla si può definire un prompt di comando, una realtà nuova (Sora).

“Can We No Longer Believe Anything We See?”, scrivevano Tiffany Hsu e Steven Lee Myers sul New York Times nell’aprile dello scorso anno. Certo, si può dire che questa è una domanda che l’umanità si pone da quando ha cominciato a riflettere su se stessa, da Platone a Braudillard passando per tutti i pensatori passati, presenti e futuri. Ma si può anche dire che adesso, per la prima volta nella storia, l’umanità ha a disposizione – e ha anche la predisposizione, dopo anni in cui i feed composti in gran parte di immagini sono diventati il nostro principale strumento per esperire il mondo – il potere semidivino di creare una realtà altra e la libertà di scegliere in quale realtà risiede la verità. Il discorso sull’intelligenza artificiale – e in particolare sulle immagini generate usando l’intelligenza artificiale – probabilmente avrebbe preso una piega completamente diversa se questa tecnologia non fosse arrivata in mezzo a due guerre che hanno cancellato quasi tutte le poche certezze costruite dal secondo dopoguerra a oggi. Se la Russia non avesse invaso l’Ucraina, se Hamas non avesse attaccato i kibbutz israeliani, se lo Stato d’Israele non avesse fatto terra bruciata nella Striscia di Gaza, forse oggi il discorso sull’intelligenza artificiale sarebbe incentrato sui grossolani errori che ChatGPT ancora commette davanti al più banale dei quesiti o sulla difficoltà di Dall-E di contare le dita presenti sulla mano di un essere umano.

Ma viviamo nell’epoca in cui si combattono due guerre che sono guerre della disinformazione, ed è per questo che Sora – e i suoi predecessori e i suoi successori – hanno immediatamente suscitato un tale e istintivo malessere: tutto quello che può andare storto andrà storto, lo sentiamo. Di più: lo sappiamo. La reazione più apprezzata di fronte alle apparentemente infinite capacità generative di Sora è stato un post in cui un utente X immagina un futuro in cui gli esseri umani guardano impotenti e increduli «video di noi stessi che commettiamo omicidi che non abbiamo commesso». Per comprendere appieno il potenziale distruttivo dei social media ci sono voluti quasi vent’anni, diverse tornate elettorali, due guerre e una pandemia. Nei confronti dell’AI c’è stata invece sin dall’inizio una risposta basata, anche se non soprattutto, sul automatismo dell’attacco-o-fuga: la paura di essere di fronte a una minaccia all’esistenza stessa dell’umanità è stata palpabile sin dalla prima risposta “emessa” da ChatGPT, dalla prima immagine “disegnata” da Midjourney.

Abbiamo provato a sottovalutare la situazione, come sempre abbiamo fatto di fronte alle implicazioni potenzialmente disastrose delle novità tecnologiche. Abbiamo provato ad autoconvincerci che l’AI fosse un giocattolaio e che le sue creazioni fossero per il nostro divertimento: “foto” del Papa che passeggia per Roma con addosso un piumino Moncler, di panciutissimi uomini che prendono a calci nel muso coccodrilli, di Donald Trump che viene preso in custodia dalle forze dell’ordine. È stato divertente fino a quando le persone non hanno cominciato a credere che il Papa stesse davvero passeggiando per Roma con addosso un piumino Moncler, che davvero Donald Trump fosse stato preso in custodia dalle forze dell’ordine. Dal canto suo, Big Tech ha provato a fingersi preoccupata per le sorti dell’umanità: ci sono stati richiami a un cessate lo sviluppo prima che sia troppo tardi, proposte di accordi internazionali per il bene collettivo, rassicurazioni generiche su sicurezza e privacy. Tutto mentre ogni corporation si dotava della sua AI, replicando esattamente la proliferazione delle armi nucleari negli arsenali degli Stati, provando a mascherare il tutto con nomignoli da nerd (Grok, l’AI di Elon Musk) o da sognatori (Sora, appunto).

L’autore delle immagini di Donald Trump in manette era Eliot Higgins, giornalista britannico e fondatore del gruppo di giornalismo investigativo Bellingcat. Nonostante avesse pubblicato l’immagine precisando che si trattava di un prodotto di Midjourney, tantissime persone l’hanno presa per vera e ricondivisa accompagnandola con uno strillo che annunciava l’arresto dell’ex Presidente. Per capire se il problema fosse nella mente fallace delle persone o nell’eccessiva raffinatezza dei meccanismi generativi della macchina, Higgins aveva sottoposto quelle immagini al vaglio del software che a Bellingcat si usa per riconoscere fotomontaggi e deepfake. Risultato: il software aveva assicurato l’originalità e veridicità di quelle immagini. C’è chi ha anche trovato un nome per questo mondo abitato da macchine capaci di finzioni così perfette da ingannare persino le altre macchine: post-realtà.