Cultura | Tech
OpenAI vuole diventare una fabbrica di realtà
Non avevamo ancora metabolizzato le immagini sempre più precise prodotte dalle intelligenze artificiali che già siamo arrivati ai video. Resta la domanda: il concetto di "reale" sta per diventare obsoleto?
Lo scorso 15 febbraio OpenAI, la società no-profit fondata da Elon Musk e Sam Altman, presentava Sora, la sua nuova intelligenza artificiale generativa che crea video della durata di un minuto partendo da semplici prompt testuali. Dopo i testi generati da utenti di tutto il mondo con ChatGPT e le immagini con Dall-E o Midjourney che hanno già tratteggiato una certa estetica e che, al di là dei pasticci iniziali, stanno diventando veri e propri strumenti creativi, OpenAI con Sora ci sta proiettando in un futuro (che è già presente) dove grazie a semplici input chiunque potrà generare scene complesse e realistiche che in un modo o nell’altro influenzeranno e modificheranno la nostra percezione del reale, sollevando domande che stanno già minando alcuni di quei paradigmi occidentali che spaziano dall’autorialità al precipitato politico delle immagini.
Visitando il sito di OpenAI, nella sezione dedicata a Sora, si possono ammirare alcune delle creazioni generate dal software. Tra gli esempi di questi cortometraggi la sensazione dello spettatore non è più tanto quella di meraviglia mista a sgomento che probabilmente abbiamo registrato con i primi esperimenti individuali con Dall-E, che per quanto imperfetti, già più di un anno fa lasciavano intuire il portato rivoluzionario di questo “sublime tecnologico”; ciò che maggiormente impressiona è la già totale acquisizione da parte della AI di un linguaggio, quello cinematografico, che l’uomo ha sviluppato in quasi 130 anni di storia del medium. Un altro video è stato generato dettando all’AI queste indicazioni (prompt): «Un trailer cinematografico che mostra le avventure di un trentenne astronauta che indossa un casco da motociclista rosso in lana lavorata a maglia, cielo blu, deserto salato, stile cinematografico, girato su pellicola 35mm, colori vividi».
Anche in questo caso non è tanto l’iperrealismo sempre più perfezionato a sorprendere, quanto immaginarci le imminenti trasformazioni che le AI porteranno nei mondi delle produzioni dell’industria dell’immagine in movimento. Un tenero mostriciattolo generato in stile Pixar non ha davvero niente da invidiare a quelli animati con enormi sforzi creativi e produttivi di modellazione 3D visti negli ultimi vent’anni. E ancora; le riprese di un esemplare di colomba coronata di Vittoria è già pressoché indistinguibile da quelle custodite in uno dei documentari di David Attenborough.
A seguito delle prime condivisioni di questi “esercizi”, vari utenti online notavano imperfezioni, dettagli incongruenti e altre microscopiche anomalie: ma le AI nel giro di pochi mesi ci hanno dimostrato l’esponenziale capacità di perfezionamento delle loro simulazioni. Sam Altman diceva, lo scorso febbraio: «Sora potrebbe avere difficoltà a simulare accuratamente la fisica di una scena complessa e potrebbe non comprendere specifiche istanze di causa ed effetto. Ad esempio, una persona potrebbe dare un morso da un biscotto, ma in seguito, il biscotto potrebbe non mostrare il segno del morso». Tuttavia, questa affermazione sembrava un mese dopo già obsoleta: in un video pubblicato il primo di marzo sul profilo ufficiale Instagram di OpenAI possiamo vedere la sequenza con un uomo bianco di mezza età mentre addenta un cheeseburger, lasciando ben visibile il morso sul suo pasto.
Ad oggi, OpenAI è ancora in una fase ritenuta dall’azienda sperimentale, e per questo ha fornito un numero limitato di accessi ai creator digitali in attesa di una vera e propria apertura al pubblico. Ha invitato sui social i common user, tuttavia, a suggerire esempi di prompt sulla piattaforma. Accanto a suggerimenti naive e forse non così necessari come “due golden retriever che registrano un podcast su una montagna”, che ha generato una bella sequenza immediatamente diventata virale, ne spiccava uno che squarciava l’atmosfera ludica e “buongiornistica” che sembra permeare l’estetica di OpenAI: «Una folla di esseri umani disoccupati si raduna intorno alla sede di OpenAI con cartelli di protesta che richiedono un reddito di base universale finanziato tramite tassazione dell’AI». Sì, perché dietro il primo strato di meraviglia verso i prodigi delle AI è impossibile scansare la serpeggiante paura distopica che questi software stanno generando al di là delle mimesis totale dei loro immaginari.
Se per gli sviluppatori di Sora l’obiettivo è quello di sperimentare «programmi in grado di comprendere e simulare il mondo reale» e di costituire «un passo importante nella realizzazione dell’intelligenza artificiale generale» i timori restano quelli di sviluppare un sistema altamente autonomo che supererebbe gli esseri umani nella maggior parte dei compiti economicamente redditizi. OpenAI, dal canto suo, presentando Sora ha voluto mostrare sensibilità verso le implicazioni etiche della sua tecnologia annunciando che gli sviluppatori vorranno incontrare «politici, educatori e artisti di tutto il mondo per comprendere le loro preoccupazioni e identificare i casi positivi di utilizzo di questa nuova tecnologia». Il punto però non è soltanto quello “etico”, come scriveva già nel 2021 la studiosa dell’intelligenza artificiale Kate Crawford sul Guardian: «L’etica è necessaria, ma non sufficiente. Più utili sono domande come: chi trae beneficio e chi è danneggiato da questo sistema di intelligenza artificiale? E: questo sistema mette il potere nelle mani di coloro che già sono potenti? Quello che vediamo ripetutamente, dal riconoscimento facciale al tracciamento e alla sorveglianza nei luoghi di lavoro è che questi sistemi stanno dando potere a istituzioni già potenti – corporazioni, militari e polizia».
Non solo OpenAI, ma anche Meta, Google, Apple e Runway AI stanno lavorando su simili applicazioni text-to video in un panorama che al momento, nonostante varie dichiarazioni da parte delle società private, non ha nessuna regolazione. Per studiosi come Crawford è questo, invece, il settore in cui una regolamentazione internazionale sarebbe più urgente.
I più attenti osservatori stanno analizzando, giorno per giorno, l’impatto di tali tecnologie nelle imminenti elezioni americane; vista la febbrile accelerazione delle AI negli ultimi mesi, la domanda non è più se le AI influenzeranno le votazioni del prossimo autunno, ma quanto. Sebbene non ci siano ancora dati precisi sulla capacità di indirizzare l’elettorato, in assenza di una vera e propria regolamentazione, deepfake, chatbot, robocall AI e altri mezzi basati sull’intelligenza artificiale sono già stati impiegati attivamente per distorcere il reale. Lo scorso 4 marzo i sostenitori di Donald Trump hanno creato e condiviso immagini false generate dall’AI con lo scopo di orientare il voto degli afroamericani a favore dei Repubblicani.
Questa propaganda sintetica trasforma il territorio dell’immagine in un campo minato senza precedenti: dalla foto dell’arresto di Trump che ha preceduto quella reale, all’immagine di Biden avvolto in una sorta di scafandro in pluriball (per sottolinearne la fragilità), alla proliferazione di deepfake pornografici che recentemente hanno preso di mira Taylor Swift per il suo endorsement democratico, stratificando l’immaginario dell’infosfera e dell’iconosfera di tali e tanti strati di finizione da renderci pressoché incapaci cognitivamente di riconoscere il linguaggio perduto della realtà.
Questi interrogativi che sembrano sempre più incombere nell’immediato presente furono in verità già analizzati da filosofi come Jean Baudrillard, che nel 1983 nel suo Simulacri e simulazione consegnò al termine “reale” un significato molto più aderente a ciò che stiamo affrontando: «La stessa definizione del reale diventa: ciò di cui è possibile dare una riproduzione equivalente. Questo va di pari passo con una scienza che postula che un processo possa essere riprodotto perfettamente in un insieme di condizioni date, e anche con la razionalità industriale che postula un sistema universale di equivalenza (la rappresentazione classica non è equivalenza, è trascrizione, interpretazione, commento). Al limite di questo processo di riproducibilità, il reale non è solo ciò che può essere riprodotto, ma ciò che è sempre riprodotto. L’iperreale». Pur cercando di contenere ogni forma di moral panic e di determinismo tecnologico, toccherà quindi rivedere le nostre definizioni e, come suggerisce Baudrillard, venire a patti con una dimensione dell’immagine dove reale e simulacro si sono già completamente fuse tra loro.
Questo articolo è tratto dal nuovo numero di Rivista Studio, una guida alle 10 tendenze che caratterizzano il presente e ci dicono “Dove stiamo andando” nell’immediato futuro: lo trovate nel nostro store online, qui, e in edicola.