Hype ↓
11:28 venerdì 20 marzo 2026
Steven Soderbergh sta per lanciare una app che racconta e spiega ogni singolo giorno di riprese de Lo squalo L'app comprenderà una saggio di 25 mila parole scritto da Soderbergh e tutti i dettagli possibili e immaginabili sulle riprese del capolavoro di Speilberg.
Gli impallinati di alieni sono convinti che gli Usa stiano per dire che gli alieni esistono perché il governo ha registrato il dominio aliens.gov Tutti quelli che non sono impallinati di alieni, invece, dicono che è solo un altro tentativo di Trump di distrarre l'opinione pubblica dagli Epstein Files.
Qualcuno si è inventato un traduttore che traduce qualsiasi cosa dici nella ridicola lingua tipica di LinkedIn Si chiama Kagi Translate e vi insegnerà come trasformare qualsiasi cosa vi succede sul lavoro in un «nuovo emozionante capitolo!».
Dopo averci investito 80 miliardi di dollari e averci guadagnato zero dollari, Zuckerberg ha chiuso il metaverso di Meta Quattro anni a ripetere che in futuro avremmo tutti vissuto in Horizon Worlds. Oggi Horizon Worlds non esiste più.
Per i 25 anni della saga si terrà un rave party a tema Signore degli Anelli in cui il dj sarà Elijah Wood, cioè Frodo Baggins Insieme all’attore Zach Cowie, suo partner nel duo Wooden Wisdom, Wood guiderà un «rave in pieno stile Terra di Mezzo» il prossimo 31 maggio.
Zendaya sarà la protagonista di tutti i film più attesi del 2026 Sette film in un anno, uno più atteso dell'altro: si inizia con The Drama l'1 aprile e si finisce a dicembre con Dune 3.
Tulsi Gabbard, la Direttrice dell’Intelligence Usa, ha detto che non c’è nessuna prova che l’Iran stesse costruendo una bomba atomica Contraddicendo apertamente Trump, che il 4 marzo aveva detto che «se non avessimo attaccato entro due settimane, avrebbero avuto l'atomica».
Elio Germano si è fatto un profilo Instagram solo per far campagna per il No al referendum sulla giustizia La “canzone” che Germano canticchia nel video riprende quella che cantava Gigi Proietti in uno spot per il no al referendum sul divorzio.

OpenAI vuole diventare una fabbrica di realtà

Non avevamo ancora metabolizzato le immagini sempre più precise prodotte dalle intelligenze artificiali che già siamo arrivati ai video. Resta la domanda: il concetto di "reale" sta per diventare obsoleto?

04 Giugno 2024

Lo scorso 15 febbraio OpenAI, la società no-profit fondata da Elon Musk e Sam Altman, presentava Sora, la sua nuova intelligenza artificiale generativa che crea video della durata di un minuto partendo da semplici prompt testuali. Dopo i testi generati da utenti di tutto il mondo con ChatGPT e le immagini con Dall-E o Midjourney che hanno già tratteggiato una certa estetica e che, al di là dei pasticci iniziali, stanno diventando veri e propri strumenti creativi, OpenAI con Sora ci sta proiettando in un futuro (che è già presente) dove grazie a semplici input chiunque potrà generare scene complesse e realistiche che in un modo o nell’altro influenzeranno e modificheranno la nostra percezione del reale, sollevando domande che stanno già minando alcuni di quei paradigmi occidentali che spaziano dall’autorialità al precipitato politico delle immagini.

Visitando il sito di OpenAI, nella sezione dedicata a Sora, si possono ammirare alcune delle creazioni generate dal software. Tra gli esempi di questi cortometraggi la sensazione dello spettatore non è più tanto quella di meraviglia mista a sgomento che probabilmente abbiamo registrato con i primi esperimenti individuali con Dall-E, che per quanto imperfetti, già più di un anno fa lasciavano intuire il portato rivoluzionario di questo “sublime tecnologico”; ciò che maggiormente impressiona è la già totale acquisizione da parte della AI di un linguaggio, quello cinematografico, che l’uomo ha sviluppato in quasi 130 anni di storia del medium. Un altro video è stato generato dettando all’AI queste indicazioni (prompt): «Un trailer cinematografico che mostra le avventure di un trentenne astronauta che indossa un casco da motociclista rosso in lana lavorata a maglia, cielo blu, deserto salato, stile cinematografico, girato su pellicola 35mm, colori vividi».

Anche in questo caso non è tanto l’iperrealismo sempre più perfezionato a sorprendere, quanto immaginarci le imminenti trasformazioni che le AI porteranno nei mondi delle produzioni dell’industria dell’immagine in movimento. Un tenero mostriciattolo generato in stile Pixar non ha davvero niente da invidiare a quelli animati con enormi sforzi creativi e produttivi di modellazione 3D visti negli ultimi vent’anni. E ancora; le riprese di un esemplare di colomba coronata di Vittoria è già pressoché indistinguibile da quelle custodite in uno dei documentari di David Attenborough. 

A seguito delle prime condivisioni di questi “esercizi”, vari utenti online notavano imperfezioni, dettagli incongruenti e altre microscopiche anomalie: ma le AI nel giro di pochi mesi ci hanno dimostrato l’esponenziale capacità di perfezionamento delle loro simulazioni. Sam Altman diceva, lo scorso febbraio: «Sora potrebbe avere difficoltà a simulare accuratamente la fisica di una scena complessa e potrebbe non comprendere specifiche istanze di causa ed effetto. Ad esempio, una persona potrebbe dare un morso da un biscotto, ma in seguito, il biscotto potrebbe non mostrare il segno del morso». Tuttavia, questa affermazione sembrava un mese dopo già obsoleta: in un video pubblicato il primo di marzo sul profilo ufficiale Instagram di OpenAI possiamo vedere la sequenza con un uomo bianco di mezza età mentre addenta un cheeseburger, lasciando ben visibile il morso sul suo pasto. 

Ad oggi, OpenAI è ancora in una fase ritenuta dall’azienda sperimentale, e per questo ha fornito un numero limitato di accessi ai creator digitali in attesa di una vera e propria apertura al pubblico. Ha invitato sui social i common user, tuttavia, a suggerire esempi di prompt sulla piattaforma. Accanto a suggerimenti naive e forse non così necessari come “due golden retriever che registrano un podcast su una montagna”, che ha generato una bella sequenza immediatamente diventata virale, ne spiccava uno che squarciava l’atmosfera ludica e “buongiornistica” che sembra permeare l’estetica di OpenAI: «Una folla di esseri umani disoccupati si raduna intorno alla sede di OpenAI con cartelli di protesta che richiedono un reddito di base universale finanziato tramite tassazione dell’AI». Sì, perché dietro il primo strato di meraviglia verso i prodigi delle AI è impossibile scansare la serpeggiante paura distopica che questi software stanno generando al di là delle mimesis totale dei loro immaginari. 

Se per gli sviluppatori di Sora l’obiettivo è quello di sperimentare «programmi in grado di comprendere e simulare il mondo reale» e di costituire «un passo importante nella realizzazione dell’intelligenza artificiale generale» i timori restano quelli di sviluppare un sistema altamente autonomo che supererebbe gli esseri umani nella maggior parte dei compiti economicamente redditizi. OpenAI, dal canto suo, presentando Sora ha voluto mostrare sensibilità verso le implicazioni etiche della sua tecnologia annunciando che gli sviluppatori vorranno incontrare «politici, educatori e artisti di tutto il mondo per comprendere le loro preoccupazioni e identificare i casi positivi di utilizzo di questa nuova tecnologia». Il punto però non è soltanto quello “etico”, come scriveva già nel 2021 la studiosa dell’intelligenza artificiale Kate Crawford sul Guardian: «L’etica è necessaria, ma non sufficiente. Più utili sono domande come: chi trae beneficio e chi è danneggiato da questo sistema di intelligenza artificiale? E: questo sistema mette il potere nelle mani di coloro che già sono potenti? Quello che vediamo ripetutamente, dal riconoscimento facciale al tracciamento e alla sorveglianza nei luoghi di lavoro è che questi sistemi stanno dando potere a istituzioni già potenti – corporazioni, militari e polizia».

Non solo OpenAI, ma anche Meta, Google, Apple e Runway AI stanno lavorando su simili applicazioni text-to video in un panorama che al momento, nonostante varie dichiarazioni da parte delle società private, non ha nessuna regolazione. Per studiosi come Crawford è questo, invece, il settore in cui una regolamentazione internazionale sarebbe più urgente.

I più attenti osservatori stanno analizzando, giorno per giorno, l’impatto di tali tecnologie nelle imminenti elezioni americane; vista la febbrile accelerazione delle AI negli ultimi mesi, la domanda non è più se le AI influenzeranno le votazioni del prossimo autunno, ma quanto. Sebbene non ci siano ancora dati precisi sulla capacità di indirizzare l’elettorato, in assenza di una vera e propria regolamentazione, deepfake, chatbot, robocall AI e altri mezzi basati sull’intelligenza artificiale sono già stati impiegati attivamente per distorcere il reale. Lo scorso 4 marzo i sostenitori di Donald Trump hanno creato e condiviso immagini false generate dall’AI con lo scopo di orientare il voto degli afroamericani a favore dei Repubblicani.

Questa propaganda sintetica trasforma il territorio dell’immagine in un campo minato senza precedenti: dalla foto dell’arresto di Trump che ha preceduto quella reale, all’immagine di Biden avvolto in una sorta di scafandro in pluriball (per sottolinearne la fragilità), alla proliferazione di deepfake pornografici che recentemente hanno preso di mira Taylor Swift per il suo endorsement democratico, stratificando l’immaginario dell’infosfera e dell’iconosfera di tali e tanti strati di finizione da renderci pressoché incapaci cognitivamente di riconoscere il linguaggio perduto della realtà. 

Questi interrogativi che sembrano sempre più incombere nell’immediato presente furono in verità già analizzati da filosofi come Jean Baudrillard, che nel 1983 nel suo Simulacri e simulazione consegnò al termine “reale” un significato molto più aderente a ciò che stiamo affrontando: «La stessa definizione del reale diventa: ciò di cui è possibile dare una riproduzione equivalente. Questo va di pari passo con una scienza che postula che un processo possa essere riprodotto perfettamente in un insieme di condizioni date, e anche con la razionalità industriale che postula un sistema universale di equivalenza (la rappresentazione classica non è equivalenza, è trascrizione, interpretazione, commento). Al limite di questo processo di riproducibilità, il reale non è solo ciò che può essere riprodotto, ma ciò che è sempre riprodotto. L’iperreale». Pur cercando di contenere ogni forma di moral panic e di determinismo tecnologico, toccherà quindi rivedere le nostre definizioni e, come suggerisce Baudrillard, venire a patti con una dimensione dell’immagine dove reale e simulacro si sono già completamente fuse tra loro.

Questo articolo è tratto dal nuovo numero di Rivista Studio, una guida alle 10 tendenze che caratterizzano il presente e ci dicono “Dove stiamo andando” nell’immediato futuro: lo trovate nel nostro store online, qui, e in edicola.

Articoli Suggeriti
In Arco di Ugo Bienvenu c’è tutto il bello dell’animazione occidentale e orientale

Candidato all'Oscar, ispirato dai fumetti di Moebius e da quelli di Akira Toriyama, Arco è un omaggio all'arte stessa dell'animazione. Ne abbiamo parlato con il regista, Ugo Bienvenu.

Steven Soderbergh sta per lanciare una app che racconta e spiega ogni singolo giorno di riprese de Lo squalo

L'app comprenderà una saggio di 25 mila parole scritto da Soderbergh e tutti i dettagli possibili e immaginabili sulle riprese del capolavoro di Speilberg.

Leggi anche ↓
In Arco di Ugo Bienvenu c’è tutto il bello dell’animazione occidentale e orientale

Candidato all'Oscar, ispirato dai fumetti di Moebius e da quelli di Akira Toriyama, Arco è un omaggio all'arte stessa dell'animazione. Ne abbiamo parlato con il regista, Ugo Bienvenu.

Steven Soderbergh sta per lanciare una app che racconta e spiega ogni singolo giorno di riprese de Lo squalo

L'app comprenderà una saggio di 25 mila parole scritto da Soderbergh e tutti i dettagli possibili e immaginabili sulle riprese del capolavoro di Speilberg.

Zendaya sarà la protagonista di tutti i film più attesi del 2026

Sette film in un anno, uno più atteso dell'altro: si inizia con The Drama l'1 aprile e si finisce a dicembre con Dune 3.

Per Bruce Sterling, quello che succede alla musica succederà all’intelligenza artificiale

Dal 14 al 15 marzo si tenuto al Macro di Roma il convegno The Dream Syndicate. Tra gli ospiti c'era anche la leggenda della letteratura cyberpunk Bruce Sterling, che ha parlato di musica, AI, arte degli umani e arte delle macchine. Riportiamo qui il suo intervento integrale.

Per la prima volta verrà trasmesso in tv il documentario sul concerto dei Pink Floyd a Pompei

Stasera, dalle 23:35 su Rai5 verrà mandato in onda per la prima volta Pink Floyd: Live at Pompei MCMLXXII.

Hans Zimmer ha confermato che la persona che canta nel trailer di Dune 3 è proprio Timothée Chalamet

Alcuni fan avevano riconosciuto subito la voce dell'attore, ma adesso è arrivata anche la conferma del compositore della colonna sonora del film.