L’incrocio tra AI e pornografia è l’ennesimo disastro annunciato che non abbiamo fatto nulla per evitare

Il caso SocialMediaGirls scoppiato in seguito alla denuncia della giornalista Francesca Barra è solo l'ultimo di una ormai lunga serie di scandali simili. Tutti prova del fatto che se non regolamentata, la tecnologia può solo fare danni.

29 Ottobre 2025

Qualsiasi discorso su Internet e pornografia deve partire dal postulato enunciato da Percival Ulysses Cox, detto Perry, dottore in Medicina, protagonista di Scrubs. Il postulato è: «Sono quasi sicuro che se da internet togliessero tutta la pornografia resterebbe un solo sito chiamato “Ridateci i porno”». La proposta di vietare la pornografia torna ogni volta che la pornografia diventa fatto di cronaca (abbastanza spesso, quindi), l’ultimo fatto di cronaca in ordine cronologico è lo scandalo SocialMediaGirls, sito che tra le sue funzionalità più apprezzate – spiace dirlo, ma tant’è – ne aveva una che permetteva agli utenti di “spogliare” la fotografia di una donna tramite una AI, Undress AI, utilizzabile attraverso un semplicissimo prompt di comando e disponibile solo a pagamento. Come successo in precedenza per il gruppo Facebook “Mia Moglie” e il sito Phica.net, ormai famigerati, anche di SocialMediaGirls ci si è accorti solo adesso (possibile che nel capitalismo della sorveglianza questi siano gli unici fatti che sfuggono al tecnopanopticon?) e soltanto grazie alla pubblica denuncia di una delle vittime, la giornalista Francesca Barra, che grazie alla segnalazione di un suo follower su Facebook ha scoperto che sul sito erano presenti diverse sue immagini modificate e diverse immagini modificate di parecchie altre donne famose.

Di fronte a un fatto di cronaca come questo, si può fare uno di due discorsi. Il primo, che in Italia è portato avanti da partiti politici quali il Popolo della Famiglia di Mario Adinolfi (nemmeno la partecipazione all’Isola dei famosi lo ha aiutato a schiodarsi dallo 0 per cento che i sondaggi perennemente e universalmente gli attribuiscono), è quello che vorrebbe imporre il divieto di produzione, distribuzione e consumo di materiale pornografico, a tutti, sempre e per sempre. Oltre che inattuabile, nel caso di SocialMediaGirls questa iniziativa è anche inutile: come meritoriamente ricorda il Post in ogni articolo su fatti di questo tipo, in Italia la «diffusione illecita di immagini o video sessualmente espliciti» è già punita dalla legge (articolo 612-ter del Codice penale, da uno a sei anni di reclusione, tra i 5 e 15 mila euro di multa). Pensare di affrontare questo problema vietando la pornografia è come pensare di risolvere il problema del contrabbando di armi da fuoco vietando la produzione, distribuzione e consumo di film come John Wick.

La generative AI pornography

Consci di ciò, resta solo l’altro discorso da fare, quello che parte dal postulato di Cox, dalla consapevolezza che Internet e pornografia sono indissolubilmente legate (ne ha scritto anche Cristiano de Majo in questo pezzo, pubblicato sul numero 54 di Rivista Studio), che si chiamano l’una con il nome dell’altra. Questo discorso inizia con una domanda, la solita: che fare? Che fare con l’inevitabile, prevedibilissimo incrocio tra la “nuova” tecnologia (l’AI generativa) e la pornografia? Tutti sapevamo sarebbe successo e infatti sta succedendo, il poco tempo che questa quarta rivoluzione industriale ci ha concesso per prepararci lo abbiamo impiegato dilettandoci con l’Italian Brainrot, pensando (sperando?) che la peggiore versione dell’AI generativa potesse essere quella. Nel frattempo il peggio, quello vero, è già successo, perché la generative AI pornography ha già una voce dedicata su Wikipedia: la crescita di questo nuovo “genere” di pornografia «ha portato anche ad alcune critiche», si legge sull’enciclopedia online, che come sempre si fa apprezzare per la moderazione del linguaggio.

Altro che «alcune critiche», in realtà: la parola deepfake è stata coniata nel 2017, è almeno da allora che sappiamo che questo disastro sarebbe avvenuto. Cosa abbiamo fatto nel frattempo per evitarlo o almeno contenerlo? Quello che abbiamo fatto ogni volta che è emersa una nuova tecnologia potenzialmente apocalittica da Internet in poi: sperare che si rivelasse neutra e neutrale, scommettere sul fatto che stavolta gli esseri umani (i maschi, in particolare) si sarebbero rivelati essenzialmente buoni e che l’avrebbero impiegata soprattutto per fare del bene, affidarci ad aziende private che ci hanno giurato che stavolta avrebbero davvero messo la sicurezza di tutti davanti al profitto di pochi, che avrebbe preso tutte le precauzioni necessarie a evitare il peggio anche a costo di perderci fama, soldi e potere.

Lo abbiamo fatto nonostante già nel 2023 la situazione fosse questa: il 98 per cento delle immagini e dei video deepfake disponibili su Internet sono pornografici, il 99 per cento delle persone la cui immagine viene illegalmente usata per produrre questi “contenuti” sono donne. Sui contenuti pedopornografici generati tramite AI, solo per citare uno dei possibili altri impieghi criminali di questa tecnologia, al momento non esistono nemmeno statistiche vere e proprie. Uno studio della Commissione europea dice che entro la fine del 2025 su Internet verranno pubblicati 8 milioni di deepfake, secondo l’Europol nel 2026 il 90 per cento dei contenuti online saranno «generated synthetically», cioè da macchine, cioè la realizzazione della dead internet theory. Consapevoli di queste informazioni, abbiamo deciso che la cosa buona e giusta da fare fosse mettere a disposizione di tutti un modo ancora più facile, ancora più immediato, ancora più irresponsabile (un prompt può costituire reato? Una macchina ha personalità giuridica? La responsabilità penale va distribuita tra utente, piattaforma e azienda?) di produrre deepfake porn: la generative AI pornography, appunto.

Bastava un deepfake a capire tutto

Questo è il punto della discussione in cui bisognerebbe fare i distinguo necessari a non sembrare dei bacchettoni. Una cosa è il porno deepfake è un’altra è la generative AI pornography, bisognerebbe dire. Il primo agisce su materiale esistente (foto, video), manipolandolo per il proprio scopo illegale e violento. La seconda è appunto una tecnologia generativa, che crea dal nulla (sappiamo che non è così, le AI generative creano da Internet in spregio del diritto alla privacy e alla proprietà privata). I sostenitori della generative AI pornography – ce ne sono, basta farsi un giro per gruppi Telegram o thread Reddit, tutti piuttosto deliranti – ritengono che è proprio per questo che essa può essere descritta come la prima, vera forma di pornografia perfettamente etica, totalmente innocua: anche la più perversa delle fantasie realizzate non può costituire crimine né violenza né abuso se a realizzarla è una macchina che “materializza” quella fantasia dal nulla, senza violare nessun corpo, nessuna mente, nessuna legge nel frattempo.

Ovviamente si tratta dell’ennesimo punto di vista tecnottimista già smentito dai fatti, già superato dagli usi e costumi degli utenti, come i numeri citati prima dimostrano oltre ogni ragionevole dubbio. Senza considerare che, nel lasciare che la generative AI pornography si diffondesse in perfetta deregulation, non ci si è fermati nemmeno un attimo a riflettere (se non ora che è troppo tardi e proponendo come soluzione l’uso del sostituto psicanalista ChatGPT) sugli effetti che sulla psiche può avere la realizzazione delle più inconfessabili perversioni, per di più con un grado di realismo che rende queste ultime quasi indistinguibili dalla realtà.

Stupisce quanta difficoltà stiamo dimostrando di avere nell’apprendere l’unica lezione che davvero conta quando si tratta di tecnologia, cioè che quest’ultima va giudicata per le sue estreme conseguenze e non per le sue buone intenzioni. Fornire all’utente qualunque un mezzo che rimuove gli ultimi ostacoli morali, etici e tecnologici che lo separano dalla realizzazione delle fantasie più inconfessabili si è rivelata, per la sorpresa di nessuno, la via più breve per il disastro. Un disastro di cui casi come quello di SocialMediaGirls sono e saranno, purtroppo, solo una piccolissima ma chiacchieratissima parte. L’attention span ormai è quello che è, ma è utile ricordare che la prima volta che il problema di queste nuove pornografie è diventato oggetto di pubblico dibattito fu quando Scarlett Johansson (una delle vittime più frequenti di questa forma di violenza) denunciò la cosa in un’intervista al Washington Post. Era il 2018.

Il filo che lega tutti i disastri tecnologici – ormai tanti – che abbiamo vissuto dall’arrivo di Internet a oggi è ovviamente il vuoto legislativo in cui gli stessi avvengono, l’assenza di uno sforzo regolamentativo che dovrebbe essere il mestiere della politica, la dabbenaggine con cui le istituzioni si fanno (vogliono farsi) raggirare da aziende private che ogni volta promettono che stavolta è vero, questa volta useremo la tecnologia per salvare il mondo e realizzare Utopia in Terra. Perché a queste tecnologie sia permesso ogni volta di diventare inevitabili senza affrontare alcun tipo di opposizione è una domanda alla quale è quasi impossibile rispondere. O forse è fin troppo facile farlo. In questi giorni, Sam Altman, il Ceo di OpenAI, ha annunciato che da dicembre su ChatGPT verrà introdotta la possibilità, per gli utenti verificati, di generare contenuti per adulti. Ha promesso, Altman, che tutto sarà fatto garantendo un «ambiente sicuro» a tutti e tutte, che non ci saranno rischi per nessuno, che i contenuti generati saranno rispettosi delle leggi degli uomini e di Dio. Chissà, magari stavolta è la volta buona, forse stavolta è la volta che la promessa viene mantenuta. Sono sicuro lo scopriremo presto, so che non molto tempo ci separa dal prossimo scandalo.

Ogni settimana ChatGPT parla con oltre un milione di utenti che minacciano di suicidarsi

Lo ha rivelato la stessa OpenAI in una ricerca: dei suoi 800 milioni di utenti, un milione (purtroppo) usa il chatbot in questo modo.

Dal marito di Gisèle Pelicot a quelli del gruppo Facebook “Mia moglie”, la colpa è sempre di un uomo qualunque

Troppo spesso nel discorso sulla violenza di genere si finisce a parlare di mostri o di pervertiti, di devianze e di eccezioni. I tanti fatti di cronaca, invece, ci dicono tutt'altro, ormai da anni.

Leggi anche ↓
Ogni settimana ChatGPT parla con oltre un milione di utenti che minacciano di suicidarsi

Lo ha rivelato la stessa OpenAI in una ricerca: dei suoi 800 milioni di utenti, un milione (purtroppo) usa il chatbot in questo modo.

Alcune AI starebbero sviluppando il “survival drive”, un istinto di sopravvivenza simile a quello che fece impazzire Hal 9000 in 2001: Odissea nello spazio

Alcuni studi mostrano come molte intelligenze artificiali sabotano i tentativi di spegnerle.

L’Albania non solo ha una ministra AI, ma questa ministra AI è anche incinta di 83 figli AI

Ogni "figlio" di Diella fungerà da assistente personale per uno degli 83 parlamentari del Partito Socialista d’Albania.

Nelle recensioni di Pitchfork verrà aggiunto il voto dei lettori accanto a quello del critico

E verrà aggiunta anche una sezione commenti, disponibile non solo per le nuove recensioni ma anche per tutte le 30 mila già pubblicate.

L’episodio di una serie con la più alta valutazione di sempre su Imdb non è più “Ozymandias” di Breaking Bad ma uno stream di Fortnite fatto da IShowSpeed

Sulla piattaforma adesso ci sono solo due episodi da 10/10: "Ozymandias" e “Early Stream!”, che però è primo in classifica perché ha ricevuto più voti.

Anche quest’anno, il solito Tommaso Debenedetti ha diffuso la solita fake news sull’improvvisa morte del vincitore del Nobel per la Letteratura

L'autodefinitosi «campione italiano della menzogna» prosegue così la sua lunga striscia di bufale a tema letterario, stavolta la vittima è László Krasznahorkai.