Hype ↓
10:07 sabato 14 marzo 2026
Kim Jong-un e sua figlia vestiti uguali che sparano assieme al poligono di tiro sono la più surreale immagine di genitorialità mai vista La giovane Kim Ju Ae, erede designata del Supremo leader, ha mostrato le sue doti balistiche in una splendida giornata padre-figlia al poligono.
Degli scrittori hanno creato un logo da apporre sui libri per far sapere ai lettori che sono scritti da un umano e non dall’AI La Society of Authors chiede a tutti gli editori di appore il logo "Human Authored" sulla quarta di copertina dei libri, per salvare l'editoria dall'AI.
I Fugazi hanno pubblicato un album “scartato” che avevano registrato trent’anni fa con Steve Albini È la prima versione dell'album che è poi diventato In on the Kill Taker. Tutti i proventi andranno all'ente benefico fondato da Albini, Letters Charity.
Dopo quasi un millennio, l’Inghilterra si è decisa ad abolire definitivamente i seggi ereditari della Camera dei Lord Ne erano rimasti 92, che il governo laburista ha cancellato. Concedendo ad alcuni Lord, però, di diventare parlamentari a vita.
I protagonisti di The Voice of Hind Rajab, candidato all’Oscar per il Miglior film internazionale, non saranno alla cerimonia perché gli Usa vietano l’ingresso ai cittadini palestinesi Ad annunciarlo sono stati gli attori e le attrici del film, con una dichiarazione congiunta pubblicata sui loro profili social.
È stato annunciato il sequel di KPop Demon Hunters ma i registi hanno già detto che ci sarà molto da aspettare prima di vederlo Maggie Kang e Chris Appelhans hanno messo le mani avanti e avvisato i fan: i tempi di lavorazione saranno lunghi, molto lunghi.
La nuova Guida suprema dell’Iran ha detto di aver scoperto di essere la nuova Guida suprema dell’Iran guardando la tv Lo ha fatto nel suo primo messaggio alla nazione, letto da un annunciatore sui canali della tv di Stato. Per il momento, il nuovo ayatollah ancora non si è fatto vedere in pubblico.
Le persone stanno scrivendo pessime recensioni di un hotel di lusso di Dubai perché ci cadono i missili vicino Le iniziali e autentiche lamentele degli ospiti della struttura sono presto degenerate in una marea di commenti lasciati da troll di tutto il mondo, che infatti sono stati tutti prontamente rimossi.

Il problema dei video falsi

Da Deepfakes a FakeApp, l'ultima metamorfosi della disinformazione.

09 Marzo 2018

«If anything can be real, nothing is real». È una frase comparsa su Reddit, sul forum del canale Deepfakes dove migliaia di utenti hanno condiviso i loro video fasulli ma apparentemente reali e si sono scambiati consigli su come renderli ancora più realistici. Deepfakes è ormai la parola usata per definire i filmati manipolati, realizzati attraverso un programma che utilizza l’intelligenza artificiale per sostituire digitalmente la faccia di una persona con quella di un’altra. Il nome viene dall’utente di Reddit “deepfakes” che, a fine 2017, ha messo a disposizione di tutti i codici e gli algoritmi che permettono un credibile face-swap attraverso l’analisi di varie fotografie di un soggetto. Il “deep” a cui fa riferimento il nome è il deep learning, il campo di apprendimento automatico delle intelligenze artificiali.

Così, nell’arco di pochi mesi, i deepfakes sono diventati la nuova forma di manipolazione dei media digitali. Fino non molto tempo fa i filmati realistici generati dal computer erano alla portata solo di produzioni hollywoodiane di grande budget o di ricercatori all’avanguardia. Mentre le app dei social come Snapchat offrono tecnologie rudimentali di morphing del viso. Ora si stanno sperimentando strumenti sofisticati di facile utilizzo. Dopo che deepfakes ha condiviso online i suoi codici, ad aumentare la diffusione di video di questo tipo è arrivato FakeApp, un programma creato da uno sviluppatore anonimo che utilizza un software open source scritto da Google.

Oltre a essere gratuito, FakeApp riduce e ottimizza i passaggi per ottenere un face swapping accurato, senza lasciare tracce di manipolazione. Da quado è apparsa su Reddit, lo scorso gennaio, è stata scaricata più di 120.000 volte. Hanno cominciato così a diffondersi video pornografici fasulli. Uno dei primi ritraeva Michelle Obama alle prese con uno striptease. Poi sono apparsi quelli con Gal Godot, Jessica Alba, Katy Perry e Cara Delevingne. L’effetto, in tutti i casi, era inquietante: molto difficile capire immediatamente di trovarsi di fronte a un falso. Intervistato dal Los Angeles Times, Hany Farid, esperto di informatica forense del Dartmouth College, ha spiegato che osservare con attenzione il flusso sanguigno del viso a volte può determinare se il filmato è reale. Così come lievi imperfezioni a livello di pixel possono segnalare una manipolazione delle immagini. Però Farid è convinto che con il tempo l’intelligenza artificiale si perfezionerà ulteriormente, minando questi indizi, in una sorta di gioco gatto-topo tra algoritmi e controllori.


Ciò che appare certo è che qui si va oltre le fake news per come le abbiamo conosciute e affrontate finora perché riguarda un mezzo, il video, al quale tradizionalmente attribuiamo grande fiducia. Ed è un potente strumento di propaganda e di disinformazione. Provate a immaginare il video fasullo di Kim Jong Un che annuncia un attacco missilistico. La Casa Bianca avrebbe solo pochi minuti per verificare l’autenticità della clip e quindi decidere se contrattaccare o meno. La verità, già indebolita dalla campagna di disinformazione della Russia e dalla propensione del presidente Trump a rilanciare fake news, rischia di diventare più soggettiva che mai. E, al di là delle implicazioni politiche, non è difficile immaginare un mondo in cui i social media siano inondati da video ritoccati e fasulli che prendono di mira la gente comune per vendetta, estorsione o semplice spirito troll. Il pericolo non è solo il credere alle bufale, ma anche rigettare ciò che è reale.

«Le piattaforme stanno iniziando a prendere sul serio la disinformazione dal 2016, almeno ad alcuni livelli», ha spiegato Aviv Ovadya, chief technologist del Center for social media responsibility, al Los Angeles Times. «Ma fare le cose in scala è molto più difficile, è un campo di gioco totalmente diverso rispetto agli altri. È un problema da affrontare a un livello di infrastruttura tecnica profonda». Per ora Pornhub ha eliminato tutti i video classificati con il tag “deepfakes” e Twitter ha annunciato che bloccherà qualsiasi utente che diffonda questo genere di contenuti. Mentre Reddit ha chiuso diversi gruppi deepfake, incluso uno con quasi 100.000 membri.

Contattato via mail dal New York Times, il creatore di FakeApp – uno sviluppatore di software del Maryland che si firma N. – ha raccontato di aver creato l’app come un puro esperimento creativo, pur avendone intuito subito le potenzialità. Si è detto dispiaciuto dell’utilizzo che se ne sta facendo in gran parte dei casi, ma ha difeso il suo prodotto: «Ci ho pensato molto e alla fine ho deciso che non penso sia giusto condannare la tecnologia stessa che può naturalmente essere utilizzata per molti scopi, buoni e cattivi». Secondo N. in futuro FakeApp potrebbe essere utilizzato per ottenere effetti speciali che prima richiedevano un alto budget. N. immagina inoltre che gli algoritmi di deep learning, in futuro saranno usati come componenti di molti prodotti tecnologici: «È proprio ciò che rende la tecnologia così potente e utile a renderla così spaventosa. Non c’è davvero alcun limite a quello che si può creare con un po’ di immaginazione».

Articoli Suggeriti
Durante i festeggiamenti per il 30esimo anniversario della serie è stato annunciato un nuovo anime di Evangelion

Nuova serie di cui non si sa assolutamente niente, ma questo non ha impedito alla macchina dell'hype di entrare in funzione.

Social Media Manager

Leggi anche ↓
Durante i festeggiamenti per il 30esimo anniversario della serie è stato annunciato un nuovo anime di Evangelion

Nuova serie di cui non si sa assolutamente niente, ma questo non ha impedito alla macchina dell'hype di entrare in funzione.

Social Media Manager

Ripensare tutto

Le storie, le interviste, i personaggi del nuovo numero di Rivista Studio.

Il surreale identikit di uno degli autori dell’attentato a Darya Dugina diffuso dai servizi segreti russi

La Nasa è riuscita a registrare il rumore emesso da un buco nero