Hype ↓
04:05 venerdì 9 gennaio 2026
X è diventato il sito che produce e pubblica più deepfake pornografici di tutta internet Grazie soprattutto all'AI Grok, che ogni ora sforna circa 7 mila immagini porno, usando anche foto di persone vere, senza il loro consenso.
Su Disney+ arriveranno brevi video in formato verticale per gli spettatori che non vogliono vedere film né serie ma solo fare doomscrolling L'obiettivo dichiarato è quello di conquistare il pubblico il cui unico intrattenimento sono i contenuti che trovano a caso sui social.
I fan di Stranger Things si sono convinti che sarebbe uscito un altro episodio della serie e l’hanno cercato su Netflix fino a far crashare la piattaforma Episodio che ovviamente non è mai esistito, nonostante un teoria nata tra Reddit e TikTok abbia convinto migliaia di persone del contrario.
Al funerale di Brigitte Bardot c’era anche Marine Le Pen La leader del Rassemblement National era tra i pochissimi politici invitati alla cerimonia, tenutasi mercoledì 7 gennaio a Saint-Tropez.
Durante un raid a Minneapolis gli agenti dell’Ice hanno ucciso una donna che stava scappando e il sindaco ha detto che è meglio per loro se ora «si tolgono dalle palle» «Sparite. Non vi vogliamo qui», ha detto Jacob Frey dopo l'omicidio della 37enne Renee Nicole Macklin Good.
I manifestanti iraniani hanno inventato un nuovo coro per augurare la morte all’Ayatollah Khamenei Un coro abbastanza esplicito, anche: si parla dell'anno nuovo, di sangue e di cosa si meriterebbe il capo della Repubblica islamica.
La tuta indossata da Maduro mentre veniva sequestrato dagli americani è diventata uno dei capi più desiderati del momento Lo certificano i meme, ma anche Google Trend, che nel weekend ha riscontrato un’impennata di ricerche collegate al completo di Nike Tech.
Un collettivo di registi indipendenti ha fatto un film su Mark Fisher che verrà presentato anche a Milano S'intitola We Are Making a Film About Mark Fisher, mescola documentario, performance e finzione per provare a spiegare chi è stato Mark Fisher.

Autocomplete è razzista? Google ci sta lavorando

24 Aprile 2018

Capita spesso di digitare una frase su Google e di fermarsi a metà, per farsi due risate sui suggerimenti che la completano. La funzione di Google è un algoritmo che prova a toglierti le parole di bocca, a volte azzeccandoci in pieno. Il problema è che, in altri casi, finisce per produrre frasi sessiste o razziste. Per esempio, chi comincia a digitare “le femministe”, può trovarsi suggerimenti come “odiano gli uomini”, “sono stupide”, o “sono brutte”. Chi digita “i neri sono”, può trovarsi come suggerimento “sono meno intelligenti”. E questo è, per ovvi motivi, un problema. Infatti è dal 2008, da quando l’auto-completamento è entrato in funzione, che Google sta riscontrando problemi con gli esiti offensivi della barra di ricerca. A questo problema la stessa Google ha dedicato un post recente sul suo blog: da un lato spiega come funziona l’autocomplete, e dunque da dove arrivano i suggerimenti inappropriati; dall’altro lato informa il pubblico che sta cercando di contenere il problema. La società, si legge nel post, sta già rimuovendo alcuni suggerimenti controversi, inoltre ha introdotto uno strumento che permette agli utenti di segnalarli: si chiama, prevedibilmente, “Report inappropriate predictions”.

Detto questo, se certi risultati saltano fuori, la colpa non è interamente di Google. La verità è che non facciamo altro che cercare informazioni online, e quello che la barra di ricerca di restituisce sono i risultati principali. Google non ci “suggerisce” esattamente cosa cercare, ma riporta i trend di ricerca in tempo reale, incrociandoli con altri fattori come la localizzazione e le ricerche precedenti. Eppure, nonostante l’azienda si impegni a rimuovere risultati espliciti o violenti, il fenomeno continua a preoccupare e a indignare alcuni utenti. Uno dei primi incidenti diventati virali era accaduto nel 2016: ne aveva scritto il Guardian, in una riflessione su quanto il web sia diventato un po’ lo specchio della nostra democrazia. Tutto era cominciato da una ricerca di Carole Cadwalladr iniziata con «gli ebrei sono» e completata con «malvagi».

In ogni caso il problema, ha scritto The Outline, non si limita alla ricerca sul browser. Anche le ricerche di Youtube riportano auto-completamenti sgradevoli, che è forse più grave dato il maggiore impatto mediatico di un video. Digitando un innocuo «come fare», BuzzFeed aveva riportato nel novembre 2017 suggerimenti del tutto inappropriati. I responsabili della piattaforma avevano prontamente risposto alla segnalazione e avevano provveduto poi a rimuovere gli auto-completamenti in questione. Google, che controlla Youtube, dimostra qualche falla anche sul quel versante. Danny Sullivan, un rappresentante di Google che si occupa di esperienza degli utenti, ha affermato che la compagnia amplierà lo spettro di controllo sui contenuti predetti dalla ricerca automatica: «La nostra normativa allargata coprirà tutti i casi in cui le predizioni sono ragionevolmente percepite come cariche d’odio o di pregiudizi verso individui o gruppi».

Articoli Suggeriti
Social Media Manager

Leggi anche ↓
Social Media Manager

Ripensare tutto

Le storie, le interviste, i personaggi del nuovo numero di Rivista Studio.

Il surreale identikit di uno degli autori dell’attentato a Darya Dugina diffuso dai servizi segreti russi

La Nasa è riuscita a registrare il rumore emesso da un buco nero

Un algoritmo per salvare il mondo

Come funziona Jigsaw, la divisione (poco conosciuta) di Google che sta cercando di mettere la potenza di calcolo digitale del motore di ricerca al servizio della democrazia, contro disinformazione, manipolazioni elettorali, radicalizzazioni e abusi.