Hype ↓
08:11 venerdì 30 gennaio 2026
Dopo due mesi di silenzio, Paul Dano ha risposto ai commenti offensivi che Quentin Tarantino ha fatto su di lui Al Sundance Film Festival, Dano ha raccontato di essere estremamente grato alle persone che lo hanno difeso
Grazie a TikTok, un singolo di Jeff Buckley è entrato per la prima volta in classifica 29 anni dopo la sua morte “Lover, You Should’ve Come Over” è entrata nella top 100 USA, grazie ai tanti tiktok in cui è stata inserita.
Zohran Mamdani ha indossato una giacca Carhartt personalizzata molto stilosa per spalare la neve a New York Modello "Full Swing Steel", colore nero, sulla parte interna del collo ricamata la scritta "No problem too big, no task too small".
Werner Herzog ha spiegato il vero significato del “pinguino nichilista”, la scena del suo documentario Encounters at the End of the World diventata un popolarissimo meme Lo ha fatto con un reel su Instagram, in cui racconta di essere affascinato tanto dal comportamento dell'animale quanto da quello di chi ne ha fatto un meme.
In Iran stanno arrestando i medici che hanno curato i manifestanti feriti durante le proteste Almeno nove medici sarebbero stati arrestati come ritorsione per aver curato persone ferite. Uno rischierebbe addirittura la pena di morte.
Blossoms Shanghai, la prima serie tv di Wong Kar-wai, arriva su Mubi il 26 febbraio Dopo il grandissimo successo in Cina, l'opera prima televisiva di Wong Kar-wai arriva finalmente anche in Italia.
C’è un video in cui si vede un altro violento scontro tra gli agenti Ice e Alex Pretti avvenuto 11 giorni prima della sua morte Tre nuovi video rivelano che Pretti era già stato aggredito e ferito da agenti ICE, in uno scontro molto simile a quello in cui poi ha perso la vita.
All’Haute Couture di Parigi, Schiaparelli ha fatto indossare all’attrice Teyana Taylor i gioielli rubati al Louvre Erano però una copia, ricreata per la maison dallo stilista Daniel Roseberry, che ha detto «avevo solo voglia di divertirmi un po'».

Autocomplete è razzista? Google ci sta lavorando

24 Aprile 2018

Capita spesso di digitare una frase su Google e di fermarsi a metà, per farsi due risate sui suggerimenti che la completano. La funzione di Google è un algoritmo che prova a toglierti le parole di bocca, a volte azzeccandoci in pieno. Il problema è che, in altri casi, finisce per produrre frasi sessiste o razziste. Per esempio, chi comincia a digitare “le femministe”, può trovarsi suggerimenti come “odiano gli uomini”, “sono stupide”, o “sono brutte”. Chi digita “i neri sono”, può trovarsi come suggerimento “sono meno intelligenti”. E questo è, per ovvi motivi, un problema. Infatti è dal 2008, da quando l’auto-completamento è entrato in funzione, che Google sta riscontrando problemi con gli esiti offensivi della barra di ricerca. A questo problema la stessa Google ha dedicato un post recente sul suo blog: da un lato spiega come funziona l’autocomplete, e dunque da dove arrivano i suggerimenti inappropriati; dall’altro lato informa il pubblico che sta cercando di contenere il problema. La società, si legge nel post, sta già rimuovendo alcuni suggerimenti controversi, inoltre ha introdotto uno strumento che permette agli utenti di segnalarli: si chiama, prevedibilmente, “Report inappropriate predictions”.

Detto questo, se certi risultati saltano fuori, la colpa non è interamente di Google. La verità è che non facciamo altro che cercare informazioni online, e quello che la barra di ricerca di restituisce sono i risultati principali. Google non ci “suggerisce” esattamente cosa cercare, ma riporta i trend di ricerca in tempo reale, incrociandoli con altri fattori come la localizzazione e le ricerche precedenti. Eppure, nonostante l’azienda si impegni a rimuovere risultati espliciti o violenti, il fenomeno continua a preoccupare e a indignare alcuni utenti. Uno dei primi incidenti diventati virali era accaduto nel 2016: ne aveva scritto il Guardian, in una riflessione su quanto il web sia diventato un po’ lo specchio della nostra democrazia. Tutto era cominciato da una ricerca di Carole Cadwalladr iniziata con «gli ebrei sono» e completata con «malvagi».

In ogni caso il problema, ha scritto The Outline, non si limita alla ricerca sul browser. Anche le ricerche di Youtube riportano auto-completamenti sgradevoli, che è forse più grave dato il maggiore impatto mediatico di un video. Digitando un innocuo «come fare», BuzzFeed aveva riportato nel novembre 2017 suggerimenti del tutto inappropriati. I responsabili della piattaforma avevano prontamente risposto alla segnalazione e avevano provveduto poi a rimuovere gli auto-completamenti in questione. Google, che controlla Youtube, dimostra qualche falla anche sul quel versante. Danny Sullivan, un rappresentante di Google che si occupa di esperienza degli utenti, ha affermato che la compagnia amplierà lo spettro di controllo sui contenuti predetti dalla ricerca automatica: «La nostra normativa allargata coprirà tutti i casi in cui le predizioni sono ragionevolmente percepite come cariche d’odio o di pregiudizi verso individui o gruppi».

Articoli Suggeriti
Social Media Manager

Leggi anche ↓
Social Media Manager

Ripensare tutto

Le storie, le interviste, i personaggi del nuovo numero di Rivista Studio.

Il surreale identikit di uno degli autori dell’attentato a Darya Dugina diffuso dai servizi segreti russi

La Nasa è riuscita a registrare il rumore emesso da un buco nero

Un algoritmo per salvare il mondo

Come funziona Jigsaw, la divisione (poco conosciuta) di Google che sta cercando di mettere la potenza di calcolo digitale del motore di ricerca al servizio della democrazia, contro disinformazione, manipolazioni elettorali, radicalizzazioni e abusi.