Hype ↓
11:49 giovedì 4 dicembre 2025
L’ansia da Spotify Wrapped è talmente grave che migliaia di persone hanno creduto a una bufala su una versione modificabile disponibile a pagamento Evidentemente, quella di scoprire di avere dei brutti gusti musicali scorrendo il proprio Wrapped è una paura più diffusa di quanto ci si immagini.
Jafar Panahi ha detto che dopo gli Oscar tornerà in Iran e andrà di nuovo in carcere Mentre era a New York per una premiazione, ha scoperto di essere stato condannato a un anno di carcere per «attività di propaganda».
Secondo Cahiers du Cinéma il film dell’anno è un documentario su un torero peruviano Un film che, per la redazione di Cahiers, è meglio anche di Una battaglia dopo l'altra di Paul Thomas Anderson, secondo in classifica.
La pagina Wikipedia più letta nel 2025 è stata quella di Charlie Kirk Con 45 milioni di visualizzazioni, la pagina dedicata a Kirk ha superato quelle di Trump, del Papa, di Musk, di Mamdani e pure di Superman.
Il nuovo trend di TikTok sono i video anti immigrazione generati con l’AI Milioni di visualizzazioni per video apertamente razzisti e chiaramente falsi che incolpano i migranti di crimini che non sono mai avvenuti.
In Cina le persone stanno andando a vedere Zootropolis 2 insieme ai loro cani e gatti Alcuni cinema cinesi hanno organizzato proiezioni pet friendly per vedere il film Disney con i propri animali domestici.
Anche stavolta il premio di Designer of the Year l’ha vinto Jonathan Anderson È la terza volta consecutiva, stavolta ha battuto Glenn Martens, Miuccia Prada, Rick Owens, Martin Rose e Willy Chavarria.
L’Oms ha detto che i farmaci come Ozempic dovrebbero essere disponibili per tutti e non solo per chi può permetterseli Secondo l'Organizzazione mondiale della sanità, in futuro bisognerà garantire l'accesso a questi farmaci a chiunque ne abbia bisogno.

Autocomplete è razzista? Google ci sta lavorando

24 Aprile 2018

Capita spesso di digitare una frase su Google e di fermarsi a metà, per farsi due risate sui suggerimenti che la completano. La funzione di Google è un algoritmo che prova a toglierti le parole di bocca, a volte azzeccandoci in pieno. Il problema è che, in altri casi, finisce per produrre frasi sessiste o razziste. Per esempio, chi comincia a digitare “le femministe”, può trovarsi suggerimenti come “odiano gli uomini”, “sono stupide”, o “sono brutte”. Chi digita “i neri sono”, può trovarsi come suggerimento “sono meno intelligenti”. E questo è, per ovvi motivi, un problema. Infatti è dal 2008, da quando l’auto-completamento è entrato in funzione, che Google sta riscontrando problemi con gli esiti offensivi della barra di ricerca. A questo problema la stessa Google ha dedicato un post recente sul suo blog: da un lato spiega come funziona l’autocomplete, e dunque da dove arrivano i suggerimenti inappropriati; dall’altro lato informa il pubblico che sta cercando di contenere il problema. La società, si legge nel post, sta già rimuovendo alcuni suggerimenti controversi, inoltre ha introdotto uno strumento che permette agli utenti di segnalarli: si chiama, prevedibilmente, “Report inappropriate predictions”.

Detto questo, se certi risultati saltano fuori, la colpa non è interamente di Google. La verità è che non facciamo altro che cercare informazioni online, e quello che la barra di ricerca di restituisce sono i risultati principali. Google non ci “suggerisce” esattamente cosa cercare, ma riporta i trend di ricerca in tempo reale, incrociandoli con altri fattori come la localizzazione e le ricerche precedenti. Eppure, nonostante l’azienda si impegni a rimuovere risultati espliciti o violenti, il fenomeno continua a preoccupare e a indignare alcuni utenti. Uno dei primi incidenti diventati virali era accaduto nel 2016: ne aveva scritto il Guardian, in una riflessione su quanto il web sia diventato un po’ lo specchio della nostra democrazia. Tutto era cominciato da una ricerca di Carole Cadwalladr iniziata con «gli ebrei sono» e completata con «malvagi».

In ogni caso il problema, ha scritto The Outline, non si limita alla ricerca sul browser. Anche le ricerche di Youtube riportano auto-completamenti sgradevoli, che è forse più grave dato il maggiore impatto mediatico di un video. Digitando un innocuo «come fare», BuzzFeed aveva riportato nel novembre 2017 suggerimenti del tutto inappropriati. I responsabili della piattaforma avevano prontamente risposto alla segnalazione e avevano provveduto poi a rimuovere gli auto-completamenti in questione. Google, che controlla Youtube, dimostra qualche falla anche sul quel versante. Danny Sullivan, un rappresentante di Google che si occupa di esperienza degli utenti, ha affermato che la compagnia amplierà lo spettro di controllo sui contenuti predetti dalla ricerca automatica: «La nostra normativa allargata coprirà tutti i casi in cui le predizioni sono ragionevolmente percepite come cariche d’odio o di pregiudizi verso individui o gruppi».

Articoli Suggeriti
Social Media Manager

Leggi anche ↓
Social Media Manager

Ripensare tutto

Le storie, le interviste, i personaggi del nuovo numero di Rivista Studio.

Il surreale identikit di uno degli autori dell’attentato a Darya Dugina diffuso dai servizi segreti russi

La Nasa è riuscita a registrare il rumore emesso da un buco nero

Un algoritmo per salvare il mondo

Come funziona Jigsaw, la divisione (poco conosciuta) di Google che sta cercando di mettere la potenza di calcolo digitale del motore di ricerca al servizio della democrazia, contro disinformazione, manipolazioni elettorali, radicalizzazioni e abusi.