Hype ↓
10:32 lunedì 16 febbraio 2026
Sull’isola di Epstein c’era un Pokestop di Pokemon Go ma non si sa chi è stato a metterlo lì E probabilmente non lo sapremo mai, visto che lo sviluppatore del gioco Niantic nel frattempo lo ha rimosso.
Alla Berlinale, il Presidente della giuria Wim Wenders è stato criticatissimo per aver detto che «il cinema deve stare lontano dalla politica» Lo ha detto durante la conferenza stampa di presentazione del festival, rispondendo a una domanda su Israele e Palestina.
È scoppiato un grosso scandalo attorno al più famoso e lussuoso ristorante del mondo, il Noma di Copenaghen Un ex dipendente sta raccogliendo e pubblicando decine di accuse nei confronti dello chef René Redzepi: si va dagli abusi psicologici alla violenza fisica.
Per il suo centenario, E/O ripubblicherà tutta l’opera di Christa Wolf con le copertine degli anni Ottanta Si comincia il 9 aprile con la riedizione di Cassandra.
James Blake presenterà il suo nuovo disco con una listening session gratuita in Triennale Milano Trying Times, questo il titolo del disco, esce il 13 marzo. Con questo evento in Triennale, Blake lo presenta per la prima volta al pubblico.
Gisele Pelicot ha scritto un memoir in cui racconta tutto quello che ha passato dal giorno in cui ha scoperto le violenze del suo ex marito Il libro uscirà in contemporanea in 22 Paesi il 19 febbraio. In Italia sarà edito da Rizzoli e tradotto da Bérénice Capatti.
Le cure per il cancro sono costate così tanto che la famiglia di James Van Der Beek è rimasta senza risparmi ed è stata costretta a lanciare una raccolta fondi In nemmeno due giorni, 42 mila persone hanno fatto una donazione e sono stati raccolti più di 2 milioni di dollari.
Anna Wintour e Chloe Malle hanno fatto la loro prima intervista insieme ed è talmente strana che non si capisce se fossero serie o scherzassero L'ha pubblicata il New York Times, per discutere del futuro di Vogue. Si è finiti a parlare di microespressioni e linguaggio del corpo.

Autocomplete è razzista? Google ci sta lavorando

24 Aprile 2018

Capita spesso di digitare una frase su Google e di fermarsi a metà, per farsi due risate sui suggerimenti che la completano. La funzione di Google è un algoritmo che prova a toglierti le parole di bocca, a volte azzeccandoci in pieno. Il problema è che, in altri casi, finisce per produrre frasi sessiste o razziste. Per esempio, chi comincia a digitare “le femministe”, può trovarsi suggerimenti come “odiano gli uomini”, “sono stupide”, o “sono brutte”. Chi digita “i neri sono”, può trovarsi come suggerimento “sono meno intelligenti”. E questo è, per ovvi motivi, un problema. Infatti è dal 2008, da quando l’auto-completamento è entrato in funzione, che Google sta riscontrando problemi con gli esiti offensivi della barra di ricerca. A questo problema la stessa Google ha dedicato un post recente sul suo blog: da un lato spiega come funziona l’autocomplete, e dunque da dove arrivano i suggerimenti inappropriati; dall’altro lato informa il pubblico che sta cercando di contenere il problema. La società, si legge nel post, sta già rimuovendo alcuni suggerimenti controversi, inoltre ha introdotto uno strumento che permette agli utenti di segnalarli: si chiama, prevedibilmente, “Report inappropriate predictions”.

Detto questo, se certi risultati saltano fuori, la colpa non è interamente di Google. La verità è che non facciamo altro che cercare informazioni online, e quello che la barra di ricerca di restituisce sono i risultati principali. Google non ci “suggerisce” esattamente cosa cercare, ma riporta i trend di ricerca in tempo reale, incrociandoli con altri fattori come la localizzazione e le ricerche precedenti. Eppure, nonostante l’azienda si impegni a rimuovere risultati espliciti o violenti, il fenomeno continua a preoccupare e a indignare alcuni utenti. Uno dei primi incidenti diventati virali era accaduto nel 2016: ne aveva scritto il Guardian, in una riflessione su quanto il web sia diventato un po’ lo specchio della nostra democrazia. Tutto era cominciato da una ricerca di Carole Cadwalladr iniziata con «gli ebrei sono» e completata con «malvagi».

In ogni caso il problema, ha scritto The Outline, non si limita alla ricerca sul browser. Anche le ricerche di Youtube riportano auto-completamenti sgradevoli, che è forse più grave dato il maggiore impatto mediatico di un video. Digitando un innocuo «come fare», BuzzFeed aveva riportato nel novembre 2017 suggerimenti del tutto inappropriati. I responsabili della piattaforma avevano prontamente risposto alla segnalazione e avevano provveduto poi a rimuovere gli auto-completamenti in questione. Google, che controlla Youtube, dimostra qualche falla anche sul quel versante. Danny Sullivan, un rappresentante di Google che si occupa di esperienza degli utenti, ha affermato che la compagnia amplierà lo spettro di controllo sui contenuti predetti dalla ricerca automatica: «La nostra normativa allargata coprirà tutti i casi in cui le predizioni sono ragionevolmente percepite come cariche d’odio o di pregiudizi verso individui o gruppi».

Articoli Suggeriti
Social Media Manager

Leggi anche ↓
Social Media Manager

Ripensare tutto

Le storie, le interviste, i personaggi del nuovo numero di Rivista Studio.

Il surreale identikit di uno degli autori dell’attentato a Darya Dugina diffuso dai servizi segreti russi

La Nasa è riuscita a registrare il rumore emesso da un buco nero

Un algoritmo per salvare il mondo

Come funziona Jigsaw, la divisione (poco conosciuta) di Google che sta cercando di mettere la potenza di calcolo digitale del motore di ricerca al servizio della democrazia, contro disinformazione, manipolazioni elettorali, radicalizzazioni e abusi.