Cose che succedono | Attualità

Autocomplete è razzista? Google ci sta lavorando

Capita spesso di digitare una frase su Google e di fermarsi a metà, per farsi due risate sui suggerimenti che la completano. La funzione di Google è un algoritmo che prova a toglierti le parole di bocca, a volte azzeccandoci in pieno. Il problema è che, in altri casi, finisce per produrre frasi sessiste o razziste. Per esempio, chi comincia a digitare “le femministe”, può trovarsi suggerimenti come “odiano gli uomini”, “sono stupide”, o “sono brutte”. Chi digita “i neri sono”, può trovarsi come suggerimento “sono meno intelligenti”. E questo è, per ovvi motivi, un problema. Infatti è dal 2008, da quando l’auto-completamento è entrato in funzione, che Google sta riscontrando problemi con gli esiti offensivi della barra di ricerca. A questo problema la stessa Google ha dedicato un post recente sul suo blog: da un lato spiega come funziona l’autocomplete, e dunque da dove arrivano i suggerimenti inappropriati; dall’altro lato informa il pubblico che sta cercando di contenere il problema. La società, si legge nel post, sta già rimuovendo alcuni suggerimenti controversi, inoltre ha introdotto uno strumento che permette agli utenti di segnalarli: si chiama, prevedibilmente, “Report inappropriate predictions”.

Detto questo, se certi risultati saltano fuori, la colpa non è interamente di Google. La verità è che non facciamo altro che cercare informazioni online, e quello che la barra di ricerca di restituisce sono i risultati principali. Google non ci “suggerisce” esattamente cosa cercare, ma riporta i trend di ricerca in tempo reale, incrociandoli con altri fattori come la localizzazione e le ricerche precedenti. Eppure, nonostante l’azienda si impegni a rimuovere risultati espliciti o violenti, il fenomeno continua a preoccupare e a indignare alcuni utenti. Uno dei primi incidenti diventati virali era accaduto nel 2016: ne aveva scritto il Guardian, in una riflessione su quanto il web sia diventato un po’ lo specchio della nostra democrazia. Tutto era cominciato da una ricerca di Carole Cadwalladr iniziata con «gli ebrei sono» e completata con «malvagi».

In ogni caso il problema, ha scritto The Outline, non si limita alla ricerca sul browser. Anche le ricerche di Youtube riportano auto-completamenti sgradevoli, che è forse più grave dato il maggiore impatto mediatico di un video. Digitando un innocuo «come fare», BuzzFeed aveva riportato nel novembre 2017 suggerimenti del tutto inappropriati. I responsabili della piattaforma avevano prontamente risposto alla segnalazione e avevano provveduto poi a rimuovere gli auto-completamenti in questione. Google, che controlla Youtube, dimostra qualche falla anche sul quel versante. Danny Sullivan, un rappresentante di Google che si occupa di esperienza degli utenti, ha affermato che la compagnia amplierà lo spettro di controllo sui contenuti predetti dalla ricerca automatica: «La nostra normativa allargata coprirà tutti i casi in cui le predizioni sono ragionevolmente percepite come cariche d’odio o di pregiudizi verso individui o gruppi».