Attualità | Dal numero

Un algoritmo per salvare il mondo

Come funziona Jigsaw, la divisione (poco conosciuta) di Google che sta cercando di mettere la potenza di calcolo digitale del motore di ricerca al servizio della democrazia, contro disinformazione, manipolazioni elettorali, radicalizzazioni e abusi.

di Ferdinando Cotugno

Immagine di @gola_studio

Nel suo primo giorno di lavoro a Google, Patricia Georgiou ha fatto appena in tempo a prendere il computer e il badge nel suo nuovo ufficio di New York, prima di prendere un taxi, andare all’aeroporto JFK e volare nel Kurdistan iracheno. Era il 2016, in passato Georgiou aveva lavorato per uno studio legale specializzato in diritti umani e per il governo francese, la sua prima missione per conto di Google era intervistare le persone più arrabbiate del mondo in quel momento: i disertori dell’Isis chiusi in un carcere gestito dai peshmerga curdi. «Lo Stato islamico aveva sfruttato la loro rabbia attirandoli con informazioni false in Siria: erano arrivati con la promessa di una Disneyland musulmana, avevano trovato l’inferno». L’obiettivo era parlarci per capire in che modo l’infrastruttura digitale di Google potesse essere usata per interrompere questo tipo di processi. Georgiou lavora come Director of Partnerships and Business Development in una divisione poco nota di Google, laterale per l’immenso business della casa madre, ma fondamentale per portarne avanti la visione. Si chiama Jigsaw, la parola inglese che indica il tassello di un puzzle, e il suo scopo è quantomeno ambizioso: mettere la potenza di calcolo digitale di Google al servizio della democrazia, contro disinformazione, manipolazioni elettorali, radicalizzazioni e abusi. «L’obiettivo generale di Google è rendere le informazioni digitali accessibili a tutti, in Jigsaw ci occupiamo delle informazioni che hanno un impatto sui processi democratici: il voto, l’informazione, l’attivismo».

Jigsaw era nata nel 2010 come Google Ideas. L’allora Ceo di Google, Eric Schmidt, l’aveva concepita come un think tank, un pensatoio per produrre studi e ragionamenti sull’incrocio di tecnologia e democrazia. L’aveva affidata alla persona che ancora oggi la gestisce, Jared Cohen, un diplomatico che aveva lavorato al Dipartimento di Stato Usa sia sotto Bush che sotto Obama. Col tempo, Google Ideas ha iniziato ad assumere più ingegneri che esperti di relazioni internazionali, è passata dalla teoria alla pratica ed è diventata Jigsaw, una piccola fabbrica di codici open source, messi a disposizione per proteggere l’infrastruttura digitale del mondo democratico. La parola che Georgiou usa più spesso per spiegare il suo lavoro l’avevamo imparata in un contesto diverso: «spillover». In virologia è il salto di specie che porta un virus al contagio umano, nel contesto di Jigsaw è la traduzione digitale dei conflitti nel mondo reale. L’apparato di Google è stato creato per curare questi spillover, che siano campagne coordinate di abusi contro giornalisti, cyber-attacchi contro i processi elettorali, ondate di disinformazione o campagne di reclutamento terroristico.

Come si può immaginare, l’invasione dell’Ucraina è stato un periodo intenso, dentro Jigsaw: «In quei giorni in ufficio non ha dormito nessuno, lavoravamo senza sosta per fornire ai siti di informazione, alle organizzazioni umanitarie, alle ambasciate e al governo ucraino strumenti per proteggersi contro gli attacchi digitali». Il principale prodotto di Jigsaw schierato sul fronte ucraino-digitale era il Project Shield: durante quelle prime settimane di guerra, Jigsaw ha fornito a qualunque soggetto ucraino lo chiedesse la stessa infrastruttura digitale che Google usa per proteggere i suoi sistemi dagli attacchi esterni. Jigsaw lavora su due piani distinti. Il primo è la geopolitica, il secondo è l’animo umano. Quest’ultimo è il lato più tecno-illuminista del progetto: buona parte del lavoro di questi anni è stata insegnare agli algoritmi la gestione delle emozioni più tossiche, per evitare che inquinassero il libero scambio di idee e informazioni. «Noi partiamo dal presupposto che la moderazione affidata a esseri umani non è realizzabile in un contesto dove, solo su YouTube, vengono caricate 720 mila ore di video al giorno». Servirebbero centinaia di migliaia di persone per guardare tutto il materiale caricato su ogni piattaforma e distinguere cosa è legittimo da cosa no, il pensiero radicale da quello distruttivo, lo scambio di idee dalla sopraffazione. Gli ingegneri di Jigsaw sono convinti di poter trovare la pietra filosofale di internet: mettere l’intelligenza artificiale in condizione di governare gli scambi tra persone e istituzioni sulle piattaforme. Dal punto di vista informatico, la rabbia e l’aggressività non sono concetti semantici, ma comportamentali. Non contano tanto i concetti, le parole o i toni, ma le azioni e le reazioni. «L’unico modo che abbiamo per identificare automaticamente un abuso è riconoscerlo dai suoi effetti».

Partiamo dal presupposto che la moderazione affidata a esseri umani non è realizzabile in un contesto dove, solo su YouTube, vengono caricate 720 mila ore di video al giorno

Quindi per Jigsaw abuso è tutto quello che spinge una persona a lasciare una conversazione, perché il veleno ricevuto è superiore allo sforzo di comunicare. È questo che stanno addestrando gli algoritmi a prevedere: quel commento rischia di spingere chi lo ha ricevuto a smettere di comunicare? «Vale per chiunque abbia una vita digitale, ma vale soprattutto per attivisti, giornalisti, persone esposte politicamente, soprattutto se donne. E vale su ogni piattaforma, ma in particolare su Twitter, proprio per la sua funzione di megafono di idee e arena di confronto». Google e Twitter da anni lavorano insieme in una rara collaborazione trans-piattaforma, per automatizzare la moderazione dei profili più politicamente sensibili, filtrare e cacciare i violenti. È una visione opposta a quella del possibile futuro padrone di Twitter, Elon Musk, animato invece da un ultra-liberismo del linguaggio, nel quale ogni moderazione – umana o automatizzata – corrisponde a una censura, una ferita alla libera espressione. «È una visione binaria che non condividiamo. Per la libera espressione serve moderazione, altrimenti parleranno solo le voci più aggressive, crudeli e rumorose, mettendo le altre fuori dal dibattito. Per avere libertà di parola devi eliminare la tossicità, non darle libero spazio».

Il paziente zero scelto da Google per studiare e curare lo spillover di veleno tra mondo reale e digitale è una delle giornaliste più esposte al mondo, la filippino-americana Maria Ressa, che nel 2021 ha vinto il premio Nobel per la pace insieme al direttore di Novaya Gazeta Dmitrij Muratov. «Per i loro sforzi allo scopo di salvaguardare la libertà di espressione, che è una precondizione sia per la democrazia che per una pace duratura», dicevano le motivazioni. Georgiou aveva lavorato al fianco di Ressa per capire in che modo gli abusi online potessero spingere giornaliste come lei a lasciare le piattaforme, mollare le notizie o abbandonare la professione. E ha scoperto l’incubo che è essere Maria Ressa online:  «Campagne coordinate dal governo, dossier continui, minacce di stupro o di morte seguite alla pubblicazione del suo indirizzo, commenti sul suo aspetto fisico, fotografie modificate, misoginia generalizzata». Su di lei e sulle altre giornaliste coinvolte hanno tarato lo strumento Perspective: un codice aperto da usare su Twitter per filtrare e bloccare in modo automatico gli attacchi. È una specie di paraocchi digitale: con Perspective puoi decidere quanto vedere del veleno che ti arriva ogni giorno, arrivando anche a zero, filtro assoluto degli abusi.

Lo usano diverse testate: New York Times, Guardian, Economist, per proteggere il lavoro e la salute mentale dei loro giornalisti che si espongono in pubblico. «Presto ogni giornale dovrà offrire strumenti di questo tipo ai suoi collaboratori, così come garantisce un telefono, una scrivania o un fixer». L’ultimo dei progetti presentati da Jigsaw si chiama Protect Your Democracy, un insieme di strumenti per proteggere la regolarità digitale dei processi elettorali, evitare che vengano rubate le password ai politici o tirati giù i siti dei partiti. In questi anni, Google ha dimostrato la capacità di contribuire a proteggere le democrazie del mondo. Il punto è se debba essere un’azienda privata a farlo, accettando un ruolo sempre più politico e istituzionale. «In realtà noi non possiamo proteggere le democrazie, tuteliamo solo le informazioni critiche per il loro funzionamento. E non siamo politici perché non scegliamo da che parte stare, né all’interno dei Paesi né nelle dispute tra gli stessi, vogliamo solo favorire la libertà di espressione e garantire i valori della Dichiarazione universale dei diritti umani», spiega Georgiou. Nessuno però è neutrale su Internet e Jigsaw lo ha scoperto nel 2016, quando è stata coinvolta nella diffusione delle email dell’allora candidata alla presidenza Hillary Clinton. Nel faldone si scoprì – tra tante altre cose – una prossimità promiscua di questa divisione di Google con il Dipartimento di Stato in un’operazione di regime change in Siria, con i tentativi di sostenere i ribelli e i disertori anti-Assad. Legittimo, ma non neutrale. Come ha spiegato lo stesso Jared Cohen in un articolo su Foreign Affairs del 2020, il disegno più grande, nel quale Google è davvero un «jigsaw», cioè un tassello, è lo scontro tra le tecno-democrazie e le tecno-autocrazie, cioè tra due idee diverse di come la tecnologia sia al servizio del potere. «Da questo punto di vista, confermo, è evidente che noi lavoriamo nel campo delle tecno-democrazie, perché siamo contro chi vuole impedire la libera circolazione di idee nel dibattito pubblico», conclude Georgiou.

Quando, nella sua prima settimana di lavoro, si trovò a intervistare decine di ex soldati dell’Isis, Georgiou capì un dettaglio fondamentale, che avrebbe orientato tutto il suo lavoro: nella circolazione di informazioni, il tempismo è tutto ed è per questo che l’algoritmo vince sulla moderazione umana, più accurata ma anche più lenta. «A tutti gli ex terroristi chiedevo: se ti avessi detto cosa avresti trovato in Siria nel momento in cui stavi salendo sull’autobus per Raqqa, ti saresti fermato? La risposta era sempre la stessa: no. No, perché ormai era troppo tardi. Ma poi aggiungevano: se solo lo avessi saputo sei mesi prima, non mi sarei mai radicalizzato. Il nostro prossimo passaggio è proprio in questa direzione: superare il debunking, cioè l’operazione di smontare le notizie false, e passare al pre-bunking, attrezzare le persone e le comunità a processarle nel modo corretto. È per questo che proteggere i giornalisti e gli attivisti online, ed evitare che lascino le piattaforme dove si esprimono, è così fondamentale».