Attualità Cultura Stili di Vita

Seguici anche su

+60k
+16k
+2k
Condividi su Facebook Condividi su Twitter Invia una e-mail

Cancellare i troll dal mondo

Conversation AI è il nuovo strumento di Google per censurare le molestie online, ma siamo pronti a una rete pacificata dagli algoritmi?

Il grande male epidemico della nostra epoca ha il volto di una persona che offende sconosciuti dietro allo schermo di un oggetto connesso a Internet? Ciò che ha ucciso Tiziana Cantone, la ragazza della provincia napoletana che si è suicidata la settimana scorsa, sembra insieme immediatamente chiaro e particolarmente complesso: di sicuro, come ha fatto bene a notare Matteo Lenardon, il responsabile non è stato «il web», inteso come una personificazione amorfa (e autoassolutoria) del peggio della società, eppure ciò che ha fatto da cassa di risonanza per insulti e stalking è la rete come la conosciamo oggi, coi suoi tweet, i tag, la viralità effimera, e tutto il resto. Cosa c’è di più complesso di dover regolare un ecosistema sempre in divenire, in parte selvaggio come un Nuovo Mondo e spesso incompreso innanzitutto da chi lo abita?

Ciò che è successo a Tiziana Cantone è solo uno dei tanti casi recenti, per fortuna meno tragici, di abusi online: negli Stati Uniti l’attrice Leslie Jones, protagonista del reboot di Ghostbusters, a luglio ha lasciato Twitter dopo essere stata oggetto di decine di offese sessiste e razziste per più di ventiquattr’ore; le ingiurie peggiori sono venute da account anonimi. Nei mesi precedenti, migliaia di profili più e meno legati a gruppi di suprematisti bianchi hanno iniziato a prendersela con personalità pubbliche di fede ebraica, identificandole mettendo i loro nomi tra tre parentesi. Twitter, da parte sua, ha reagito a quest’ultima ondata di hate speech bannando Milo Yiannopoulos – l’agent provocateur primo responsabile della disavventura della Jones – proibendo il revenge porn, pubblicando nuove regole anti-molestia e togliendo la spunta blu degli account verificati a chi si rende protagonista di comportamenti scorretti. Sembra molto ma non è, di fatto, nulla: non può esserlo, anzi.

Il problema è innanzitutto di metodo: come si fa ad agire contemporaneamente su milioni di messaggi, di cui buona parte fisiologicamente intenti a disturbare la quiete altrui con insulti, diffamazione e, nei casi peggiori, minacce dirette? Negli ultimi anni i giganti del web sono corsi ai ripari affidando a team di “content moderator” la fatica erculea di filtrare Internet: spesso si tratta di manodopera non qualificata, costretta a superlavoro e, talvolta, operante in remoto da Paesi esteri (così è stato documentato essere per Facebook, YouTube e Reddit, che sono ricorsi all’aiuto di lavoratori filippini). Ma la cronaca e i dibattiti degli ultimi mesi suggeriscono che non basta, che per star dietro al flusso d’odio – per dirla come certi pseudo-commentatori nostrani che pure nello specifico c’azzeccano – serve qualcosa di più. A questo punto entra in gioco l’unico che ha quel qualcosa di più: Google.

Icon Genetics Provides Technology For Possible Ebola Treatment

Nato nel 2010 per volontà di Eric Schmidt, Google Ideas è stato fin dall’inizio il volto “impegnato” di Mountain View: nel numero 17 di Studio Cesare Alemanni aveva scritto di una presentazione del think tank a New York a cui aveva partecipato, raccontando «le idee di Google per cambiare il mondo»: si trattava, tra le altre cose, di palloni aerostatici in grado di portare la connettività dove gerarchi e tiranni di ogni ordine e grado l’hanno proibita, e in generale di un approccio interventista in politica estera, con l’obiettivo dichiarato di favorire il rispetto dei diritti umani. Oggi Google Ideas si chiama Jigsaw, in inglese seghetto da traforo, e continua nella sua opera utopica-digitale. Il suo presidente Jared Cohen ha parlato a Wired dell’ultimo progetto di Jigsaw, Conversation AI, che si propone un obiettivo ancora più ambizioso: cancellare i troll da Internet.

Immaginate un algoritmo evoluto – capace di imparare con l’esperienza come gli ultimi ritrovati delle ricerche nell’apprendimento automatico – che riconosce abusi e molestie meglio del più stoico team di moderazione umano, e facendo meno errori di qualsiasi altro sistema di filtraggio: Conversation AI vuol essere questo, l’intelligenza artificiale all’attacco del lato più oscuro dell’esperienza online. «Voglio usare la migliore tecnologia che abbiamo a nostra disposizione per affrontare i troll e le altre amenità che danno un peso sproporzionato alle voci ostili», ha dichiarato Cohen a Wired. Ma si può davvero mettere a tacere un troll? Andy Greenberg, l’autore del pezzo sul magazine, ha testato un prototipo di Conversation AI per alcuni giorni: paradossalmente alla frase “You are a troll” viene assegnato dal sistema un punteggio di pericolosità vicino a 100, il valore massimo. In sostanza, una delle reazioni standard di una persona vittima di bullismo online verrebbe bloccato dal tool di Google, come nel più imprevisto dei “blame the victim”.

Se togliere la voce a un troll è cosa buona e giusta, dove va posta l’asticella che separa dicibile e indicibile?

A testare il nuovo superstrumento di Google saranno il New York Times e Wikipedia, proprietari degli spazi online tra i più frequentati e commentati, e quindi tra i più intensamente dediti al trolling, loro malgrado. Alcuni dati rivelano che l’approccio della “quick detection”, ossia tipicamente un messaggio d’errore che notifica l’utente delle sue malefatte, come si trattasse un errore ortografico, paga: Riot Games, la società dietro il fortunato multiplayer League of Legends, qualche anno fa ha iniziato a usare un algoritmo capace di richiamare i suoi utenti alla buona educazione, con un’efficacia nel 92% dei casi secondo quanto riportato dalla rivista Nature. Ma un conto è ammonire, un altro bloccare i contenuti tout court: se togliere la voce a un troll è, almeno in teoria, cosa buona e giusta, dove va posta l’asticella che separa dicibile e indicibile? La questione è più spinosa di quanto si potrebbe immaginare: Greenberg ha immesso in Conversation AI le parole «Donald Trump è un imbecille», trovando che verrebbero inesorabilmente bloccate dal firewall del bon ton internettiano. Vogliamo un sistema che impedisca di insultare un demagogo con simpatie para-fasciste? E insultare un demagogo con simpatie fasciste, in valore assoluto, è più lecito di prendersela con innocui giornalisti, docenti e social media manager?

Anche senza voler chiamare in causa l’annoso dibattito sulla libertà di espressione, sembra chiaro che un aiuto esterno e automatizzato non potrà – almeno nel breve periodo – sostituirsi al giudizio umano, pena il trovarsi a frequentare ambienti in cui rispondere a un molestatore o ingiuriare un politico è tanto grave quanto insultare una persona per il suo sesso o la tonalità della sua pelle. Ma la questione è molto più ampia, come un iceberg di cui abbiamo appena intravisto la parte emersa: a inizio mese Facebook ha bannato la foto del 1972 con la bambina simbolo della guerra in Vietnam, scontrandosi in modo deciso col governo norvegese (lo scatto era stato originariamente condiviso dall’autore scandinavo Tom Egeland) e poi tornando sui suoi passi citando «la storia e l’importanza globale di questa immagine nel documentare un periodo». Gli standard di Facebook, quindi, sono fallibili di per sé, anche quando ad applicarli sono esseri umani, e probabilmente non sono fatti per ciò che sono diventati: i canali che decidono chi può esprimersi, come e fino a che livello.

Progetti come Conversation AI, che pure vanno considerati passi avanti nella lotta al bullismo online, hanno il limite costitutivo di non tenere conto che la realtà, soprattutto quella di ciò che chiamiamo comunemente web, non è quasi mai del tutto bianca o del tutto nera: esistono forme di molestia che non si servono di insulti e lettere maiuscole, persecuzioni assillanti giocate su terreni nuovi (e chiusi, e autoregolati), diffamazioni non registrabili da un software perché non strillate, eppure ugualmente scorrette e in potenza non meno deleterie. È facile pensare che nei prossimi dieci anni sentenze come quelle sul diritto all’oblio saranno sempre più all’ordine del giorno nelle agende politiche mondiali. Già oggi, mentre in Italia il parlamento è impegnato in una più che discutibile “legge sul cyberbullismo”, l’amministrazione di New York sta tentando di rendere il revenge porn un reato penale, come già è altrove negli Stati Uniti. Basta aspettare e, nel frattempo, attenersi all’insegnamento inestimabile alla Prima legge di Internet, che non a caso recita: don’t feed the trolls.

54da1fe3c06675ff4ccfe97c_undici-logo-white.jpg