Hype ↓
23:31 martedì 30 dicembre 2026
L’episodio di Stranger Things in cui Will fa coming out è diventato quello peggio recensito di tutta la serie E da solo ha abbassato la valutazione di tutta la quinta stagione, nettamente la meno apprezzata dal pubblico, almeno fino a questo punto.
Il progetto europeo di rilanciare i treni notturni sta andando malissimo Uno dei capisaldi del Green Deal europeo sulla mobilità, la rinascita dei treni notturni, si è arenato tra burocrazia infinita e alti costi.
Un’azienda in Svezia dà ai suoi lavoratori un bonus in busta paga da spendere in attività con gli amici per combattere la solitudine Il progetto, che per ora è solo un'iniziativa privata, prevede un’ora al mese di ferie e un bonus di 100 euro per incentivare la socialità.
Diverse celebrity hanno cancellato i loro tributi a Brigitte Bardot dopo aver scoperto che era di estrema destra Chapell Roan e altre star hanno omaggiato Bardot sui social per poi ritirare tutto una volta scoperte le sue idee su immigrazione, omosessuali e femminismo.
È morta la donna che restaurò così male un dipinto di Cristo da renderlo prima un meme, poi un’attrazione turistica Nel 2012, l'allora 81enne Cecilia Giménez trasformò l’"Ecce Homo" di Borja in Potato Jesus, diventando una delle più amate meme star di sempre.
C’è un’associazione simile agli Alcolisti Anonimi che aiuta le persone dipendenti dall’AI Si chiama Spiral Support Group, è formato da ex "tossicodipendenti" dall'AI e aiuta chi cerca di interrompere il rapporto morboso con i chatbot.
I massoni hanno fatto causa alla polizia inglese per una regola che impone ai poliziotti di rivelare se sono massoni Il nuovo regolamento impone agli agenti di rivelare legami con organizzazioni gerarchiche, in nome della trasparenza e dell’imparzialità.
Il primo grande tour annunciato per il 2026 è quello di Peppa Pig, al quale parteciperà pure Baby Shark La maialina animata sarà in tour in Nord America con uno show musicale che celebra anche i dieci anni di Baby Shark.

Cancellare i troll dal mondo

Conversation AI è il nuovo strumento di Google per censurare le molestie online, ma siamo pronti a una rete pacificata dagli algoritmi?

22 Settembre 2016

Il grande male epidemico della nostra epoca ha il volto di una persona che offende sconosciuti dietro allo schermo di un oggetto connesso a Internet? Ciò che ha ucciso Tiziana Cantone, la ragazza della provincia napoletana che si è suicidata la settimana scorsa, sembra insieme immediatamente chiaro e particolarmente complesso: di sicuro, come ha fatto bene a notare Matteo Lenardon, il responsabile non è stato «il web», inteso come una personificazione amorfa (e autoassolutoria) del peggio della società, eppure ciò che ha fatto da cassa di risonanza per insulti e stalking è la rete come la conosciamo oggi, coi suoi tweet, i tag, la viralità effimera, e tutto il resto. Cosa c’è di più complesso di dover regolare un ecosistema sempre in divenire, in parte selvaggio come un Nuovo Mondo e spesso incompreso innanzitutto da chi lo abita?

Ciò che è successo a Tiziana Cantone è solo uno dei tanti casi recenti, per fortuna meno tragici, di abusi online: negli Stati Uniti l’attrice Leslie Jones, protagonista del reboot di Ghostbusters, a luglio ha lasciato Twitter dopo essere stata oggetto di decine di offese sessiste e razziste per più di ventiquattr’ore; le ingiurie peggiori sono venute da account anonimi. Nei mesi precedenti, migliaia di profili più e meno legati a gruppi di suprematisti bianchi hanno iniziato a prendersela con personalità pubbliche di fede ebraica, identificandole mettendo i loro nomi tra tre parentesi. Twitter, da parte sua, ha reagito a quest’ultima ondata di hate speech bannando Milo Yiannopoulos – l’agent provocateur primo responsabile della disavventura della Jones – proibendo il revenge porn, pubblicando nuove regole anti-molestia e togliendo la spunta blu degli account verificati a chi si rende protagonista di comportamenti scorretti. Sembra molto ma non è, di fatto, nulla: non può esserlo, anzi.

Il problema è innanzitutto di metodo: come si fa ad agire contemporaneamente su milioni di messaggi, di cui buona parte fisiologicamente intenti a disturbare la quiete altrui con insulti, diffamazione e, nei casi peggiori, minacce dirette? Negli ultimi anni i giganti del web sono corsi ai ripari affidando a team di “content moderator” la fatica erculea di filtrare Internet: spesso si tratta di manodopera non qualificata, costretta a superlavoro e, talvolta, operante in remoto da Paesi esteri (così è stato documentato essere per Facebook, YouTube e Reddit, che sono ricorsi all’aiuto di lavoratori filippini). Ma la cronaca e i dibattiti degli ultimi mesi suggeriscono che non basta, che per star dietro al flusso d’odio – per dirla come certi pseudo-commentatori nostrani che pure nello specifico c’azzeccano – serve qualcosa di più. A questo punto entra in gioco l’unico che ha quel qualcosa di più: Google.

Icon Genetics Provides Technology For Possible Ebola Treatment

Nato nel 2010 per volontà di Eric Schmidt, Google Ideas è stato fin dall’inizio il volto “impegnato” di Mountain View: nel numero 17 di Studio Cesare Alemanni aveva scritto di una presentazione del think tank a New York a cui aveva partecipato, raccontando «le idee di Google per cambiare il mondo»: si trattava, tra le altre cose, di palloni aerostatici in grado di portare la connettività dove gerarchi e tiranni di ogni ordine e grado l’hanno proibita, e in generale di un approccio interventista in politica estera, con l’obiettivo dichiarato di favorire il rispetto dei diritti umani. Oggi Google Ideas si chiama Jigsaw, in inglese seghetto da traforo, e continua nella sua opera utopica-digitale. Il suo presidente Jared Cohen ha parlato a Wired dell’ultimo progetto di Jigsaw, Conversation AI, che si propone un obiettivo ancora più ambizioso: cancellare i troll da Internet.

Immaginate un algoritmo evoluto – capace di imparare con l’esperienza come gli ultimi ritrovati delle ricerche nell’apprendimento automatico – che riconosce abusi e molestie meglio del più stoico team di moderazione umano, e facendo meno errori di qualsiasi altro sistema di filtraggio: Conversation AI vuol essere questo, l’intelligenza artificiale all’attacco del lato più oscuro dell’esperienza online. «Voglio usare la migliore tecnologia che abbiamo a nostra disposizione per affrontare i troll e le altre amenità che danno un peso sproporzionato alle voci ostili», ha dichiarato Cohen a Wired. Ma si può davvero mettere a tacere un troll? Andy Greenberg, l’autore del pezzo sul magazine, ha testato un prototipo di Conversation AI per alcuni giorni: paradossalmente alla frase “You are a troll” viene assegnato dal sistema un punteggio di pericolosità vicino a 100, il valore massimo. In sostanza, una delle reazioni standard di una persona vittima di bullismo online verrebbe bloccato dal tool di Google, come nel più imprevisto dei “blame the victim”.

Se togliere la voce a un troll è cosa buona e giusta, dove va posta l’asticella che separa dicibile e indicibile?

A testare il nuovo superstrumento di Google saranno il New York Times e Wikipedia, proprietari degli spazi online tra i più frequentati e commentati, e quindi tra i più intensamente dediti al trolling, loro malgrado. Alcuni dati rivelano che l’approccio della “quick detection”, ossia tipicamente un messaggio d’errore che notifica l’utente delle sue malefatte, come si trattasse un errore ortografico, paga: Riot Games, la società dietro il fortunato multiplayer League of Legends, qualche anno fa ha iniziato a usare un algoritmo capace di richiamare i suoi utenti alla buona educazione, con un’efficacia nel 92% dei casi secondo quanto riportato dalla rivista Nature. Ma un conto è ammonire, un altro bloccare i contenuti tout court: se togliere la voce a un troll è, almeno in teoria, cosa buona e giusta, dove va posta l’asticella che separa dicibile e indicibile? La questione è più spinosa di quanto si potrebbe immaginare: Greenberg ha immesso in Conversation AI le parole «Donald Trump è un imbecille», trovando che verrebbero inesorabilmente bloccate dal firewall del bon ton internettiano. Vogliamo un sistema che impedisca di insultare un demagogo con simpatie para-fasciste? E insultare un demagogo con simpatie fasciste, in valore assoluto, è più lecito di prendersela con innocui giornalisti, docenti e social media manager?

Anche senza voler chiamare in causa l’annoso dibattito sulla libertà di espressione, sembra chiaro che un aiuto esterno e automatizzato non potrà – almeno nel breve periodo – sostituirsi al giudizio umano, pena il trovarsi a frequentare ambienti in cui rispondere a un molestatore o ingiuriare un politico è tanto grave quanto insultare una persona per il suo sesso o la tonalità della sua pelle. Ma la questione è molto più ampia, come un iceberg di cui abbiamo appena intravisto la parte emersa: a inizio mese Facebook ha bannato la foto del 1972 con la bambina simbolo della guerra in Vietnam, scontrandosi in modo deciso col governo norvegese (lo scatto era stato originariamente condiviso dall’autore scandinavo Tom Egeland) e poi tornando sui suoi passi citando «la storia e l’importanza globale di questa immagine nel documentare un periodo». Gli standard di Facebook, quindi, sono fallibili di per sé, anche quando ad applicarli sono esseri umani, e probabilmente non sono fatti per ciò che sono diventati: i canali che decidono chi può esprimersi, come e fino a che livello.

Progetti come Conversation AI, che pure vanno considerati passi avanti nella lotta al bullismo online, hanno il limite costitutivo di non tenere conto che la realtà, soprattutto quella di ciò che chiamiamo comunemente web, non è quasi mai del tutto bianca o del tutto nera: esistono forme di molestia che non si servono di insulti e lettere maiuscole, persecuzioni assillanti giocate su terreni nuovi (e chiusi, e autoregolati), diffamazioni non registrabili da un software perché non strillate, eppure ugualmente scorrette e in potenza non meno deleterie. È facile pensare che nei prossimi dieci anni sentenze come quelle sul diritto all’oblio saranno sempre più all’ordine del giorno nelle agende politiche mondiali. Già oggi, mentre in Italia il parlamento è impegnato in una più che discutibile “legge sul cyberbullismo”, l’amministrazione di New York sta tentando di rendere il revenge porn un reato penale, come già è altrove negli Stati Uniti. Basta aspettare e, nel frattempo, attenersi all’insegnamento inestimabile alla Prima legge di Internet, che non a caso recita: don’t feed the trolls.

Articoli Suggeriti
Diverse celebrity hanno cancellato i loro tributi a Brigitte Bardot dopo aver scoperto che era di estrema destra

Chapell Roan e altre star hanno omaggiato Bardot sui social per poi ritirare tutto una volta scoperte le sue idee su immigrazione, omosessuali e femminismo.

La tragicomica storia dei travel influencer che scoprono che l’Italia non è il Paese che hanno visto sui social

Dopo anni di contenuti patinati e racconti sognanti, sui social sta emergendo una nuova specie di travel influencer: quello che racconta il viaggio in Italia per ciò che in realtà è, in egual parti esperienza, esasperazione e, purtroppo, delusione.

Leggi anche ↓
Diverse celebrity hanno cancellato i loro tributi a Brigitte Bardot dopo aver scoperto che era di estrema destra

Chapell Roan e altre star hanno omaggiato Bardot sui social per poi ritirare tutto una volta scoperte le sue idee su immigrazione, omosessuali e femminismo.

La tragicomica storia dei travel influencer che scoprono che l’Italia non è il Paese che hanno visto sui social

Dopo anni di contenuti patinati e racconti sognanti, sui social sta emergendo una nuova specie di travel influencer: quello che racconta il viaggio in Italia per ciò che in realtà è, in egual parti esperienza, esasperazione e, purtroppo, delusione.

C’è un’associazione simile agli Alcolisti Anonimi che aiuta le persone dipendenti dall’AI

Si chiama Spiral Support Group, è formato da ex "tossicodipendenti" dall'AI e aiuta chi cerca di interrompere il rapporto morboso con i chatbot.

Migliaia di spie nordcoreane hanno tentato di farsi assumere da Amazon usando falsi profili LinkedIn

1800 candidature molto sospette che Amazon ha respinto. L'obiettivo era farsi pagare da un'azienda americana per finanziare il regime nordcoreano.

C’è un’estensione per browser che fa tornare internet com’era nel 2022 per evitare di dover avere a che fare con le AI

Si chiama Slop Evader e una volta installata "scarta" dai risultati mostrati dal browser tutti i contenuti generati con l'intelligenza artificiale.

LinkedIn ha lanciato una sua versione del Wrapped dedicata al lavoro ma non è stata accolta benissimo dagli utenti

«Un rituale d'umiliazione», questo uno dei commenti di coloro che hanno ricevuto il LinkedIn Year in Review. E non è neanche uno dei peggiori.