Hype ↓
04:13 mercoledì 2 luglio 2025
L’Unione Europea ha stabilito che sapere quanto guadagnano i propri colleghi è un diritto Lo ha fatto con una direttiva che l’Italia deve recepire entro il 2026. L'obiettivo è una maggiore trasparenza e, soprattutto, contribuire alla diminuzione del gap salariale tra uomini e donne.
Grazie all’accordo tra Netflix e la Nasa ora si potrà fare binge watching anche dell’esplorazione spaziale Il servizio di streaming trasmetterà in diretta tutta la stagione dei lanci spaziali, comprese le passeggiate nello spazio degli astronauti.
Gli asini non sono affatto stupidi e se hanno questa reputazione è per colpa del classismo Diverse ricerche hanno ormai stabilito che sono intelligenti quanto i cavalli, la loro cattiva fama ha a che vedere con l'associazione alle classi sociali più umili.
In Turchia ci sono proteste e arresti per una vignetta su Maometto pubblicata da un giornale satirico Almeno, secondo le autorità e i manifestanti la vignetta ritrarrebbe il profeta, ma il direttore del giornale ha spiegato che non è affatto così.
Una delle band più popolari su Spotify nell’ultimo mese è un gruppo psych rock generato dall’AI Trecentomila ascoltatori mensili per i Velvet Sundown, che fanno canzoni abbastanza brutte e soprattutto non esistono davvero.
A Bologna hanno istituito dei “rifugi climatici” per aiutare le persone ad affrontare il caldo E a Napoli un ospedale ha organizzato percorsi dedicati ai ricoveri per colpi di calore. La crisi climatica è una problema amministrativo e sanitario, ormai.
Tra i contenuti speciali del vinile di Virgin c’è anche una foto del pube di Lorde Almeno, secondo le più accreditate teorie elaborate sui social sarebbe il suo e la fotografia l'avrebbe scattata Talia Chetrit.
Con dei cori pro Palestina e contro l’IDF, i Bob Vylan hanno scatenato una delle peggiori shitstorm della storia di Glastonbury Accusati di hate speech da Starmer, licenziati dalla loro agenzia, cancellati da Bbc: tre giorni piuttosto intensi, per il duo.

Cancellare il male da internet

The Moderators indaga la faccia nascosta dei social network: migliaia di persone che per lavoro rimuovono foto e video traumatizzanti.

03 Maggio 2017

Quanti «amici» avete su Facebook? Cento? Duecento? Duemila? E di questi, a quanti avete mai visto pubblicare contenuti violenti o ai limiti del porno, o più generalmente cose che si definirebbero molto offensive? La risposta, l’unica possibile, è “nessuno”, e c’è un motivo che la rende tale. Questo motivo prende la forma di un sistema meticoloso e organizzato su scala mondiale, e si basa sul lavoro quotidiano di decine di migliaia di persone, molto spesso molto giovani e di provenienza asiatica, che a una domanda generica sul loro inquadramento professionale probabilmente risponderebbero di essere “content moderator”.

Parlando di Facebook, Twitter, YouTube e gli altri servizi più celebri e riconoscibili del web, di solito ci riferiamo alla loro dimensione visibile; d’altronde sono quelli che hanno generato e finora sostenuto con profitto il boom dell’economia dei contenuti. E che altri contenuti potrebbero mai esistere, al di fuori dei milioni di video, status e meme di ogni tipo condivisi ogni giorno su un qualunque social network? The Moderators, un breve documentario pubblicato pochi giorni fa su Field of Vision, piattaforma video fondata dalla documentarista premio Oscar Laura Poitras (Citizenfour, My Country My Country), in questo senso illumina la faccia nascosta della Luna, scoprendo un mondo di persone che, nel corso di turni lavorativi di otto-nove ore al giorno, etichettano e riportano immagini di uccisioni, filmati pedopornografici, dick pics, prove audiovisive di decapitazioni e incidenti autostradali mortali, per cancellarne ogni traccia dai server delle società clienti. Spesso si tratta del loro primo lavoro.

Schermata 2017-05-03 alle 15.56.48

Un disclaimer che apre il doc prodotto dal regista Ciaran Cassidy e da Adrian Chen, nome pregiato del giornalismo d’inchiesta americano di questi anni, mette le mani avanti: «Il film contiene materiale esplicito che alcuni spettatori potrebbero trovare traumatizzante». In realtà, nella prima scena si vede soltanto un ragazzo che scorre una presentazione PowerPoint proiettata alle sue spalle sul muro anonimo di un ufficio, e parla con calma mentre dietro di lui scorrono a ritmo continuo fotografie di donne più o meno svestite, cadaveri, uccisioni ed erezioni. Sembra tranquillo, e alla classe di prossimi moderatori a cui sta illustrando il mestiere a un certo punto dice, ostentando una sicurezza che sa di monito, di non venire mai troppo «colpito» sul personale dai contenuti che passa in rassegna: «È solo un’immagine», d’altronde, prova a spiegare. Di immagini da “flaggare” i suoi colleghi ne vedono molte: l’ufficio indiano che compongono, ad esempio, ne setaccia un milione al giorno per conto di grandi nomi del tech americano, e ogni impiegato deve mantenere una media di duemila contenuti controllati ogni ora, per qualche centinaio di dollari americani al mese.

Secondo i dati raccolti da The Moderators, a livello globale la professione del moderatore di contenuti impiega più di 150 mila persone, «più del doppio dei dipendenti di Google, e quasi 9 volte quelli di Facebook». Nel fortunato e discusso articolo scritto da Adrian Chen su Wired di cui il documentario è una sorta di spin-off, tuttavia, appare chiaro che i grandi della Silicon Valley trattano questa attività come fosse polvere da nascondere sotto al tappeto: Sarah Roberts, studiosa dei media alla University of Western Ontario, ha raccontato a Chen che «se non c’è una campagna esplicita finalizzata a occultare, di certo ne esiste una tacita». Un aspetto interessante è che questo avviene non tanto – o meglio, non soltanto – per questioni di immagine, ma anche e soprattutto per non intaccare la prospettiva culturale da cui quest’epoca guarda a internet e alla tecnologia come a qualcosa di autonomo, che esiste al di là (e a prescindere) dall’umano.

Schermata 2017-05-03 alle 15.58.46

I ragazzi del sudest asiatico che controllano l’innocua limpidezza dei nostri feed, tuttavia, sono persone, e spesso ciò che fanno durante il giorno cambia le loro vite per sempre. «Dal momento in cui vedi la prima immagine, diventi un altro», ha detto Wired Jane Stevenson, che ha un passato da responsabile del dipartimento della salute professionale della National Crime Squad, l’Fbi britannico. Negli anni passati nei servizi – i primi del Duemila, quelli della prima ondata di contrasto alla pedopornografia online – Stevenson ha visto i suoi investigatori pagare un duro prezzo psicologico per le loro attività nelle indagini. Cosa significa dover guardare nel baratro più profondo del male per otto ore al giorno? Qualche specialista accosta le conseguenze ai disturbi post traumatici da stress, ma gli studi più specifici nel campo sono soltanto agli inizi, ed è difficile rendere giustizia alla complessità delle emozioni provate da un moderator. Rob, un ex impiegato di YouTube, dopo i primi mesi di lavoro è diventato chiuso e introverso; Henry Soto, impiegato a Seattle dal reparto sicurezza online di Microsoft, ha sviluppato stress, insonnia, ansia, allucinazioni uditive, finché passare del tempo con suo figlio è diventato uno sforzo, perché la sua vicinanza richiamava ricordi traumatici. Ad altri moderatori, l’iperesposizione alla pornografia causa mancanza di desiderio sessuale coi partner, o viceversa una propensione a fare sesso impossibile da saziare.

Queste storie stanno iniziando a passare dagli uffici di grandi società di outsourcing alle aule dei tribunali: alla fine dell’anno scorso Soto e un suo ex collega dei tempi di Microsoft hanno citato in giudizio la corporation di Bill Gates per le conseguenze che ha avuto sulla loro salute mentale, accusandola di non averli preparati a dovere a ciò che stavano per affrontare. La società ha risposto in un comunicato che «considera seriamente la sua responsabilità di rimuovere e riportare materiale che documenta abusi sessuali su minori condiviso sui suoi servizi, così come la salute e le capacità di recupero degli impiegati che svolgono questo lavoro importante». Nonostante gli algoritmi costantemente aggiornati e sempre meno fallibili, il mito dell’intelligenza artificiale e dell’automazione dipende ancora largamente da persone in carne e ossa. Per usare le parole pronunciate in un inglese stentato da uno degli specialisti intervistati da The Moderators, «humans are needed, that I’m sure».

Nelle immagini, scene da The Moderators
Articoli Suggeriti
Grazie all’accordo tra Netflix e la Nasa ora si potrà fare binge watching anche dell’esplorazione spaziale

Lanci dei razzi, passeggiate nello spazio, la Terra vista dalla Stazione spaziale internazionale: tutto disponibile su Netflix a partire da questa estate.

Una delle band più popolari su Spotify nell’ultimo mese è un gruppo psych rock generato dall’AI

Trecentomila ascoltatori mensili per i Velvet Sundown, che fanno canzoni abbastanza brutte e soprattutto non esistono davvero.

Leggi anche ↓
Grazie all’accordo tra Netflix e la Nasa ora si potrà fare binge watching anche dell’esplorazione spaziale

Lanci dei razzi, passeggiate nello spazio, la Terra vista dalla Stazione spaziale internazionale: tutto disponibile su Netflix a partire da questa estate.

Una delle band più popolari su Spotify nell’ultimo mese è un gruppo psych rock generato dall’AI

Trecentomila ascoltatori mensili per i Velvet Sundown, che fanno canzoni abbastanza brutte e soprattutto non esistono davvero.

La storia del turista norvegese respinto dagli Stati Uniti per un meme su Vance sembrava falsa perché effettivamente lo era

Il visto non gli è stato negato per un meme, ma perché ha ammesso di aver consumato stupefacenti.

C’è un sito che usa il riconoscimento facciale per trovare e denunciare i poliziotti violenti

Si chiama fuckLAPD.com, l'ha creato un artista americano per trovare gli agenti che coprono i loro numeri identificativi. 

Adesso anche Wikipedia ha una sezione dedicata ai giochi e all’enigmistica

L'enciclopedia libera si unisce a New York Times, Atlantic, New Yorker e molti altri giornali che in questi anni hanno investito parecchio nella gamification.

La nuova arma di propaganda preferita dell’Iran sono i Lego

In particolare, cartoni animati che riprendono l'estetica Lego in cui si racconta che Netanyahu e Trump sono amici del diavolo.