Cultura | Social
Per aggirare la censura dell’algoritmo ci siamo dovuti inventare una nuova lingua social
Numeri al posto di lettere, emoji, giochi di parole: i social stanno cambiando il nostro modo di scrivere, creando un alfabeto nuovo, misto, ma soprattutto ambiguo.

Chi è cresciuto in Lombardia la storiella l’ha probabilmente sentita almeno una volta. “Cara Maria, Qui è tutto stupendo. I vestiti sono comodi, si sta al caldo, e si mangia bene”. Firmato: il signor Minga Vera (mica vero, cioè falso, in dialetto milanese, ndr). È così che secondo la saggezza popolare – o almeno, secondo l’immaginazione narrativa dei nonni del nord Italia – i soldati al fronte aggiravano la censura di guerra. Facendo capire a chi era rimasto a casa che, a dispetto dell’entusiasmo imposto alle autorità, la situazione era in realtà disperata. Un secolo dopo, è cambiato molto, ma in fondo neanche tanto. Le lettere sono diventate tweet, post, reel. Ma il desiderio di controllare cosa può essere detto è rimasto simile a quello di un tempo; così come la creatività di chi, questa sorveglianza, ha trovato comunque il modo di aggirarla. E così, sono nate nuove emoji, parole, espressioni per parlare di suicidio, stupro, trauma, abusi. Argomenti tipicamente censurati dagli algoritmi di app e social media, che vogliono tenere lontani dalle proprie interazioni contenuti controversi o violenti. Ma che, grazie a un minimo di inventiva linguistica, continuano a esser ben al centro del discorso pubblico. Soprattutto tra i più giovani.
Gli esempi sono tanti. Alcuni mostrano un percorso di senso trasparente, perfettamente ricostruibile. Come l’aggettivo inglese unalive, virtuosismo morfologico per dire “ucciso”, e poi specializzatosi ulteriormente come espressione per parlare di suicidio. Oppure le ovvie assonanze: corn per porn, le$bian per lesbian, seggs per sex. Altri, invece, sono innovazioni molto più arbitrarie, se non proprio impenetrabili. Come pdf, formato di file che nel lingo di internet sta per l’impronunciabile pedofilo. Oppure accounting per sex work, nato su Onlyfans. A quanto pare, perché quando si fa un lavoro noioso e monotono come il contabile nessuno si sogna di fare ulteriori domande, e allora sarebbe bello fosse così anche se ti occupi di altro. Simili guizzi di innovazione hanno anche coinvolto gli emoji, con una curiosa variazione tra lingue. In francese, un semplice pallino viola 🟣 ha assunto il significato di stupro, sulla base della parola viol, che appunto ha quel significato nella lingua. In Cina, ai tempi dell’esplosione del movimento MeToo, si inventarono gli emoji di un coniglio e di una ciotola di riso in successione, che divenne poi noto come #RiceBunny. In cinese mandarino, le due parole suonano appunto come “mi tu”, e riuscirono ad aggirare, almeno parzialmente, il tentativo del governo di togliere la voce al movimento femminista, il cui spirito di protesta politica e sociale minacciava la stabilità del regime. Mentre in tempi recenti, l’icona dell’anguria 🍉, la cui combinazione cromatica di rosso, nero e verde richiama la bandiera della Palestina, è tornata in auge — soprattutto in contesti in cui, per ideologia o pusillanimità intellettuale, prendere posizione sulla questione è inappropriato, se non addirittura proibito.
E così, quello che i boomer chiamano amichevolmente TikToklish — presumibilmente ridendo solo loro alla battuta — si rivela un lessico articolato e variegato, figlio di due proprietà distintive del linguaggio umano. Che esistono da decine di millenni, ma che nessun sistema di intelligenza artificiale, per quanto spacciato per generativo, è ancora riuscito a ricreare. Una è l’arbitrarietà del legame tra segno e significato, che ci permette di esprimere la stessa idea in molti – teoricamente, infiniti – modi diversi. Un cane non ha altra scelta che mostrare i denti quando vuole esprimere l’idea di minaccia; ma un umano può scegliere di farlo in molti modi, ed eventualmente, al bisogno, inventarne alcuni mai usati prima. L’altro è il ruolo dominante dell’intenzione comunicativa. Quello che conta veramente è quello che vogliamo dire, più che come lo facciamo; se chi sta dall’altra parte è in grado di riconoscere le nostre intenzioni, e interpretare quello che diciamo alla luce di esse, la comunicazione può tranquillamente andare a buon fine. Anche se fa uso di termini non convenzionali. Non è un segreto, allora, che la pratica di riferirsi alle cose indirettamente – di dire qualcosa chiaramente, pur senza dirlo esplicitamente – sia comune a tutte le culture, e ben prima dell’avvento dei social media. Eufemismi, bestemmie edulcorate, aggiramenti di parole taboo, oltre che veri e propri messaggi in codice, sono sempre esistiti. L’esplosione di spazi di interazione digitale, accessibili a tutti, li ha semplicemente resi più evidenti.
Se i meccanismi di generazione del significato sono quelli di sempre, a essere inedita è la natura delle questioni etiche e sociali che la censura sui social media solleva – oltre che la loro scala globale. In primo luogo, è giusto restringere, se non addirittura oscurare, contenuti di estrema violenza fisica ed emotiva? Quando si parla di regimi totalitari ed oppressione di diritti civili, c’è poco da dibattere. Lo shadow banning, invece, è più difficile da inquadrare. Innanzitutto perché si sa pochissimo su come funzioni davvero, e su quale sia la divisione del lavoro tra discernimento umano e filtri computazionali. E in secondo luogo perché le linee guida etiche dei social media sono volutamente vaghe, elusive, aperte a varie interpretazioni. Talmente soggettive che diventa difficile anche solo capire cosa sia concesso e cosa no – figuriamoci entrare nel merito delle restrizioni.
Da un lato molte voci, in buona fede, si chiedono se sia auspicabile che migliaia di persone vulnerabili, a volte giovanissime, trovino il modo di parlare a ruota libera di esperienza traumatiche come suicidio, stupro, bullismo. E se il brivido collettivo dato dall’aggirare il sistema non comporti il rischio di idealizzare, se non proprio esaltare, situazioni potenzialmente pericolose. Dall’altro, molti rispondono – anche tra i professionisti della salute mentale – che il vero rischio è quello di rimanere in silenzio. Non solo gli utenti di TikTok e affini sono perfettamente in grado di separare il discutere di certi comportamenti dall’adottarli davvero; ma se davvero si imponesse la censura, molte vittime di abuso e violenza non avrebbero modo di condividere la propria prospettiva, finendo relegate ai margine della discussione. E subendo dunque un’ingiustizia una seconda volta.
L’altra questione spinosa ruota attorno ai fini ideologici per cui nascono le innovazioni lessicali. La flessibilità del linguaggio è infatti un’arma a doppio taglio. Tanto preziosa quanto devastante. Permette di eludere sorveglianza e repressione, difendendo gli spazi di discussione che queste vorrebbero eliminare. Ma è pure uno strumento tremendamente efficace per far circolare clandestinamente contenuti che viceversa non dovrebbero esistere: messaggi di odio, proclami razzisti, incitazioni alla violenza. Come la raffica di emoji di scimmie e banane che alcuni inglesi mandarono ai calciatori di colore della propria nazionale, subito dopo la sconfitta nella finale dell’Europeo – episodio ulteriormente aggravatosi in seguito al ritardo grottesco con cui Instagram si decise a intervenire, dopo aver inizialmente sostenuto che il contenuto in questione non costituiva una violazione delle linee guida. Oppure i dogwhistle, letteralmente “richiami per i cani”, con cui Donald Trump da anni aizza e si ingrazia le frange più estreme del proprio elettorato. Diffondendo messaggi che non possono essere formulati esplicitamente, ma che pure vengono comodamente recepiti da chi di dovere. Dal tristemente famoso «stand back and stand by» con cui strizzò l’occhio in diretta nazionale ai suprematisti bianchi nel primo dibattito presidenziale del 2020 (sembra una vita fa, ma son passati solo quattro anni). Fino alle martellanti dichiarazioni anti-immigrazione clandestina diventate routine negli ultimi mesi. Come quella secondo cui «gli immigrati irregolari stanno avvelenando il sangue della nazione» – un affondo che in molti hanno percepito come un bieco grido di superiorità razziale, molto più che un commento politico sulla politica dell’immigrazione.
Certo, ci sono voluti secoli per sviluppare una senso di coscienza collettiva attorno alla gravità di certe idee— negli Stati Uniti e in molte altre società. Renderle socialmente impronunciabili, come succede con la N-word e i suoi derivati, è stato un passo fondamentale in questa direzione. Eppure, è evidente che non è bastato a impedire a queste idee di continuare a circolare. E così, la morale che sembra delinearsi, anche guardando a casi così diversi tra loro, è che nessuna forma di controllo sul linguaggio, a qualsiasi finalità, può mai essere veramente efficace. Non solo perché arginare la diffusione di certi contenuti è impossibile — soprattutto con le piattaforme di oggi. Ma pure perché la censura genera un paradosso in cui continuiamo a imbatterci: quando non si può parlare apertamente di qualcosa, farlo clandestinamente genera un meccanismo di solidarietà tremendamente efficace, che finisce con l’amplificare notevolmente la sua portata.
L’effetto è più che mai benefico quando si tratta di trasmettere coraggio e dare una voce a chi è in crisi o ha subito dei traumi pesanti. Ma può avere conseguenze politiche importanti quando la censura si sposta sul piano puramente ideologico. Un po’ come quando i conservatori si sono accorti che insultare Joe Biden era particolarmente efficace se fatto al grido di «let’s go Brandon»; un’espressione diventata in breve tempo un modo di esprimere proprio quel “fuck Joe Biden” che il giornalista originario si era premurato di censurare, con risultati evidentemente disastrosi. Era il 2021. Ai tempi ci si scherzava sopra, anche a sinistra; ma ora la voglia di fare battute è calata drasticamente. E dire che, in quel caso come in molti altri, se solo se ne fosse parlato apertamente, se ne sarebbe parlato molto di meno.