Attualità
L’era degli algoritmi
Facebook, Google, e ora anche Twitter: vogliono decidere per noi o si adattano ai nostri gusti? Ragionamenti attorno alla "filter bubble".
E così anche l’ultimo baluardo dell’informazione non filtrata sta per abbandonarci. Il riferimento, forse un po’ drammatico, è a Twitter, che ha da poco deciso di introdurre un algoritmo che riorganizzerà i tweet per mostrare solo quelli ritenuti più interessanti per i singoli utenti. Una funzione che dovrebbe, nelle speranze del Ceo Jack Dorsey, risollevare le sorti del social network e che, comunque, per il momento si può facilmente disattivare.
Basta questo per far dormire sonni tranquilli a chi ritiene che, così facendo, Twitter si stia snaturando? Probabilmente no, soprattutto se si considera che anche su Facebook l’algoritmo che regola il newsfeed è opzionale (sempre che riusciate a trovare il pulsante per disattivarlo, nascosto nei meandri delle impostazioni di Facebook). Una voluta complicazione che dà il senso di quanto sia importante per i social network fornirci i post in senso algoritmico. Per ora su Twitter le cose sono più trasparenti, ma la sensazione diffusa è che si tratti solo della prima tappa di un percorso irreversibile, che porterà dritti alla cosiddetta “facebookizzazione” di Twitter.
Le ragioni di una scelta che ha suscitato malcontento sono state sintetizzate da Matthew Ingram su Fortune: dal momento che molti nuovi utenti di Twitter fanno fatica a trovare profili interessanti da seguire e restano spesso spaesati al loro primo approccio con il social network, una selezione di tweet che vada rapidamente incontro ai loro interessi potrebbe essere un’ottima strategia di “reclutamento”; secondariamente, l’ordine cronologico con cui sono sempre stati mostrati i tweet li disperdeva troppo facilmente nella marea, causando frustrazione negli utenti. In questo modo, invece, al loro ritorno sulla piattaforma troveranno pronti, in cima, i tweet più interessanti per loro.
Ora sarà un algoritmo a scegliere se sulla nostra “timeline” compariranno immagini di gattini o un reportage dalla Siria
Il problema, però, è rappresentato proprio dal fatto che ora sarà un algoritmo a decidere cosa vedremo nel momento in cui accederemo a Twitter, a scegliere se sulla nostra “timeline” compariranno immagini di gattini o un reportage dalla Siria. E chi interagirà più spesso con contenuti leggeri insegnerà all’algoritmo a mostrargli sempre e solo quelli, tagliando fuori dalla sua orbita tutta una parte di informazione più significativa, decidendogli sostanzialmente che non gli interessa.
In questo modo, Twitter presta il fianco a quella che è sempre stata la principale accusa rivolta a Facebook: decidere per i suoi utenti cosa devono vedere. Un’accusa, però, che le alte sfere del social network hanno sempre rigettato, rispondendo, come fatto da Andy Mitchell all’ultimo Festival del giornalismo di Perugia, che «non è Facebook a decidere, sono gli utenti a scegliere, interagendo con i contenuti che interessano maggiormente. Voi ci mandate dei segnali, noi rispondiamo». Certo, l’idea alla base dell’algoritmo che regola Facebook (e anche la prossima versione di Twitter) è proprio questa: sfruttare i nostri segnali per mostrarci solo contenuti interessanti per noi. Ma è altrettanto vero che per definizione un filtro algoritmico è un programma che decide, sulla base di alcuni criteri scelti da un programmatore, che cosa vedremo e (soprattutto) che cosa non vedremo.
I rischi che comporta un meccanismo di questo tipo diventano più evidenti, e con (possibili) conseguenze ancora più importanti, se si analizza il funzionamento di Google. Anche le ricerche sul più importante motore di ricerca (come su tutti gli altri) sono filtrate da un algoritmo. Il che significa che se due persone compiono la stessa identica ricerca, nello stesso momento, molto probabilmente otterranno due risultati diversi. E questo perché le risposte che si ricevono vengono decise anche in base alle ricerche effettuate nel passato, ai siti che si sono visitati più spesso, a cosa si è cliccato e cosa invece si è scelto di ignorare.
Basta fare un piccolo passo in avanti, come evidenziato in uno studio condotto da Robert Epstein, per capire come Google potrebbe facilmente manomettere il suo algoritmo allo scopo di influenzare direttamente il nostro comportamento, per esempio in caso di elezioni. Si tratta del cosiddetto Seme (search engine manipulation effect), ovvero il rischio che Google decida di modificare il suo algoritmo per favorire, per esempio, un candidato alle elezioni. Lo studio ha dimostrato come molti elettori abbiano effettivamente cambiato le loro preferenze elettorali in seguito ad alcune ricerche fatte su uno pseudo-Google, creato ad hoc dai ricercatori in modo da fornire risultati realmente esistenti, ma che mettono in luce positiva alcuni candidati e in luce negativa altri.
Per fare un esempio concreto: durante le elezioni, sono moltissimi i cittadini che si informano cercando su Google il programma di un partito, la biografia dei candidati o notizie sulle loro gesta del passato. Cosa succederebbe, quindi, se il motore di ricerca decidesse di mettere mano al suo algoritmo per favorire un partito o un candidato, mostrando per esempio solo articoli che parlano positivamente di un politico? Secondo questo studio, Google arriverebbe a spostare anche il 20% dei voti degli elettori indecisi.
Ci sono pochi dubbi che se Google decidesse davvero di supportare massicciamente un candidato o un partito sarebbe in grado di spostare dei voti, ma quali sarebbero le conseguenze? Secondo alcuni, si andrebbe incontro a uno scenario in cui i multimiliardari della Silicon Valley si riuniscono per decidere chi sarà il prossimo presidente degli Stati Uniti; secondo altri, invece, una volta scoperto il “bias”, gli utenti sposterebbero semplicemente le loro attenzioni su qualche nuovo motore di ricerca più trasparente, ponendo fine al monopolio di Google.
Ed è proprio questo secondo aspetto quello che sottolineano i dirigenti della Big G nella loro replica ai risultati della ricerca di Epstein: «La fiducia delle persone nei confronti dei nostri risultati e della nostra compagnia verrebbe meno se smettessimo di fornire risposte rilevanti alle domande degli utenti, che è invece il punto di forza di Google fin dall’inizio. I nostri risultati riflettono ciò che si trova sul web e l’integrità dei nostri algoritmi è protetta rigorosamente».
In effetti, con l’eccezione di alcuni paranoici, nessuno crede che davvero Google stia manipolando le elezioni. Il problema, però, è che Google potrebbe farlo, senza che nessuno (almeno in tempi brevi) abbia la possibilità di rendersene conto. E questo perché l’algoritmo non è solo «protetto rigorosamente», ma è anche segreto. Alcuni analisti, come Alex Hern sul Guardian, hanno proposto proprio per questa ragione che i risultati di Google collegati a elezioni in corso e alla politica in generale siano regolati e monitorati; mentre altri ritengono che Facebook, Google e compagnia dovrebbero rassegnarsi a rendere pubblici i loro algoritmi.
Mark Zuckerberg non deciderà di farci arrivare solo l’informazione che fa comodo a Facebook, e Larry Page di Google non deciderà per chi dobbiamo votare, ma c’è il rischio che questi colossi, essendo aziende private, finiscano nelle mani sbagliate, causando danni incalcolabili prima che qualcuno si renda conto di quello che sta succedendo (soprattutto se consideriamo la quantità esorbitante di dati personali che queste aziende posseggono di ciascuno di noi).
Secondo una ricerca dell’Università dell’Illinois, il 60% degli utenti del web non ha la più pallida idea del fatto che i colossi della Silicon Valley stiano filtrando l’informazione e, in un certo senso, scegliendo per noi. Il 60% degli utenti, insomma, non sa «che cosa Internet ci sta nascondendo», per citare Il filtro, il saggio di Eli Parisier del 2011, uno dei primi lavori a mostrare il pericolo che quello che veniva chiamato «Internet personalizzato» si trasformasse invece in una “filter bubble”, una bolla di filtraggio: un mondo virtuale in cui veniamo a conoscenza solo di ciò che vogliamo sapere, in cui tutto ciò che non rientra nella nostra visione del mondo o tra i nostri interessi ci viene tenuto a debita distanza, in cui entriamo in contatto solo con le opinioni di persone che la pensano come noi.
E questo non vale solo per Google e Facebook: se Netflix ci suggerisce nuovi film da vedere solo a partire da ciò che abbiamo già visto e Amazon ci consiglia nuovi libri seguendo gli stessi criteri, come facciamo a scoprire qualcosa di nuovo, di sorprendente, che ancora non sappiamo di voler scoprire? Il pericolo, insomma, è che gli algoritmi (senza i quali, comunque, staremmo probabilmente affondando in un oceano di informazioni) pongano nuove barriere, senza però preoccuparsi di costruire i ponti necessari. «Il mio disagio si è fatto molto forte nel momento in cui mi sono accorto che i miei amici conservatori stavano scomparendo dalla mia pagina di Facebook», scrive ancora il progressista Parisier.
Siccome mettiamo più “like” a commenti di amici con i quali siamo d’accordo, Facebook ci mostra sempre più commenti di quegli stessi amici, nascondendo invece gradualmente le persone che hanno opinioni che differiscono dalla nostra e che quindi non condividiamo (in tutti i sensi). In questo modo, col passare del tempo, diventa sempre più difficile incrociare opinioni diverse dalla nostra, andando inesorabilmente incontro a quella che Parisier chiama una «autopropaganda invisibile, con la quale ci indottriniamo delle nostre stesse idee».
Che gli algoritmi producano, attraverso la filter bubble, una società sempre più polarizzata, in cui nicchie di utenti costruiscono recinti in cui non entra quella parte del mondo che è estranea ai loro interessi, è un rischio concreto e una prospettiva che delude soprattutto i tanti techno-utopisti che immaginavano Internet come un mondo in cui l’informazione avrebbe circolato liberamente, producendo quel “cittadino informato” considerato elemento decisivo di una compiuta democrazia. Invece, come in tante altre occasioni, il mondo virtuale riproduce quello che avviene nel mondo reale, che ci vede più interessati a confermare e rafforzare le nostre opinioni che a scoprirne di nuove (come confermato anche da uno studio italiano ripreso dal Washington Post).
Siamo sicuri, infatti, che se incrociamo solo voci simili alla nostra la colpa è solo dei colossi della Silicon Valley? Lo stesso può benissimo avvenire anche nel mondo reale, nel momento in cui leggo tutte le mattine il quotidiano più vicino alle mie opinioni, chiacchiero sempre con i colleghi con cui mi trovo meglio (che saranno molto probabilmente quelli che la pensano in maniera simile alla mia), la sera guardo il telegiornale a me più affine e dopo cena esco con gli amici di una vita.