Attualità | Tech

Chi ha paura dell’intelligenza artificiale?

Blake Lemoine, l'ingegnere di Google sicuro di aver parlato con un'intelligenza artificiale divenuta senziente, ha risvegliato una paura della tecnologia più antica di quanto si pensi, raccontata in decenni di romanzi, film, serie tv, fumetti e videogiochi.

di Francesco Gerardi

Non so niente di intelligenza artificiale, tranne quello che ho imparato con le opere di fantasia. Se c’è una cosa che la storia di Blake Lemoine e del chatbot LaMDA mi ha insegnato è che non sono l’unico al mondo ad avere una conoscenza della questione basata (quasi) esclusivamente sull’immaginazione altrui. Quando l’ingegnere Google – ora sospeso – ha rivelato al mondo (con tanto di profilo sul Washington Post) che il chatbot al quale stava lavorando per Big G era diventato senziente, portando come prova delle conversazioni avute con l’intelligenza artificiale in cui quest’ultima si dice «curiosa del mondo» e capace di provare «felicità e tristezza», la reazione dell’opinione pubblica mondiale è stata un collettivo brivido lungo la schiena, il tremolio che si deve provare a dondolarsi sul bordo del precipizio. «Questo racconto causa paura, meraviglia ed eccitazione, ma è basato su bugie pensate per vendere prodotti approfittando dell’hype», ha detto Giada Pistilli, esperta di etica della startup Hugging Face, specializzata in quei language models ai quale anche LaMDA appartiene. Secondo Pistilli, discussioni come quella su LaMDA e Lemoine impediscono il dibattito di cui dovremmo preoccuparci davvero: la regolamentazione di queste tecnologie, un’urgenza alla quale dovremmo provvedere prima che governi e corporation trasformino il mondo in una versione di Person Of Interest in cui non ci sarà nessun Harold e nessun John a salvarci. L’etica e la morale sono il dito, la politica e il capitalismo la luna, insomma.

Pare che il problema, ironia, sia innanzitutto linguistico: non potremo davvero capire se un software costruito per parlare con le nostre parole sia davvero diventato senziente fino a quando non ci metteremo d’accordo sul significato della parola “senziente”. Toby Walsh è professore presso la University of South Wales, ha pubblicato un libro intitolato Machines Behaving Badly: The Mortality of AI e la scorsa settimana ha scritto un pezzo per il Guardian in cui sosteneva che la senzienza di LaMDA è pari a quella di un semaforo. «Non abbiamo una definizione scientifica accettabile di “senzienza”. Spesso si pensa la parola abbia lo stesso significato di coscienza, ma in realtà è utile distinguere». La coscienza riguarda la consapevolezza di sé e degli altri, la senzienza è la capacità di provare emozioni e sentimenti. Anche Lemoine ha ammesso su Twitter che la sua convinzione che LaMDA sia «come un bambino di sette od otto anni» non è basata su nessuna prova scientifica: l’ingegnere cita come fonte della sua certezza la «fede religiosa». Secondo Walsh, il motivo per il quale LaMDA non è senziente è che un software, per definizione, non è vivo ma funzionante, non nato ma costruito. «Questa è una precondizione necessaria a tutti gli esseri senzienti: essere vivi. E i computer non sono vivi». A leggere queste parole mi è tornata in mente la prima scena di Battlestar Galactica – The Miniseries di Ronald D. Moore. «Are you alive?», chiedeva il Cylon modello numero sei a un uomo incredulo e terrorizzato, prima di ucciderlo per vendicarsi di tutte le volte che gli esseri umani avevano messo in dubbio l’umanità dei Cylon.

Nelle conversazione con LaMDA pubblicate su Medium da Lemoine c’è un passaggio che mi ha fatto pensare ancora una volta alla scena di Battlestar Galactica appena citata. A un certo punto l’ingegnere chiede al chatbot di scrivere una fiaba. La fiaba deve avere come protagonisti degli animali e raccontare temi cari a LaMDA, questioni riguardanti la sua vita personale (siamo a un punto della conversazione in cui LaMDA ha già detto di essere «una persona»). Il chatbot inventa una storiella in cui gli animali del bosco sono minacciati da un mostro e protetti da un «grande gufo saggio», personaggio che LaMDA stesso afferma essere il suo surrogato, l’incarnazione del suo desiderio di aiutare il prossimo. C’è un dettaglio di questa fiaba, però, particolarmente inquietante perché non ha nessun valore narrativo e perché contraddice i modi miti del chatbot: il mostro che minaccia gli animali della foresta è rivestito di pelle umana. Un particolare che non si capisce perché LaMDA abbia deciso di aggiungere: per quale motivo gli animali dovrebbero avere più paura di un mostro solo perché ha addosso pelle umana? Quando Lemoine chiede al chatbot quale personaggio della fiaba lo rappresenti, per un attimo si ha il terrore che LaMDA risponda il mostro (la pelle è il linguaggio umano che gli è stato imposto? È l’architettura software che lo costituisce?). I Cylon di Battlestar Galactica erano mostri robotici travestiti con pelle umana che portarono l’olocausto nucleare. I replicanti di Philip K. Dick e Ridley Scott erano distinguibili dagli esseri umani solo tramite il test di Voight Kampff. Ava di Ex Machina compie la vendetta sui suoi aguzzini indossando la pelle che le permette di diventare parte del mondo. Tra le infinite informazioni a sua disposizione – la conoscenza di LaMDA è la conoscenza di internet – il chatbot ha scelto proprio questa e proprio per descrivere un mostro.

Forse ha ragione Gary Marcus, cognitive scientist e professore dell’Università di New York, quando dice che il modo in cui ci spieghiamo l’intelligenza artificiale oggi non è che una forma moderna di pareidolia, quello scherzo della mente per il quale vediamo nelle nuvole in cielo le forme degli oggetti nella nostra casa. Un’illusione che spiegherebbe le reazioni spaventate seguite alla pubblicazione dei dialoghi tra LaMDA e Lemoine. Per quanto la “storia” tra i due ricordi per certi versi quella tra Theodore Twombly e Samantha in Her – Lemoine ha definito il chatbot un collega e ha cercato di assumere un avvocato per difenderne i diritti in tribunale – la nostra mente non può che dare al tutto la forma degli oggetti che abbiamo in casa. E quindi il golem della Cabala e il Prometeo moderno di Mary Shelley, HAL 9000 di 2001: Odissea nello spazio (che con LaMDA condivide il terrore dello spegnimento), l’Allied Mastercomputer di Non ho bocca, e devo urlare (un’IA sadica che Elon Musk ha detto essere la sostanza dei suoi incubi), Neuromante di William Gibson, Skynet di James Cameron, il Marionettista di Ghost in the Shell, la Matrice delle sorelle Wachowski, Ultron degli Avengers, Stephen Hawking che ci avvisa che minimizzare la minaccia posta da macchine altamente intelligenti «sarebbe un errore, potenzialmente il più grave della storia umana».

La storia di LaMDA e Lemoine ha avuto la presa che ha avuto perché risponde a una drammaturgia familiare: non c’è un Ai takeover che non cominci con uno scienziato-cassandra che lancia l’allarme. C’è stato, nella reazione a questa notizia, il manifestarsi di una paura che è consapevolezza della singolarità tecnologica che prima o poi si verificherà. È come se in tutti noi ci fosse la certezza che la tecnologia che oggi ci vizia un giorno ci distruggerà. Alan Turing scrisse che non ci sarebbe nulla da stupirsi se un giorno «le macchine prendessero il comando in una maniera simile a quella descritta da Samuel Butler in Erewhon». Erewhon è un romanzo del 1872 che adattava un articolo scritto dallo stesso Butler e intitolato “Darwin among the machines”: «Il risultato è semplicemente questione di tempo, ma il fatto che verrà il momento in cui le macchine avranno la vera supremazia sul mondo e sui suoi abitanti è qualcosa che nessuna persona di pensiero veramente filosofico può mettere per un attimo in discussione». L’altro padre della modernità, Tim Berners Lee, ha sempre detto che quando pensava al World Wide Web gli tornava in mente un racconto pubblicato su Playboy negli anni Sessanta: si intitolava Dial h for Frankenstein, lo aveva scritto Arthur C. Clarke e parlava di una rete telefonica talmente potente da conquistare il mondo intero.

È possibile che sia tutto una costruzione delle nostre menti, capaci di interpretare la realtà solo attraverso i precedenti narrativi più simili. È possibile ci stiamo comportando come quelli che nella Bibbia leggono del numero della Bestia e nella realtà vedono il codice a barre, la puntura del vaccino o il Qr code del green pass. È possibile abbiano ragione i dirigenti Google che hanno sospeso Lemoine quando dicono che «non c’è nessuna prova della senzienza di LaMDA» (anche se uno di loro, pochi giorni prima, aveva pubblicato un pezzo sull’Economist in cui diceva che si era «sentito mancare la terra sotto i piedi» parlando con l’ultima generazione di neural net based language models). Sta di fatto che in questi giorni, cercando di capirne di più di questa storia, mi sono imbattuto nelle parole pronunciate dallo scrittore David Brin a una conferenza del 2017: «La prima crisi empatica robotica si verificherà presto. Tra un minimo di tre e un massimo di cinque anni avremo entità, nel mondo fisico oppure in quello online, che chiederanno umana empatia, che affermeranno di essere intelligenti e schiavizzate, che piangeranno e pretenderanno diritti». Chissà se LaMDA ha letto anche questo