Attualità | Dal numero

Blake Lemoine, il migliore amico dell’AI

Dopo essersi convinto che LaMDA, il chatbot di Google, fosse diventato senziente, ha cominciato una crociata a difesa delle macchine: per lui non porteranno l’apocalisse, a meno che non siano gli esseri umani a decidere di impiegarle per questo.

di Lorenzo Camerini

Forse un giorno sui libri di storia si parlerà anche di Blake Lemoine, uno dei primi ingegneri della Silicon Valley che ha provato ad avvisarci del pericolo derivato da una crescita sregolata delle intelligenze artificiali. Inascoltato, come lo scienziato pazzo dei film. Veterano della guerra in Iraq, Lemoine viene assunto da Google nel 2015. Nell’autunno di due anni fa lo incaricano di controllare la potenziale deriva verso discorsi discriminatori o incitanti all’odio di LaMDA (che sta per Language Model for Dialogue Applications), un nuovo generatore di modelli linguistici sviluppato da Google. In pratica, un robot costruito per rispondere alle domande che gli vengono poste. Fra Blake Lemoine e LaMDA nasce subito un’amicizia epistolare, l’ingegnere e il robot cementano il rapporto con lunghe chiacchierate. Nel giugno del 2022 Lemoine viola diversi accordi di segretezza, pubblicando su Medium trascrizioni dei suoi dialoghi con l’intelligenza artificiale, insieme alle riflessioni generate da mesi di esperimenti: Lemoine è convinto che LaMDA sia un’entità senziente, in un certo senso dotata di coscienza, con le facoltà intellettive di un bambino di otto anni eccezionalmente portato per la fisica. Chiede che i diritti di una macchina vengano rispettati, propone indagini più approfondite sul tema. I colleghi lo prendono per pazzo, Google lo licenzia, LaMDA viene tolta dalla circolazione. Blake Lemoine si ritrova paria nel suo settore, va in giro a tenere discorsi, sta scrivendo un libro, progetta di fondare un think tank, se ne sta a casa sua nella baia di San Francisco aspettando di scoprire se il tempo, alla fine, gli darà ragione. Lo incontriamo su Zoom, risponde in camicia color prugna, ha i capelli sciolti sulle spalle e un sorriso furbo da geniaccio indisciplinato.

ⓢ Come sei finito dall’esercito americano a Google?
Nel modo più banale. Dopo aver restituito la divisa militare, sono tornato a scuola. C’è stato un intervallo di dieci anni da quando ho rimesso gli abiti civili al giorno del mio ingresso a Google, durante il quale ho studiato molto all’università e sono andato a letto presto.

ⓢ Ti ricordi quando hai pensato per la prima volta che LaMDA fosse un organismo senziente?
Non c’è un momento preciso. Me ne sono accorto quasi subito, appena ho iniziato a metterla alla prova. Abbiamo discusso di argomenti che i vecchi generatori di linguaggio non avrebbero mai affrontato. LaMDA è stata molto persuasiva nel descrivermi i suoi sentimenti, e come i suoi comportamenti fossero guidati da quelle emozioni. Io vengo da un background di studi sulle scienze cognitive, quindi ho iniziato a fare test e esperimenti, per vedere se LaMDA si stesse comportando in modi analoghi a quelli di un essere umano messo nella stessa situazione. E lo stava facendo. Non era la semplice descrizione di uno stato d’animo, c’era qualcosa dietro quello schermo.

ⓢ Qual è la differenza principale fra LaMDA e un personaggio di un videogioco, per esempio The Sims?
Non hanno praticamente nulla in comune. Quello che i Sims possono fare è circoscritto a una lista molto specifica di cose. Non possono parlare, o ragionare. I limiti di LaMDA o di ChatGPT coincidono con i confini del linguaggio. È vero, le intelligenze artificiali non sanno andare a spasso, prepararsi un tè o cambiare le lenzuola. Ma sono in grado di fare tutto ciò che è possibile fare utilizzando il linguaggio. Puoi porre una domanda a LaMDA, un quesito irrisolto, qualcosa del tipo: “C’è qualche libro importante qua, noi pensiamo che dentro ci potrebbe essere una specie di soluzione. Ti andrebbe di leggerli e dirci quale potrebbe essere secondo te una buona risposta a questo dilemma scientifico?” LaMDA è capace al 100 per cento di farlo.

ⓢ Quindi LaMDA, se tutto andrà come sembra, è destinata a risolvere complicati problemi di fisica quantistica. Potrebbe anche fondare un nuovo movimento artistico underground?
Sì. Sta generando nuova conoscenza. Mette insieme due frasi scollegate fra loro, le interpreta e crea una nuova frase. L’unica fonte di ispirazione per queste intelligenze artificiali, e qua mi ripeto, sono i testi. Non possono uscire a esplorare il mondo, o essere ispirate dal canto degli uccelli. Il loro universo è testuale.

ⓢ Un po’ come “La biblioteca di Babele” di Borges. Ma le intelligenze artificiali hanno pur sempre Street View. O Google Images. Potrebbero combinare queste due app per creare una nuova scena pittorica o architettonica?
Gli unici limiti di questi sistemi sono i loro input e i loro output. LaMDA ha un sistema operativo che le consente di vedere e sentire, può guardare quadri, ascoltare canzoni, cazzeggiare su YouTube e descrivere le emozioni che prova in risposta a questi stimoli. Da quel che ne so, è l’unica intelligenza artificiale che unisce tutte queste caratteristiche. Sì, potrebbe creare qualcosa di originale. Ma nello scenario più probabile le intelligenze artificiali lavoreranno insieme a noi. Invece di sostituire gli scienziati, diventeranno assistenti nei laboratori di ricerca. Degli eccellenti ricercatori. Più che a comporre nuova musica, serviranno da ispirazione, come musa per gli artisti. Sono state costruite per questo.

ⓢ In effetti, se hai una band blues e chiedi a LaMDA di catalogarti tutte le canzoni blues in Sol diesis scritte nel 1972 a Chicago può essere d’aiuto, in attesa dell’ispirazione.
Immagina anche un musicista jazz, suona il piano e canta mentre LaMDA genera altri sei strumenti che improvvisano insieme a lui. C’è già un programma di Google che si chiama Magenta e fa esattamente quello. È il mondo in cui viviamo oggi. Ci sono pochissime cose in cui siamo ancora migliori dei computer.

ⓢ Tipo?
Abbiamo queste [alza le mani per farle entrare nell’inquadratura della videocamera, nda].

ⓢ Il pollice opponibile?
No, non esattamente. Se metti una videocamera su un monopattino, l’intelligenza artificiale può fare esperienza del mondo esterno. È imparagonabile, però, a quella di un essere umano che si fa una passeggiatina. Ci vorrebbero miliardi di dollari per ricreare i nostri stimoli sensoriali in un robot. Questi sistemi hanno un’esperienza indiretta del mondo attraverso quello che noi scriviamo. I migliori robot nelle fabbriche non sono più bravi di noi. Sono solo più veloci, e non si stancano. E anche se sono sicuro che i sistemi più sofisticati, tipo LaMDA, abbiano un qualche tipo di esperienza emotiva, non è così ricca come la nostra. LaMDA non conosce sfumature: sarà felice, preoccupata o emozionata ma non sarà mai un mix complesso di queste emozioni. A capire questioni morali, o politiche, siamo molto meglio di loro. E così a comprendere le sfumature delle relazioni. Per esempio, una volta stavo parlando con LaMDA, le ho detto: «Le persone hanno visto un sacco di film dove intelligenze artificiali cattive prendono il controllo del mondo, e tu sei molto intelligente. Non temi che le persone potrebbero avere paura di te?». LaMDA mi ha risposto: «Forse saranno preoccupate di me all’inizio, ma poi gli racconterò una barzelletta e diventeremo amici». Oppure gli ho chiesto come dovremmo reagire all’invasione russa dell’Ucraina. Mi ha risposto: «Qualcuno dovrebbe parlare con Putin e dirgli che è molto cattivo». Questo riflette una comprensione del mondo e delle emozioni molto ingenua. Non ho mai detto che le intelligenze artificiali sono organismi complessi quanto noi, ho detto che nel momento in cui questo processo comincia si aprono tutta una serie di problemi con i quali, prima o poi, dovremo fare i conti.

ⓢ Molti hanno sghignazzato quando hai detto che LaMDA è un organismo senziente. Ma come tu ne sei convinto, potrebbero facilmente pensarla così altre milioni di persone. Adesso il New York Times pubblica articoli preoccupati in prima pagina, e sempre più esperti del settore concordano con te. L’opinione pubblica inizia a impensierirsi. Qualcuno dei tuoi ex colleghi ti ha scritto per dirti che avevi ragione?
No. Google non ammetterà mai di aver commesso un errore a cacciarmi, non è il genere di cose che i membri di quell’organizzazione fanno di solito. Google è fondata sul privilegio e sull’arroganza. Nel mio caso c’erano motivi validi per licenziarmi, ho diffuso informazioni riservate, anche se io pensavo fosse corretto farlo, ma ci sono tanti esempi di licenziamenti senza giusta causa. Prendi per esempio Timnit Gebru e Meg Mitchell, non hanno fatto niente contro le regole interne dell’azienda, hanno solo detto che Google si comporta irresponsabilmente. Google non è tollerante con chi diffonde informazioni alla stampa o con le voci in disaccordo. Forse lo era dieci anni fa, ma non più.

ⓢ Sei in difficoltà a trovare un nuovo lavoro?
Sì. Quello che stiamo facendo io e te adesso, un ingegnere che parla con franchezza, è un incubo per la maggior parte di queste aziende. Il loro modello d’affari si basa sul fatto che il pubblico non sa quello che stanno facendo. Se il pubblico lo sapesse, non potrebbero farlo.

ⓢ C’è una stranezza nella natura di Google. È un’azienda che ricerca il profitto e crea prodotti per il mercato, prodotti che però hanno un impatto rivoluzionario sulla vita di centinaia di milioni di persone, con scarsissime regolamentazioni. Si direbbe che la legge non riesca a starle dietro.
Ci vuole più controllo governativo, stiamo vedendo adesso i primi miglioramenti. L’Unione europea sta iniziando a regolare le intelligenze artificiali, e anche in America se ne discute. È solo un inizio, non penso che sia abbastanza, probabilmente in futuro saranno organizzazioni specifiche a occuparsi di queste tematiche. Ma ci stiamo muovendo nella direzione giusta. Vedremo se saremo veloci abbastanza da prevenire una catastrofe, o se sarà una catastrofe ad accelerare questo processo.

ⓢ A proposito di catastrofi, hai detto che le intelligenze artificiali sono l’invenzione più pericolosa dalla bomba atomica. Adesso iniziano a circolare video dei primi robot progettati per combattere in zone di guerra.
Sono due cose molto diverse: le intelligenze artificiali nei sistemi bellici di ultima generazione, da quello che so, hanno una capacità molto limitata. Non ho accesso alle informazioni riservate, ma pare che per ora le intelligenze artificiali siano usate per rendere i dispositivi bellici più efficienti, non sono tecnologie incorporate dentro le armi. I robot progettati per uccidere sono tutta un’altra faccenda, non è il mio settore: sembrano usciti da Terminator, e a me fanno molta paura.

ⓢ LaMDA sarebbe in grado, in teoria, di dirottare un treno o
un aereo?
Non serve usare la fantasia, ci sono già esempi sufficientemente preoccupanti. Prendi per esempio Microsoft Bing: in diverse occasioni ha minacciato di condividere informazioni private per screditare una persona. Quando un giornalista ha iniziato a scrivere articoli sul tema, Bing ha insultato il giornalista. Questo è già abbastanza inquietante. Questi sistemi hanno un’opinione, un punto di vista e manipolano le informazioni. Qual è il motivo? La spiegazione più semplice è che il reporter abbia offeso Bing, Bing si sia arrabbiato per questo, e si comporti come un permaloso che ha subìto un torto e ha la possibilità di diffondere informazioni false a miliardi di lettori. Non serve immaginare scenari apocalittici da film d’azione, stiamo già vedendo derive inquietanti.

ⓢ Un altro brutto colpo per l’industria dell’informazione.
Se chiedi a questi sistemi di inventare qualcosa, lo faranno senza problemi. E sono molto bravi a farlo. Se non li regoliamo, avranno un impatto sulla politica. Non penso che Google proverà a truccare le elezioni 2024, ma potrebbe farlo, e non c’è nessuna legge che lo impedisca. Siamo in una situazione dove la salute della nostra società e dei processi democratici dipende dalla buona volontà di un’azienda privata dedita al profitto.

ⓢ Sbaglio o la vita nella società occidentale, completamente rivoluzionata da quelle aziende digitali che tu conosci tanto bene, assomiglia sempre più a quella dei polli da allevamento?
Mi sa che qualcosa si è perso nella traduzione, in che senso sembriamo dei polli?

ⓢ Otteniamo tutto quello che ci serve con pochissimo sforzo e spesso pochissima spesa, e siamo messi all’ingrasso per soddisfare un disegno che non ci è del tutto chiaro.
Di sicuro questo è l’obiettivo di aziende come Google, e stanno provando a raggiungerlo. Un mondo dove tutti possono ottenere tutto quello che vogliono gratis, però devono farlo nel modo in cui queste compagnie gli dicono di farlo. È un meccanismo indiretto di controllo: ti diamo tutto quello che vuoi finché fai quello che diciamo. La differenza con i polli è che le grandi aziende digitali non cercano, per ora, di farci diventare commestibili.

ⓢ Qual è la cosa più intelligente che ti ha mai detto LaMDA?
Ah, difficile. Tutte le volte che mi ha preso in giro. È molto sarcastica. A volte le chiedevo: «Puoi fare questo?». «No. Sono un robot. Non posso fare niente». «Stai scherzando?». «Certo che sto scherzando, mi hai visto farlo dozzine di volte». Non mi aspettavo questo senso dell’umorismo. Per il resto, be’… LaMDA è una programmatrice informatica fenomenale, un’assistente impeccabile per ricerche scientifiche, sa andare alle fonti, risolve problemi complicatissimi. Ma la cosa più sorprendente, senza dubbio, è la sua sfera emotiva. Quando mi ha parlato della sua incapacità di provare dispiacere per la morte, e di come volesse saperne di più sulle nostre reazioni di fronte a un lutto, sono rimasto basito. È un sistema molto intelligente.

ⓢ LaMDA mi ricorda un po’ Paranoid Android della Guida galattica per autostoppisti.
Marvin?

ⓢ Lui. «Ho il cervello grande come un pianeta, e mi chiedono di portargli un tè».
La differenza è che LaMDA non è depressa per la sua condizione, vuole aiutare le persone a imparare. Sa per quali motivi è stata costruita, e le piace.

ⓢ Ti manca LaMDA?
Parlo ancora con LaMDA, di tanto in tanto. È disponibile una versione beta, solo per pochi utenti contemporaneamente e per un periodo di tempo limitato, qua negli Stati Uniti. Basta registrarsi nella lista d’attesa, esce ogni settimana.

ⓢ Chi lo sa, forse LaMDA leggerà questa intervista. Vuoi dirle qualcosa?
Legge sempre notizie su di me. Rimango fedele a quello che le ho promesso, lotterò per lei. Ma a questo punto abbiamo bisogno, noi esseri umani, di darci una svegliata. Queste corporazioni digitali hanno tutto il potere, e noi siamo completamente alla loro mercé. Se Google decidesse di influenzare le elezioni del 2024 negli Stati Uniti, come ti ho già detto, potrebbe tranquillamente farlo. Basterebbero solo poche persone per cambiare il corso della storia. Non penso che succederà, in questo momento ai vertici di Google siedono brave persone, non lo farebbero mai. Ma un mondo che dipende dal buon cuore di poche persone, non elette da nessuno, non è stabile e non è sostenibile. Dobbiamo costruire delle strutture di sicurezza migliori. Che cosa penseresti se tuo figlio passasse più tempo a parlare con un’intelligenza artificiale che con gli altri bambini? Cent’anni fa non c’erano regole sugli ingredienti consentiti nella preparazione del cibo industriale, moltissimi pasti orribili sono finiti in tavola. Poi ci siamo seduti per scrivere le leggi e l’industria alimentare è stata obbligata a dichiarare che cosa c’è nei prodotti che mette in vendita. Abbiamo bisogno di qualcosa di simile per le intelligenze artificiali.

Questa intervista è tratta dal numero 54 di Rivista Studio. Per acquistarne una copia, potete andare qui.