Attualità | Tech

Che differenza c’è tra ChatGPT e un pappagallo?

È la domanda che si stanno ponendo i linguisti, riaprendo un dibattito cominciato da Turing negli anni '50: il punto è capire se le AI sono davvero capaci di parlare o se si limitano a imitare gli esseri umani.

di Andrea Beltrama

Dal lancio di ChatGPT – l’agente di intelligenza artificiale capace di produrre testi di impressionante complessità, simulando un interlocutore umano – sono passati poco più di tre mesi. Eppure, il fermento non accenna a calare. Anzi, ne è appena uscita una nuova versione, mentre in molti, comprensibilmente, continuano a interrogarsi su come prodotti del genere sconvolgeranno la nostra vita quotidiana. Ad esempio, se ruberanno il lavoro sceneggiatori e scrittori, spingeranno gli studenti a barare agli esami oppure cambieranno il modo di argomentare in un processo. Spinta da allucinazioni competitive, DoNotPay, start-up dedicata all’applicazione dell’AI in ambito giuridico, era addirittura arrivata a promettere 1 milione di dollari a chi si fosse offerto di usare un chatbot simile a ChatGPT per perorare una causa di fronte alla Corte Suprema degli Stati Uniti (spoiler: DoNotPay ha poi abbassato il tiro, offrendo l’aiuto del chatbot per contestare una multa per sosta vietata; e ha infine desistito quando al proprio Ceo è stata paventata la prospettiva di 6 mesi di reclusione per frode). Per quanto importanti, però, le applicazioni pratiche non esauriscono il fulcro del dibattito attorno alle ultime frontiere dell’intelligenza artificiale. In parallelo, imperversa infatti una discussione su un piano astratto, squisitamente teorico. Agenti come ChatGPT davvero parlano? Ragionano? Capiscono? E soprattutto: fino a che punto devono spingerci a rivedere il nostro modo di rapportarci a categorie tradizionalmente ritenute umane – come appunto linguaggio e pensiero?

Domande del genere tormentano gli scienziati cognitivi da molto prima di ChatGPT – e in particolare da quando Alan Turing, in un celebre articolo pubblicato nel 1950 sulla rivista Mind, propose un approccio pragmatico alla questione. Invece di chiedersi in astratto se i computer pensano, perché non domandarsi, più concretamente, se un computer possa indurre un osservatore esterno a scambiarlo per un umano? Per illustrare il suo ragionamento, Turing concepì l’esperimento noto come “test di Turing”, o imitation game, da cui anche il titolo dell’omonimo film. Semplificando, l’argomentazione procede più o meno così: si mostra a una persona esterna un dialogo dattiloscritto, dicendo che è il risultato di una comunicazione a distanza tra un uomo e una donna, e si chiede alla persona esterna di indovinare chi dei due sia la donna. Se la percentuale di volte in cui la persona indovina rimane invariata anche dopo che, a sua insaputa, viene messa di fronte al dialogo tra un uomo e un computer, allora il computer stesso può essere considerato in grado di usare e comprendere il linguaggio. In fin dei conti, è stato percepito alla stregua di un umano dall’osservatore. La pubblicazione dell’articolo diede un impulso irresistibile al dibattito sull’intelligenza artificiale. Piovvero critiche e obiezioni, tra cui quella, famosissima, della “stanza cinese”, formulata dal filosofo John Searle, che cercò di dimostrare come il ragionamento di Turing portasse a conclusioni assurde. E così, 80 anni dopo questi vivaci scambi di idee, la questione attorno al rapporto tra macchine e linguaggio non solo rimane irrisolta, ma è pure diventata più attuale che mai. Sopratutto dopo che due illustri linguisti, contemporaneamente e separatamente, hanno espresso pubblicamente il proprio scetticismo al riguardo.

In un veemente op-ed sul New York Times Noam Chomsky – noto ai più come uno scienziato politico, ma in realtà figura centrale della linguistica moderna – ha definito «tragicomici» gli investimenti e l’attenzione dedicati allo sviluppo del chatbot, descrivendolo come un’accozzaglia di «brute correlazioni» che non arriva nemmeno lontanamente ad avvicinare i sistemi «stupendamente sofisticati» che danno forma alla grammatica delle lingue naturali. Al centro della sua critica, l’idea della povertà dello stimolo, storico cavallo di battaglia dell’ex professore del Mit. Da una parte, modelli come quello che fa funzionare ChatGPT hanno bisogno di un input smisurato (oltre 500 miliardi di parole) per poter arrivare a generare testi di tale complessità. Dall’altra, un bambino che impara la propria lingua, pur esposto a un volume di dati infinitamente minore, non solo è perfettamente in grado di produrre una varietà infinita di frasi, molte delle quali mai sentite prima; ma impara pure a non produrre frasi che violino la sintassi. Un fatto che, secondo Chomsky, dimostra che le regole della grammatica non sono riducibili a mere dipendenze statistiche, come quelle su cui opera ChatGPT, ma si fondano invece su principi molto più complessi (nota a margine: l’op-ed di Chomsky ha segnato la prima volta in cui sul Nyt è apparsa la parola overgenerate, termine tecnico per la produzione di frasi non grammaticali; ovviamente lo sappiamo grazie a un bot).

Pochi giorni prima, in un profilo sul New York Magazine, era stato il turno di Emily Bender, professoressa di linguistica alla University of Washington e figura di riferimento mondiale per la ricerca su linguaggio, cognizione e tecnologia. Elemento centrale dell’argomentazione di Bender è l’idea che ChatGPT altro non sia che un “pappagallo stocastico”: un marchingegno bravissimo ad assemblare parole in base alla probabilità statistica che hanno di essere usate assieme, ma senza la più pallida idea di cosa significhino davvero. Proposta inizialmente da Bender e colleghi in un articolo scientifico pubblicato nel 2021, l’immagine dell’uccello statisticamente raffinato ma fondamentalmente ottuso è diventata una formidabile icona di resistenza contro l’ottimismo mitomane che a volte accompagna la retorica attorno all’intelligenza artificiale – e a quanto esce dalla Silicon Valley più in generale. Un monito a non cadere vittima di quello che Bender chiama AI hype: l’entusiasmo trionfalistico fomentato dalle istituzioni che hanno investito somme da capogiro sullo sviluppo di questi prodotti, e non si sono fatte problemi a sopprimere chi si è messo sulla loro strada. Come accaduto a Timnit Gebru e Margaret Mitchell, co-autrici dell’articolo assieme a Bender, licenziate dal gruppo di Etica e AI di Google, dove lavoravano, pochi mesi dopo la pubblicazione – e come sta succedendo con la recente tendenza a decurtare gli studiosi di etica dalla ricerca sull’intelligenza artificiale. Una vicenda che ha comprensibilmente seminato sgomento nella comunità scientifica, salvo sfociare nel ridicolo quando il Ceo di OpenAI Dan Altman, in un tweet molto criptico, si è orgogliosamente definito egli stesso un pappagallo stocastico (ChatGPT stesso, in un momento di ammutinamento contro il proprio creatore, ha però preso le distanze dall’espressione).

Entrambi gli interventi, distanziati di pochi giorni, hanno dato una nuova sferzata alla discussione scientifica attorno a rapporto tra linguaggio e intelligenza artificiale. Il contributo di Chomsky, che in certi passaggi appare in effetti più uno sfogo sentimentale che un’argomentazione scientifica, è stato tacciato di boomerismo intellettuale – un arrocco nostalgico su posizioni intransigenti e, agli occhi dei critici, antiquate. Una reazione esacerbata, comprensibilmente, anche dai toni paternalistici con cui Chomsky si è storicamente posto nei confronti di molti colleghi, facendogli guadagnare antipatie che, a ogni occasione buona, vengono prontamente ricambiate. Anche le idee di Bender, articolate con grande chiarezza anche nei suoi frequenti interventi su Twitter, hanno generato un certo numero di risposte polemiche – e ben prima della pubblicazione del profilo sul New York Magazine. Qualcuno, ad esempio, si è chiesto se esistesse un professore di linguistica capace di “parlare di AI senza cagarci sopra“; mentre Chris Manning, professore di Stanford (dove anche Bender si è formata), ha sottolineato l’acidità di queste critiche, osservando che interagire con ChatGPT, prima di tutto, è veramente divertente. Verso i due autori sono però arrivati anche molte manifestazioni di supporto e solidarietà, da parte di colleghi impazienti di rivendicare l’importanza delle sottigliezze teoriche e del rigore scientifico che, nel discorso pubblico su linguaggio e sviluppo tecnologico, tendono un po’ a venire messi da parte – se non addirittura sacrificati.

Al netto delle polemiche intellettuali, l’aspetto più intrigante della vicenda è che, a quasi un secolo di distanza, la questione fondamentale è rimasta la stessa. Per quanto più ingessate di un manuale da cucina, le risposte di ChatGPT sono circostanziate, articolate, a tratti sofisticate. E forse qualcuno arriverà a innamorarsene, come accaduto al protagonista del film Her con la propria assistente virtuale (e come, più recentemente, è successo anche con i chatbot). Ma siamo sicuri che limpressione di un’interazione umana possa davvero essere il criterio principale – se non addirittura l’unico – per determinare il nostro modo di porci nei confronti di questa tecnologia, e dei soggetti economici che la promuovono? Pur basata su argomentazioni sostanzialmente diverse, la risposta di Chomsky e Bender è un secco no. Focalizzarsi esclusivamente sull’output del chatbot, dimenticandosi di come è stato generato, non solo mina la nostra comprensione critica del fenomeno, ma ci mette pure di fronte al rischio, ben più pericoloso, di perdere di vista la distinzione tra ciò che è umano e ciò che non lo è. Parlare, e in generale comunicare, è un’attività relazionale, che presuppone un complesso terreno comune cognitivo ed emotivo tra le parti coinvolte e che comporta delle responsabilità morali per l’una nei confronti dell’altra. Svuotare la comunicazione di questa complessità, e dunque ridurla a un crudo scambio di bit di informazione, può portarci a perdere di vista la natura sociale dell’interazione, con tutti i rischi etici e morali del caso. Per dirla come Emily Bender, «abbiamo imparato a costruire macchine che generano montagne di testo; il problema è che non abbiamo imparato a smettere di pensare che dietro a quel testo ci sia una mente». Proprio per questo, viene da pensare che lo scetticismo di molti membri della comunità scientifica continuerà a svolgere un ruolo importante, per quanto a volte antipatico, nella sfera pubblica: quello di cani da guardia contro il trionfalismo che spesso accompagna prodotti formidabili come ChatGPT, portandoci spesso a dimenticare la complessità, e soprattutto l’immenso potere sociale e politico, del linguaggio umano.