Iscriviti alla newsletter: scopri tutte le storie di Studio!

Attualità Cultura Stili di Vita

Seguici anche su

+60k
+16k
+2k
Condividi su Facebook Condividi su Twitter Invia una e-mail

Amore, guerra e robot

Avremo un futuro alla Philip K. Dick con robot intelligenti e macchine ribelli? Forse no.

Tra l’incubo e la timida speranza, l’idea che l’intelligenza artificiale possa prima o poi diventare “umana” ha radici profonde e antiche, che risalgono probabilmente a un minuto dopo l’invenzione del concetto di “robot”. Saranno le lacrime dei cyborg di Bladerunner o le Tre leggi della robotica di Issac Asimov, o ancora la paranoia di Sheldon Cooper, fisico teorico e Doctor Spock-wanna be della serie The Big Bang Theory, che non si fida dei bancomat perché «quando le macchine prenderanno il potere, saranno i primi a ribellarsi», ma l’uomo ha sempre ceduto alla tentazione di rispecchiarsi nelle proprie creazioni. Dalla rozza ferraglia alla sofisticata (e per ora inesistente) smart dust, l’intelligenza artificiale che d’un tratto arriva a sintetizzare sentimenti di silicio, ribellandosi magari al suo creatore è un meme culturale radicato, che ha nel fascino la prima arma per la sua diffusione. La cultura del Novecento ne è tappezzata, a ben guardare: oltre ai casi già citati, viene alla mente il supercomputer Hal 9000 di 2001. Odissea nello spazio e la creatura di Frankestein, sorta di robot ante-litteram in quanto materia inanimata che si fa viva e pensante (e ribelle, va da sé). Da anni ci arrovelliamo sulla questione etica della robotica, da prima ancora che i transistor aprissero la strada a un nuovo Eldorado tecnologico. L’uomo moderno sembra davvero attendere il momento “Oh mio dio, ho creato un mostro” da tempi non sospetti, tempi in cui Google era solo uno strano verso gutturale. La buona notizia è che quel momento potrebbe essere vicino. La cattiva è che è davvero un bel problema.

È opinione comune che il settore bellico sia la motrice nascosta della tecnologia. Gran parte delle innovazioni tecniche che sono man mano divenute d’uso comune e poi obsolete, sono germogliate nelle armerie o alle corti di re assettati di sangue o di governi assediati. Com’è noto, la stessa rete Internet è figlia dell’Arpanet, un progetto militare di comunicazione che non prevedeva di certo cose come Pinterest. Anzi. È durante la Prima guerra mondiale che nasce il primo esemplare di UAV (unmanned aerial vehicle, velivoli a pilotaggio remoto, comunemente detti droni), in grado di sorvolare città e trincee nemiche e permettere di allontanare un tantino la guerra da sé, sostituendo alle valorose prime file di cavalieri dei tempi antichi strani cavalli di Troia senza soldati al suo interno ma lontani dall’occhio del ciclone. Il settore fiorì durante la Guerra fredda (Fire Fly, il primo drone Usa, fu inaugurato nel bollente 1962) e da allora ha continuato a dissanguare milioni di dollari federali per decenni. La prova del fuoco è giunta con le guerre post-Undici settembre cominciate da George W. Bush. Iraq e Afghanistan, nelle quali la robot warfare è diventata matura: come ha spiegato il New Atlantis in un saggio del 2009, «entro la fine del 2004 c’erano 150 robot sul suolo iracheno; un anno dopo erano 2400; alla fine del 2008, ce n’erano 120 mila di circa due dozzine di modelli differenti». (Ma per sapere di più sul rapporto tra guerra e droni – un rapporto che sta mandando all’aria leggi internazionali e poteri politici, sollevando pesanti interrogativi etici – si rimanda all’articolo che trovate sul numero di Studio in edicola.)

Per capire il motivo del successo di questi apparecchi – sia i velivoli Uav, sia quelli che agiscono a terra, contrassegnati dalla sigla Ugv – può essere utile ricordare le parole del maggiore Usa Kenneth Rose per giustificare un tale massiccio dispiego di mezzi robotici: «Le macchine non si stancano. Non chiudono gli occhi. Non si nascondono sotto un albero mentre piove e non parlano con i loro commilitoni. La capacità di concentrazione umana durante un turno di guardia crolla drasticamente dopo i primi 30 minuti». A cui segue la chiusa: «Le macchine non hanno paura».

E si ritorna ai sentimenti, ancora una volta. Vi sarete immaginati gli esperti di guerra come dei polverosi accademici rinchiusi in qualche bunker della Cia. E invece pensano solo a una cosa: all’odio e all’amore. D’altronde, se è vero che le macchine non hanno paura, è anche vero che non sono nemmeno in grado di provare alcun sentimento. Patrick Lin, filosofo della California Polytechnic State
University e co-autore di
Robot Ethics (Mit Press, 2011), ha spiegato all’Atlantic Monthly le questioni più importanti nell’utilizzo di robot nel settore militare. E anche lui pone molta enfasi sulle emozioni, notando come l’assenza di sentimenti dai loro circuiti possa evitare i più comuni e terribili crimini di guerra. Pensiamo a Guantanamo o Abu Ghraib, per esempio. Gli Stati Uniti si sarebbero macchiati di tali atrocità se si fossero affidati alle metalliche mani di robot programmati per fare da “carcerieri”, senza il tragico mix di odio, rancore e follia che ha generato i famigerati abusi? «Non sono un fautore di nessuno di questi scenari», precisa Lin, «sto solo riflettendo sui possibili usi dei robot». I quali, tra l’altro, potrebbero tornare utili durante gli interrogatori di sospetti terroristi, durante i quali si è spesso ricorso a forme di tortura come il waterboarding.

Macchine dotate di morale, quindi. Secondo Judea Pearl, professore dell’Ucla e vincitore del premio Alan Turing 2011 per l’innovazione informatica (il premi Nobel della programmazione informatica), non è fantascienza: nel futuro a breve termine avremmo computer sempre più potenti, dotati di “libero arbitrio” e morale. Macchine indipendenti, in grado di ragionare e, aggiunge lo scienziato, «di mandare battute al New York Times facendosele pubblicare».

Quando si parla di droni, quindi, non si deve pensare semplicemente a quanto siano diventati piccoli, veloci, invisibili e utili, perché parliamo comunque di mezzi autonomi ma pensati per essere guidati a distanza. Lo sviluppo di intelligenze artificiali sempre più fini e “critiche” potrebbe rendere l’intervento umano sempre meno necessario. Ed è proprio quello a cui sta lavorando Pearl: dei computer in grado di rispondere a domande ipotetiche come: cosa sarebbe successo se l’11 settembre 2001 al Qaeda non avesse attaccato gli Stati Uniti? E se nel 2008 Obama avesse perso? Una conquista intellettuale in grado di “unire” macchina a macchina e di dotarle di «una sorta di morale comune». Per farlo, però, si deve andare oltre la programmazione come la intendiamo oggi: gli algoritmi classici sono piuttosto rigidi, insegnano alla macchina cosa fare e cosa non fare in determinate occasioni; il livello successivo, continua Pearl, è renderle in grado di ragionare come dei bambini, «le migliori macchine d’apprendimento del mondo», in grado di imparare una o più lingue, capire il mondo, creare relazioni di causa ed effetto e imparare a ragionare. Autonomamente.

Grandi progetti, insomma. Progetti inquietanti, pure. Non è un caso che nel settore militare lo studio etico dell’utilizzo di droni e robot nel campo di guerra (ma non solo) sia oggetto di lunghissime discussioni e panel, che sembrano avere proprio l’obiettivo di evitare all’Umanità quel momento “Oh mio dio, ho creato un mostro” di cui parlavamo prima. I precedenti letterari e cinematografici, d’altronde, non sono di buon auspicio. C’è da augurarsi che siano bene stampati nella mente di Judea Pearl e i suoi colleghi, altrimenti i nostri buoni propositi andranno perduti nel tempo come lacrime nella pioggia.

54da1fe3c06675ff4ccfe97c_undici-logo-white.jpg