Hype ↓
07:46 giovedì 18 settembre 2025
Nel nuovo film di Carlo Verdone ci sarà anche Karla Sofía Gascón, la protagonista caduta in disgrazia di Emilia Pérez La notizia ha permesso a Scuola di seduzione di finire addirittura tra le breaking news di Variety.
Enzo Iacchetti che urla «Cos’hai detto, stronzo? Vengo giù e ti prendo a pugni» è diventato l’idolo di internet Il suo sbrocco a È sempre Cartabianca sul genocidio a Gaza lo ha fatto diventare l'uomo più amato (e memato) sui social.
Ci sono anche Annie Ernaux e Sally Rooney tra coloro che hanno chiesto a Macron di ripristinare il programma per evacuare scrittori e artisti da Gaza E assieme a loro hanno firmato l'appello anche Abdulrazak Gurnah, Mathias Énard, Naomi Klein, Deborah Levy e molti altri.
Per Tyler Robinson, l’uomo accusato dell’omicidio di Charlie Kirk, verrà chiesta la pena di morte  La procura lo ha accusato di omicidio aggravato, reato per il quale il codice penale dello Utah prevede la pena capitale. 
Una editorialista del Washington Post è stata licenziata per delle dichiarazioni contro Charlie Kirk Karen Attiah ha scoperto di essere diventata ex editorialista del giornale proprio dopo aver fatto sui social commenti molto critici verso Kirk.
In Nepal hanno nominato una nuova Presidente del Consiglio anche grazie a un referendum su Discord Per la prima volta nella storia, una piattaforma pensata per tutt'altro scopo ha contribuito all'elezione di un Primo ministro.
Amanda Knox è la prima ospite della nuova stagione del podcast di Gwyneth Paltrow Un’intervista il cui scopo, secondo Paltrow, è «restituire ad Amanda la sua voce», ma anche permetterle di promuovere il suo Substack.
Luigi Mangione non è più accusato di terrorismo ma rischia comunque la pena di morte L'accusa di terrorismo è caduta nel processo in corso nello Stato di New York, ma è in quello federale che Mangione rischia la pena capitale.

Amore, guerra e robot

Avremo un futuro alla Philip K. Dick con robot intelligenti e macchine ribelli? Forse no.

23 Maggio 2012

Tra l’incubo e la timida speranza, l’idea che l’intelligenza artificiale possa prima o poi diventare “umana” ha radici profonde e antiche, che risalgono probabilmente a un minuto dopo l’invenzione del concetto di “robot”. Saranno le lacrime dei cyborg di Bladerunner o le Tre leggi della robotica di Issac Asimov, o ancora la paranoia di Sheldon Cooper, fisico teorico e Doctor Spock-wanna be della serie The Big Bang Theory, che non si fida dei bancomat perché «quando le macchine prenderanno il potere, saranno i primi a ribellarsi», ma l’uomo ha sempre ceduto alla tentazione di rispecchiarsi nelle proprie creazioni. Dalla rozza ferraglia alla sofisticata (e per ora inesistente) smart dust, l’intelligenza artificiale che d’un tratto arriva a sintetizzare sentimenti di silicio, ribellandosi magari al suo creatore è un meme culturale radicato, che ha nel fascino la prima arma per la sua diffusione. La cultura del Novecento ne è tappezzata, a ben guardare: oltre ai casi già citati, viene alla mente il supercomputer Hal 9000 di 2001. Odissea nello spazio e la creatura di Frankestein, sorta di robot ante-litteram in quanto materia inanimata che si fa viva e pensante (e ribelle, va da sé). Da anni ci arrovelliamo sulla questione etica della robotica, da prima ancora che i transistor aprissero la strada a un nuovo Eldorado tecnologico. L’uomo moderno sembra davvero attendere il momento “Oh mio dio, ho creato un mostro” da tempi non sospetti, tempi in cui Google era solo uno strano verso gutturale. La buona notizia è che quel momento potrebbe essere vicino. La cattiva è che è davvero un bel problema.

È opinione comune che il settore bellico sia la motrice nascosta della tecnologia. Gran parte delle innovazioni tecniche che sono man mano divenute d’uso comune e poi obsolete, sono germogliate nelle armerie o alle corti di re assettati di sangue o di governi assediati. Com’è noto, la stessa rete Internet è figlia dell’Arpanet, un progetto militare di comunicazione che non prevedeva di certo cose come Pinterest. Anzi. È durante la Prima guerra mondiale che nasce il primo esemplare di UAV (unmanned aerial vehicle, velivoli a pilotaggio remoto, comunemente detti droni), in grado di sorvolare città e trincee nemiche e permettere di allontanare un tantino la guerra da sé, sostituendo alle valorose prime file di cavalieri dei tempi antichi strani cavalli di Troia senza soldati al suo interno ma lontani dall’occhio del ciclone. Il settore fiorì durante la Guerra fredda (Fire Fly, il primo drone Usa, fu inaugurato nel bollente 1962) e da allora ha continuato a dissanguare milioni di dollari federali per decenni. La prova del fuoco è giunta con le guerre post-Undici settembre cominciate da George W. Bush. Iraq e Afghanistan, nelle quali la robot warfare è diventata matura: come ha spiegato il New Atlantis in un saggio del 2009, «entro la fine del 2004 c’erano 150 robot sul suolo iracheno; un anno dopo erano 2400; alla fine del 2008, ce n’erano 120 mila di circa due dozzine di modelli differenti». (Ma per sapere di più sul rapporto tra guerra e droni – un rapporto che sta mandando all’aria leggi internazionali e poteri politici, sollevando pesanti interrogativi etici – si rimanda all’articolo che trovate sul numero di Studio in edicola.)

Per capire il motivo del successo di questi apparecchi – sia i velivoli Uav, sia quelli che agiscono a terra, contrassegnati dalla sigla Ugv – può essere utile ricordare le parole del maggiore Usa Kenneth Rose per giustificare un tale massiccio dispiego di mezzi robotici: «Le macchine non si stancano. Non chiudono gli occhi. Non si nascondono sotto un albero mentre piove e non parlano con i loro commilitoni. La capacità di concentrazione umana durante un turno di guardia crolla drasticamente dopo i primi 30 minuti». A cui segue la chiusa: «Le macchine non hanno paura».

E si ritorna ai sentimenti, ancora una volta. Vi sarete immaginati gli esperti di guerra come dei polverosi accademici rinchiusi in qualche bunker della Cia. E invece pensano solo a una cosa: all’odio e all’amore. D’altronde, se è vero che le macchine non hanno paura, è anche vero che non sono nemmeno in grado di provare alcun sentimento. Patrick Lin, filosofo della California Polytechnic State
University e co-autore di
Robot Ethics (Mit Press, 2011), ha spiegato all’Atlantic Monthly le questioni più importanti nell’utilizzo di robot nel settore militare. E anche lui pone molta enfasi sulle emozioni, notando come l’assenza di sentimenti dai loro circuiti possa evitare i più comuni e terribili crimini di guerra. Pensiamo a Guantanamo o Abu Ghraib, per esempio. Gli Stati Uniti si sarebbero macchiati di tali atrocità se si fossero affidati alle metalliche mani di robot programmati per fare da “carcerieri”, senza il tragico mix di odio, rancore e follia che ha generato i famigerati abusi? «Non sono un fautore di nessuno di questi scenari», precisa Lin, «sto solo riflettendo sui possibili usi dei robot». I quali, tra l’altro, potrebbero tornare utili durante gli interrogatori di sospetti terroristi, durante i quali si è spesso ricorso a forme di tortura come il waterboarding.

Macchine dotate di morale, quindi. Secondo Judea Pearl, professore dell’Ucla e vincitore del premio Alan Turing 2011 per l’innovazione informatica (il premi Nobel della programmazione informatica), non è fantascienza: nel futuro a breve termine avremmo computer sempre più potenti, dotati di “libero arbitrio” e morale. Macchine indipendenti, in grado di ragionare e, aggiunge lo scienziato, «di mandare battute al New York Times facendosele pubblicare».

Quando si parla di droni, quindi, non si deve pensare semplicemente a quanto siano diventati piccoli, veloci, invisibili e utili, perché parliamo comunque di mezzi autonomi ma pensati per essere guidati a distanza. Lo sviluppo di intelligenze artificiali sempre più fini e “critiche” potrebbe rendere l’intervento umano sempre meno necessario. Ed è proprio quello a cui sta lavorando Pearl: dei computer in grado di rispondere a domande ipotetiche come: cosa sarebbe successo se l’11 settembre 2001 al Qaeda non avesse attaccato gli Stati Uniti? E se nel 2008 Obama avesse perso? Una conquista intellettuale in grado di “unire” macchina a macchina e di dotarle di «una sorta di morale comune». Per farlo, però, si deve andare oltre la programmazione come la intendiamo oggi: gli algoritmi classici sono piuttosto rigidi, insegnano alla macchina cosa fare e cosa non fare in determinate occasioni; il livello successivo, continua Pearl, è renderle in grado di ragionare come dei bambini, «le migliori macchine d’apprendimento del mondo», in grado di imparare una o più lingue, capire il mondo, creare relazioni di causa ed effetto e imparare a ragionare. Autonomamente.

Grandi progetti, insomma. Progetti inquietanti, pure. Non è un caso che nel settore militare lo studio etico dell’utilizzo di droni e robot nel campo di guerra (ma non solo) sia oggetto di lunghissime discussioni e panel, che sembrano avere proprio l’obiettivo di evitare all’Umanità quel momento “Oh mio dio, ho creato un mostro” di cui parlavamo prima. I precedenti letterari e cinematografici, d’altronde, non sono di buon auspicio. C’è da augurarsi che siano bene stampati nella mente di Judea Pearl e i suoi colleghi, altrimenti i nostri buoni propositi andranno perduti nel tempo come lacrime nella pioggia.

Leggi anche ↓

L’attivista palestinese che ha lavorato a No Other Land è stato ucciso da un colono israeliano

Maestro e attivista, Odeh Muhammad Hadalin aveva aiutato i registi del documentario premio Oscar a girare il loro film a Masafer Yatta.

Sam Altman ha detto che a differenza dell’avvocato e del terapeuta, Chat GPT non ha l’obbligo del segreto professionale

Quello che le diciamo non si può cancellare e potrebbe essere usato in tribunale.

Ripensare tutto

Le storie, le interviste, i personaggi del nuovo numero di Rivista Studio.

Il surreale identikit di uno degli autori dell’attentato a Darya Dugina diffuso dai servizi segreti russi

La Nasa è riuscita a registrare il rumore emesso da un buco nero