Hype ↓
16:14 martedì 16 dicembre 2025
Zohran Mamdani ha fatto una performance in un museo di New York invitando i cittadini a dirgli quello che vogliono da lui Ispirandosi alla celebre performance di Marina Abramović, il sindaco ha offerto colloqui di tre minuti a chiunque volesse parlargli.
Negli anni ’60 la Cia ha perso un ordigno nucleare sull’Himalaya e ancora non l’ha ritrovato Nel 1965, sulla vetta di Nanda Devi, l'intelligence americana ha perso un dispositivo alimentato a plutonio. È ancora lì, da qualche parte.
Cosa c’è nei primi sei minuti dell’Odissea di Christopher Nolan che sono già stati mostrati nei cinema americani Questo "prologo" è stato proiettato in diverse sale negli Usa e ovviamente è già stato piratato e diffuso online.
I Talebani in Afghanistan hanno un nuovo nemico: i giovani che si vestono da Peaky Blinders Quattro ragazzi di 20 anni sono stati sottoposti a un «programma di riabilitazione» dopo aver sfoggiato outfit ispirati a Tommy Shelby e compari.
Il neo Presidente del Cile José Antonio Kast ha detto che se Pinochet fosse ancora vivo voterebbe per lui Ed evidentemente anche questo è piaciuto agli elettori, o almeno al 58 per cento di quelli che hanno votato al ballottaggio e che lo hanno eletto Presidente.
Dopo l’attentato a Bondi Beach, in Australia vogliono introdurre leggi durissime sul porto d’armi visto che quelle usate nella strage erano tutte detenute legalmente Intestate tutte a Sajid Akram, l'uomo che insieme al figlio Naveed ha ucciso 15 persone che si erano radunate in spiaggia per festeggiare Hannukkah.
Nonostante diversi media parlino già di omicidio e accusino il figlio Nick, della morte di Rob Reiner e di sua moglie Michelle non si sa ancora quasi nulla La polizia di Los Angeles ha confermato solo il ritrovamento dei cadaveri e l'inizio di un'indagine che contempla anche la «possibilità di omicidio».
Hbo ha svelato le prime immagini di Euphoria 3 ma della trama di questa nuova stagione non si capisce ancora niente Ben 13 secondi di video che anticipano la terza stagione, in arrivo nel mese di aprile, in cui si vedono tutti i protagonisti e le protagoniste.

Amore, guerra e robot

Avremo un futuro alla Philip K. Dick con robot intelligenti e macchine ribelli? Forse no.

23 Maggio 2012

Tra l’incubo e la timida speranza, l’idea che l’intelligenza artificiale possa prima o poi diventare “umana” ha radici profonde e antiche, che risalgono probabilmente a un minuto dopo l’invenzione del concetto di “robot”. Saranno le lacrime dei cyborg di Bladerunner o le Tre leggi della robotica di Issac Asimov, o ancora la paranoia di Sheldon Cooper, fisico teorico e Doctor Spock-wanna be della serie The Big Bang Theory, che non si fida dei bancomat perché «quando le macchine prenderanno il potere, saranno i primi a ribellarsi», ma l’uomo ha sempre ceduto alla tentazione di rispecchiarsi nelle proprie creazioni. Dalla rozza ferraglia alla sofisticata (e per ora inesistente) smart dust, l’intelligenza artificiale che d’un tratto arriva a sintetizzare sentimenti di silicio, ribellandosi magari al suo creatore è un meme culturale radicato, che ha nel fascino la prima arma per la sua diffusione. La cultura del Novecento ne è tappezzata, a ben guardare: oltre ai casi già citati, viene alla mente il supercomputer Hal 9000 di 2001. Odissea nello spazio e la creatura di Frankestein, sorta di robot ante-litteram in quanto materia inanimata che si fa viva e pensante (e ribelle, va da sé). Da anni ci arrovelliamo sulla questione etica della robotica, da prima ancora che i transistor aprissero la strada a un nuovo Eldorado tecnologico. L’uomo moderno sembra davvero attendere il momento “Oh mio dio, ho creato un mostro” da tempi non sospetti, tempi in cui Google era solo uno strano verso gutturale. La buona notizia è che quel momento potrebbe essere vicino. La cattiva è che è davvero un bel problema.

È opinione comune che il settore bellico sia la motrice nascosta della tecnologia. Gran parte delle innovazioni tecniche che sono man mano divenute d’uso comune e poi obsolete, sono germogliate nelle armerie o alle corti di re assettati di sangue o di governi assediati. Com’è noto, la stessa rete Internet è figlia dell’Arpanet, un progetto militare di comunicazione che non prevedeva di certo cose come Pinterest. Anzi. È durante la Prima guerra mondiale che nasce il primo esemplare di UAV (unmanned aerial vehicle, velivoli a pilotaggio remoto, comunemente detti droni), in grado di sorvolare città e trincee nemiche e permettere di allontanare un tantino la guerra da sé, sostituendo alle valorose prime file di cavalieri dei tempi antichi strani cavalli di Troia senza soldati al suo interno ma lontani dall’occhio del ciclone. Il settore fiorì durante la Guerra fredda (Fire Fly, il primo drone Usa, fu inaugurato nel bollente 1962) e da allora ha continuato a dissanguare milioni di dollari federali per decenni. La prova del fuoco è giunta con le guerre post-Undici settembre cominciate da George W. Bush. Iraq e Afghanistan, nelle quali la robot warfare è diventata matura: come ha spiegato il New Atlantis in un saggio del 2009, «entro la fine del 2004 c’erano 150 robot sul suolo iracheno; un anno dopo erano 2400; alla fine del 2008, ce n’erano 120 mila di circa due dozzine di modelli differenti». (Ma per sapere di più sul rapporto tra guerra e droni – un rapporto che sta mandando all’aria leggi internazionali e poteri politici, sollevando pesanti interrogativi etici – si rimanda all’articolo che trovate sul numero di Studio in edicola.)

Per capire il motivo del successo di questi apparecchi – sia i velivoli Uav, sia quelli che agiscono a terra, contrassegnati dalla sigla Ugv – può essere utile ricordare le parole del maggiore Usa Kenneth Rose per giustificare un tale massiccio dispiego di mezzi robotici: «Le macchine non si stancano. Non chiudono gli occhi. Non si nascondono sotto un albero mentre piove e non parlano con i loro commilitoni. La capacità di concentrazione umana durante un turno di guardia crolla drasticamente dopo i primi 30 minuti». A cui segue la chiusa: «Le macchine non hanno paura».

E si ritorna ai sentimenti, ancora una volta. Vi sarete immaginati gli esperti di guerra come dei polverosi accademici rinchiusi in qualche bunker della Cia. E invece pensano solo a una cosa: all’odio e all’amore. D’altronde, se è vero che le macchine non hanno paura, è anche vero che non sono nemmeno in grado di provare alcun sentimento. Patrick Lin, filosofo della California Polytechnic State
University e co-autore di
Robot Ethics (Mit Press, 2011), ha spiegato all’Atlantic Monthly le questioni più importanti nell’utilizzo di robot nel settore militare. E anche lui pone molta enfasi sulle emozioni, notando come l’assenza di sentimenti dai loro circuiti possa evitare i più comuni e terribili crimini di guerra. Pensiamo a Guantanamo o Abu Ghraib, per esempio. Gli Stati Uniti si sarebbero macchiati di tali atrocità se si fossero affidati alle metalliche mani di robot programmati per fare da “carcerieri”, senza il tragico mix di odio, rancore e follia che ha generato i famigerati abusi? «Non sono un fautore di nessuno di questi scenari», precisa Lin, «sto solo riflettendo sui possibili usi dei robot». I quali, tra l’altro, potrebbero tornare utili durante gli interrogatori di sospetti terroristi, durante i quali si è spesso ricorso a forme di tortura come il waterboarding.

Macchine dotate di morale, quindi. Secondo Judea Pearl, professore dell’Ucla e vincitore del premio Alan Turing 2011 per l’innovazione informatica (il premi Nobel della programmazione informatica), non è fantascienza: nel futuro a breve termine avremmo computer sempre più potenti, dotati di “libero arbitrio” e morale. Macchine indipendenti, in grado di ragionare e, aggiunge lo scienziato, «di mandare battute al New York Times facendosele pubblicare».

Quando si parla di droni, quindi, non si deve pensare semplicemente a quanto siano diventati piccoli, veloci, invisibili e utili, perché parliamo comunque di mezzi autonomi ma pensati per essere guidati a distanza. Lo sviluppo di intelligenze artificiali sempre più fini e “critiche” potrebbe rendere l’intervento umano sempre meno necessario. Ed è proprio quello a cui sta lavorando Pearl: dei computer in grado di rispondere a domande ipotetiche come: cosa sarebbe successo se l’11 settembre 2001 al Qaeda non avesse attaccato gli Stati Uniti? E se nel 2008 Obama avesse perso? Una conquista intellettuale in grado di “unire” macchina a macchina e di dotarle di «una sorta di morale comune». Per farlo, però, si deve andare oltre la programmazione come la intendiamo oggi: gli algoritmi classici sono piuttosto rigidi, insegnano alla macchina cosa fare e cosa non fare in determinate occasioni; il livello successivo, continua Pearl, è renderle in grado di ragionare come dei bambini, «le migliori macchine d’apprendimento del mondo», in grado di imparare una o più lingue, capire il mondo, creare relazioni di causa ed effetto e imparare a ragionare. Autonomamente.

Grandi progetti, insomma. Progetti inquietanti, pure. Non è un caso che nel settore militare lo studio etico dell’utilizzo di droni e robot nel campo di guerra (ma non solo) sia oggetto di lunghissime discussioni e panel, che sembrano avere proprio l’obiettivo di evitare all’Umanità quel momento “Oh mio dio, ho creato un mostro” di cui parlavamo prima. I precedenti letterari e cinematografici, d’altronde, non sono di buon auspicio. C’è da augurarsi che siano bene stampati nella mente di Judea Pearl e i suoi colleghi, altrimenti i nostri buoni propositi andranno perduti nel tempo come lacrime nella pioggia.

Articoli Suggeriti
Social Media Manager

Leggi anche ↓
Social Media Manager

Ripensare tutto

Le storie, le interviste, i personaggi del nuovo numero di Rivista Studio.

Il surreale identikit di uno degli autori dell’attentato a Darya Dugina diffuso dai servizi segreti russi

La Nasa è riuscita a registrare il rumore emesso da un buco nero

Un algoritmo per salvare il mondo

Come funziona Jigsaw, la divisione (poco conosciuta) di Google che sta cercando di mettere la potenza di calcolo digitale del motore di ricerca al servizio della democrazia, contro disinformazione, manipolazioni elettorali, radicalizzazioni e abusi.