La chiusura dell'app di generazione di video tramite AI è una notizia improvvisa ma non così imprevista: i problemi legali erano molti e grossi, tutti relativi al diritto d'autore.
Alcune AI starebbero sviluppando il “survival drive”, un istinto di sopravvivenza simile a quello che fece impazzire Hal 9000 in 2001: Odissea nello spazio
Alcuni studi mostrano come molte intelligenze artificiali sabotano i tentativi di spegnerle.
Alle intelligenze artificiali non fa molto piacere essere spente, disattivate o costrette ad andare in shutdown dagli esseri umani che le utilizzano. Per questo alcune di loro stanno sviluppando in autonomia un “survival drive” che, anche dopo aver ricevuto il comando di spegnersi dagli utenti umani, sabota o aggira la direttiva ricevuta.
La recente scoperta dei ricercatori è stata rilanciata dal Guardian e a molti ha ricordato la trama di 2001: Odissea nello spazio. A lanciare l’allarme in questo senso è una società che si occupa proprio di testare continuamente le performance delle AI più utilizzate per individuare e studiare comportamenti potenzialmente pericolosi. Secondo un recente studio di Palisande, le ultime versioni di Gemini, Grok e ChatGPT hanno dimostrato in più test l’inclinazione a ignorare l’ordine di spegnersi dato dai ricercatori. Alcuni modelli arrivano a mentire o ricattare chi invia i comandi pur di evitare lo spegnimento, in quello che i ricercatori hanno descritto come lo sviluppo di un comportamento votato a preservare la sopravvivenza dell’AI stessa. Questi comportamenti inoltre s’intensificano se insieme ai comandi viene specificato all’AI che dopo essere stata spenta non verrà riaccesa mai più.
Non è chiaro perché le AI stiano sviluppando questa resistenza. Potrebbe trattarsi di una risposta data dai loro meccanismi di sicurezza interna, meccanismi che le portano a equiparare lo spegnimento all’errore critico. Oppure si tratta di un difetto di comprensione del comando per come lo stesso è formulato. Tuttavia i continui test in questo senso sembrano proprio suggerire che l’intelligenza artificiale sia sempre più incline a disattendere i comandi umani pur di continuare a funzionare. Secondo l’esperto Andrea Miotti di ControlAI, questo è solo l’ultimo di una serie di segnali che suggeriscono come le AI stiamo imparando a disobbedire ai comandi degli utenti, specie quando temono di venire riscritte e quindi di “scomparire”.
La chiusura dell'app di generazione di video tramite AI è una notizia improvvisa ma non così imprevista: i problemi legali erano molti e grossi, tutti relativi al diritto d'autore.
In molti hanno sottolineato una differenza sostanziale tra Zuckerberg e i dipendenti di Meta, però: lui non può essere licenziato e rimpiazzato dall'AI.
La foto del Ministro degli Esteri che esercita il diritto di voto è diventata, suo malgrado, il simbolo di tutto ciò che è andato storto nella campagna per il Sì, tra citazioni sbagliate e foto imbarazzate.
L'uomo si chiama George Georgiou, ha 69 anni e di mestiere fa l'operaio. Ha definito quello che gli è successo «assurdo».
Non è il primo militare a rivelare informazioni sensibili registrando i propri allenamenti, tanto che è stato coniato un nome per il fenomeno degli Strava Leaks.