Ogni "figlio" di Diella fungerà da assistente personale per uno degli 83 parlamentari del Partito Socialista d’Albania.
Alcune AI starebbero sviluppando il “survival drive”, un istinto di sopravvivenza simile a quello che fece impazzire Hal 9000 in 2001: Odissea nello spazio
Alcuni studi mostrano come molte intelligenze artificiali sabotano i tentativi di spegnerle, come Hal9000 di «2001, Odissea nello spazio».
Alle intelligenze artificiali non fa molto piacere essere spente, disattivate o costrette ad andare in shutdown dagli esseri umani che le utilizzano. Per questo alcune di loro stanno sviluppando in autonomia un “survival drive” che, anche dopo aver ricevuto il comando di spegnersi dagli utenti umani, sabota o aggira la direttiva ricevuta.
La recente scoperta dei ricercatori è stata rilanciata dal Guardian e a molti ha ricordato la trama di 2001: Odissea nello spazio. A lanciare l’allarme in questo senso è una società che si occupa proprio di testare continuamente le performance delle AI più utilizzate per individuare e studiare comportamenti potenzialmente pericolosi. Secondo un recente studio di Palisande, le ultime versioni di Gemini, Grok e ChatGPT hanno dimostrato in più test l’inclinazione a ignorare l’ordine di spegnersi dato dai ricercatori. Alcuni modelli arrivano a mentire o ricattare chi invia i comandi pur di evitare lo spegnimento, in quello che i ricercatori hanno descritto come lo sviluppo di un comportamento votato a preservare la sopravvivenza dell’AI stessa. Questi comportamenti inoltre s’intensificano se insieme ai comandi viene specificato all’AI che dopo essere stata spenta non verrà riaccesa mai più.
Non è chiaro perché le AI stiano sviluppando questa resistenza. Potrebbe trattarsi di una risposta data dai loro meccanismi di sicurezza interna, meccanismi che le portano a equiparare lo spegnimento all’errore critico. Oppure si tratta di un difetto di comprensione del comando per come lo stesso è formulato. Tuttavia i continui test in questo senso sembrano proprio suggerire che l’intelligenza artificiale sia sempre più incline a disattendere i comandi umani pur di continuare a funzionare. Secondo l’esperto Andrea Miotti di ControlAI, questo è solo l’ultimo di una serie di segnali che suggeriscono come le AI stiamo imparando a disobbedire ai comandi degli utenti, specie quando temono di venire riscritte e quindi di “scomparire”.
Sulla piattaforma adesso ci sono solo due episodi da 10/10: "Ozymandias" e “Early Stream!”, che però è primo in classifica perché ha ricevuto più voti.
L'autodefinitosi «campione italiano della menzogna» prosegue così la sua lunga striscia di bufale a tema letterario, stavolta la vittima è László Krasznahorkai.
Si trovano in vendita sulle piattaforme di foto stock, costano poco, non danno problemi di licenza né di consenso: è per questo che sono sempre più diffuse.