Stava manifestando a Trafalgar Square esponendo un cartello con su scritto «Mi oppongo al genocidio, sostengo Palestine Action».
Il governo sudafricano ha dovuto ritirare la sua proposta di legge sull’AI perché si è scoperto che è stata scritta con l’AI
In particolare, si è scoperto che l'AI si era inventata di sana pianta tutta la bibliografia alla base del testo di legge.
Oramai dovremmo saperlo tutti: non bisogna fidarsi delle AI. Non bisogna farlo quando si è alla ricerca di una ricetta veloce e sfiziosa per la cena, non bisogna farlo quando si ha bisogno di informazioni per programmare le vacanze, non bisogna farlo quando c’è da scrivere il testo di un disegno di legge. Soprattutto in quest’ultimo caso non bisogna farlo, come hanno scoperto loro malgrado i legislatori sudafricani incaricati di redigere il testo del primo disegno di legge per la regolamentazione dell’AI. Come sa chiunque abbia usato un’intelligenza artificiale per scrivere un qualsiasi tipo di contenuto, l’AI è prona a quelle che sono state definite hallucination. Traducendo e ampliando in italiano: l’AI spesso inventa, sbaglia, inventa e sbaglia nello stesso momento. Esattamente quello che è successo ai legislatori sudafricani.
Dopo aver presentato il disegno di legge, infatti, la bozza è stata ritirata perché a una prima e veloce analisi si è scoperto che la bibliografia riportata nel testo era stata generata da un’AI (e per via delle allucinazioni tipiche delle AI era piena di cose inventate e sbagliate, appunto). Il Ministro delle Comunicazioni, Solly Malatsi, ha ammesso il disastro con un post su X, definendo l’accaduto una svista inaccettabile che ha minato la credibilità dell’intera iniziativa legislativa.
Ma il piano sudafricano, a prescindere dalla maldestra implementazione, era ambizioso. La legge proponeva di istituire una Commissione Nazionale per l’AI, un Comitato Etico e un’Autorità di Regolamentazione, aggiungendo a tutta questa attività di regolamentazione anche agevolazioni fiscali e sussidi statali per attirare investimenti privati nel settore. Come scrive la Reuters, l’errore non è stato scoperto dagli impiegati del ministero (a cui consigliamo di assumere dei revisori bozze competenti in scrittura AI o di fare un abbonamento a una di quelle AI che riconoscono i testi scritti dalle AI) ma è emerso durante la fase di consultazione pubblica, trasformando un momento di (presunto) avanguardismo politico in una scena di imbarazzo istituzionale che mette in discussione la capacità dello Stato di gestire la stessa tecnologia che intende normare.
Ora, mentre il governo promette sanzioni per i responsabili della stesura, la nuova data di pubblicazione della legge diventa un’incognita. Malatsi ha tentato di salvare il salvabile definendo l’errore una «lezione accolta con umiltà», sottolineando come questo incidente dimostri proprio la necessità di quella supervisione umana che la bozza stessa avrebbe dovuto promuovere. È un paradosso quasi perfetto: una legge scritta (male) dalle macchine per spiegare agli umani come controllare le macchine, finita al macero perché nessuno ha controllato se le macchine che avrebbero dovuto essere controllate dagli umani avessero sbagliato.
Stava manifestando a Trafalgar Square esponendo un cartello con su scritto «Mi oppongo al genocidio, sostengo Palestine Action».
Trump che inciampa, Vance portato via di peso, Miller che usa la moglie incinta come scudo umano, Kennedy Jr. che si scorda la moglie in sala, gente che pensa al vino e a finire la cena: momenti degni delle migliori commedie americane.
Ogni volta viene descritta solo come il teatro del malcontento sconclusionato o lo sfondo degli scontri violenti. Ma la piazza è anche e soprattutto il luogo in cui prendono forma nuove comunità e nuovi modi di organizzare la società, la città, la vita.