Cultura | Tech

Cos’è l’AI Act, il primo disegno di legge “contro” le intelligenze artificiali

In Europa si sta discutendo di approvare nuove leggi per prevenire e risolvere i problemi portati da queste tecnologie che sempre più persone percepiscono come una minaccia.

di Studio

È ormai da un po’ che quando noi umani ci sentiamo minacciati da qualcosa lo trasformiamo in un meme. È successo anche con l’intelligenza artificiale, soprattutto da quando è diventata il mostro che ci ruberà il lavoro (e se mai ce ne darà, sarà sottopagato, come raccontavamo qui). Sui social sta girando un post molto carino che riguarda soprattutto i grafici, in cui si legge: «Per rimpiazzare i graphic designer con l’AI, i clienti dovranno descrivere accuratamente quello che vogliono. Siamo salvi». Battute a parte, man mano che i poteri dell’intelligenza artificiale si sviluppano e si evolvono, diventa sempre più evidente che i timori nei confronti di ChatGPT e compagnia, soprattutto da parte dei creativi, sono assolutamente fondati. Si teme che con la sua capacità di riprodurre qualunque voce e qualunque stile possa disintegrare l’autorialità degli umani (artistica, musicale, letteraria), ma anche perché la qualità sempre più alta delle opere generate non permette più di riconoscere tra un’immagine, una canzone o un testo creati da una persona e quelli creati artificialmente. Una settimana fa la Bbc ha pubblicato un articolo in cui la giornalista si chiedeva quali potrebbero essere le professioni che non saranno mai minacciate dall’AI, come se a una certa categoria di lavoratori non restasse altro da fare che cambiare lavoro. In questi giorni, per fortuna, è arrivata la rincuorante notizia dell’AI Act: forse grazie una serie di nuove leggi che regolamenteranno l’uso dell’intelligenza artificiale, molte persone potranno continuare a fare quello che sanno fare.

Il Parlamento Europeo ha approvato la proposta di un nuovo quadro giuridico che mira a rafforzare in modo significativo le normative sullo sviluppo e l’uso dell’intelligenza artificiale. Se tutto va bene, entro il 2024 potremmo avere la prima legislazione sull’AI, capace di arginarne i potenziali rischi e danni. La legge proposta si concentrerà principalmente sul rafforzamento delle norme in materia di qualità dei dati, trasparenza e responsabilità e si propone di affrontare questioni etiche in vari settori (sanità, istruzione, finanza, energia e altri). «L’AI esiste da decenni, ma ha raggiunto nuove capacità grazie alle aumentate potenze di calcolo», ha dichiarato Thierry Breton, Commissario europeo per il mercato interno. L’AI Act vuole «rafforzare la posizione dell’Europa come hub globale di eccellenza nell’AI dal laboratorio al mercato, garantire che l’AI in Europa rispetti i nostri valori e le nostre regole e sfruttare il potenziale dell’AI per uso industriale».

Alla base dell’AI Act c’è un sistema di classificazione che determina il livello di rischio che un’intelligenza artificiale potrebbe rappresentare per la salute e la sicurezza o per i diritti fondamentali di una persona. Il quadro comprende quattro livelli di rischio: inaccettabile, alto, limitato e minimo. Le AI che portano un rischio limitato e minimo, come i filtri antispam o i videogiochi, potranno essere utilizzati con pochi requisiti (in sostanza basterà che essi adempiano agli obblighi di trasparenza previsti dalle leggi). I sistemi che si ritiene rappresentino un rischio inaccettabile, ad esempio i sistemi di sorveglianza biometrica in tempo reale negli spazi pubblici saranno invece vietati con pochissime eccezioni (dovrà farsene una ragione il ministro Piantedosi, che recentemente aveva annunciato l’intenzione di introdurre sistemi di riconoscimento facciale nelle città italiane).

Per consentire l’utilizzo di alcuni sistemi di intelligenza artificiale ad alto rischio (tra cui veicoli autonomi e dispositivi medici) si richiederà agli sviluppatori e agli utenti di rispettare normative che prevedono test rigorosi, un’adeguata documentazione in materia di raccolta e conservazione dei dati e di garantire una supervisione umana di queste macchine. La proposta di legge prevede pesanti sanzioni per il mancato rispetto delle regole: per le aziende, le multe possono arrivare fino a 30 milioni di euro o al 6 per cento del reddito globale. Anche l’invio di documentazione falsa o fuorviante alle autorità di regolamentazione potrà comportare multe. La legge punta anche a istituire un comitato europeo per l’intelligenza artificiale, che sovrintenderebbe all’attuazione del regolamento e ne garantirebbe un’applicazione uniforme in tutta l’Unione. L’organismo avrebbe il compito di rilasciare pareri e raccomandazioni su eventuali conflitti legislativi, nonché di fornire orientamenti alle autorità nazionali.

L’Artificial Intelligence Act è stato originariamente proposto dalla Commissione europea nell’aprile 2021. Un cosiddetto approccio generale sulla legislazione è stato adottato dal Consiglio europeo alla fine del 2022 e la legislazione è attualmente in discussione al Parlamento europeo. La relazione è stata approvata l’11 maggio con 87 voti a favore, 7 contrari e 12 astenuti nel corso della riunione congiunta delle commissioni per il Mercato interno e la protezione dei consumatori (Imco) e per le Libertà civili, la giustizia e gli affari interni (Libe). La relazione dovrà ora essere votata alla prossima sessione plenaria dell’Eurocamera, in programma tra il 12 e il 15 giugno, in vista dei negoziati inter-istituzionali con il Consiglio dell’Ue.