🤖 Legge Zero #3 - AI Act: cosa succede adesso?
Dopo giorni di trattative convulse - e non prive di colpi di scena - le istituzioni europee hanno raggiunto l'accordo sull'AI Act, la legge a cui tutto il mondo adesso deve guardare.
🧠 AI Act: la vera partita inizia ora
“Se ti piacciono le leggi e le salsicce, non guardare mai come vengono fatte”. Questa frase, attribuita a Otto von Bismarck, mi è tornata in mente negli ultimi giorni, quando è entrato nel vivo il trilogo (così si chiama il negoziato tra le istituzioni europee) su AI Act, la proposta di legge europea sull’intelligenza artificiale.
Le puntate precedenti
Nelle ultime settimane non sono mancati i colpi di scena: l’iniziativa di alcuni Paesi (tra cui l’Italia) di introdurre modifiche significative alla proposta precedentemente approvata dal Parlamento europeo, gli appelli e petizioni di esperti e rappresentanti della società civile per non depotenziare il provvedimento, una maratona di trattative andata avanti ad oltranza e durata tre giorni.
Alla fine, però, l’accordo è stato trovato. I membri del Parlamento europeo, i Paesi membri dell'UE rappresentati dal Consiglio e gli esperti della Commissione europea hanno raggiunto un accordo politico sulla legge sull'intelligenza artificiale, proposta presentata nell’aprile del 2021 (qui il comunicato stampa della Commissione e qui quello del Parlamento Europeo).
Quello che sappiamo sull’accordo
Il Regolamento adotterà un approccio risk-based ed imporrà obblighi ai fornitori ed agli sviluppatori di sistemi di intelligenza artificiale in base ai diversi livelli di rischi individuati: rischio inaccettabile, rischio elevato, rischio specifico (per la trasparenza) e rischio minimo o nullo.
In particolare, i sistemi di Intelligenza Artificiale che presentino un rischio inaccettabile per la sicurezza delle persone saranno vietati (come la polizia predittiva e il social scoring). I sistemi di IA ad alto rischio, es. quelli in ambito giudiziario, saranno soggetti a determinati vincoli prima di poter essere utilizzati (tra i quali l'obbligo di fornire adeguata documentazione contenente tutte le informazioni necessarie sullo scopo del sistema affinché le autorità possano valutarne la conformità, la predisposizione di una valutazione dei rischi, la garanzia sulla tracciabilità dei risultati, ecc). Ci saranno poi previsioni per la trasparenza dei contenuti generati attraverso l’IA (per evitare che gli utenti possano esserne ingannati).
E adesso?
Leggo già tante analisi, ma non bisogna avere fretta. È ancora troppo presto per fare un’analisi giuridica in quanto non abbiamo ancora il testo della legge (lo chiarisce bene anche
in questo editoriale). Nei prossimi mesi sarà necessario un minuzioso lavoro tecnico sul provvedimento per perfezionare l’accordo politico di questa notte e arrivare all’approvazione definitiva (e alla successiva pubblicazione in Gazzetta Ufficiale che, realisticamente, avverrà nella prossima primavera). Sarà quello il momento in cui potremmo effettuare analisi giuridiche e capire chi ha davvero vinto in questo negoziato (le posizioni di tutti sono pubbliche e sarà facile ricostruire le reciproche concessioni).Ci sono però alcune riflessioni che possiamo fare fin da subito. La prima è che la democrazia funziona: nonostante sia sembrato lento ai più, il lavoro delle istituzioni europee - avviato ad aprile 2021 - è stato aperto e inclusivo (audizioni, consultazioni, discussioni, trattative che hanno coinvolto stekeholders e istituzioni di tutti i 27 Stati membri). Questo approccio, con tutte le sue criticità, porterà all’adozione della prima vera regolamentazione mondiale in materia di intelligenza artificiale, una regolamentazione incentrata sull’essere umano, sui suoi diritti e sulle sue libertà.
Arrivare primi non è un valore in sé, ovvio. Sicuramente però la genesi così partecipata del Regolamento lo renderà un punto di riferimento non solo per i legislatori di tutto il mondo, ma anche per tutti i soggetti coinvolti nella sua applicazione. Da un lato privati e pubbliche amministrazioni che intendono usare sistemi di IA, dall’altro le aziende che li sviluppano e che, fin qui, non avevano molti vincoli normativi (i principali erano legati all’applicazione di un’altra normativa europea, il GDPR).
Questo è un altro degli aspetti per cui l’accordo su AI Act va comunque salutato con favore, per quanto sarà complessa la sua implementazione. Non dovrebbe ripetersi quanto accaduto con le piattaforme digitali, dove i legislatori sono arrivati tardi (forse troppo) per evitare che si producessero effetti tossici per gli individui (come i minori) o per le nostre democrazie (pensiamo alla disinformazione).
Il richiamo a generici principi etici o a codici di condotta non è più sufficiente per garantire che l’uso di queste tecnologie, sempre più evolute, possa esser contemperato con i diritti e le libertà delle persone.
Naturalmente, a prescindere dalla concreta formulazione delle norme (tema su cui sicuramente torneremo), un peso importante avrà l’attuazione del Regolamento, sia da parte della Commissione Europea (che costituirà un Ufficio per l’IA) sia da parte delle diverse autorità nazionali (a proposito, l’Italia dovrebbe a questo punto scegliere rapidamente quale sarà il soggetto che fungerà da autorità di controllo nel nostro Paese).
Una volta adottata la legge sull’IA, ci sarà un periodo transitorio di due anni prima che il regolamento diventi applicabile. È indubbio che si tratti di una grande criticità: l’evoluzione dell’IA è velocissima e questi due anni corrono il rischio di rendere il Regolamento obsoleto ancora prima che sia stato pienamente attuato. D’altronde, ci sono dei tempi incomprimibili per garantire che l’adeguamento alle norme possa avvenire senza essere eccessivamente oneroso. Per provare a superare questa difficoltà, la Commissione ha lanciato un patto sull’intelligenza artificiale, un’iniziativa destinata a coloro che vogliano impegnarsi, su base volontaria, ad attuare gli obblighi chiave del Regolamento anche prima che diventi cogente.
L’intelligenza artificiale è un fenomeno nuovo e complesso, un settore in cui è difficile fare previsioni a lungo termine e quindi potrebbe essere necessario, dopo un primo periodo, effettuare modifiche e apportare correttivi. In particolare, bisognerà intervenire se alcune critiche all’impostazione del regolamento dovessero rivelarsi fondate. Mi riferisco, in particolare, a quelle per cui le norme correrebbero il rischio di porre oneri eccessivi per le aziende del settore, specialmente per le PMI. È tema che non può passare in secondo piano anche per evitare di perpetuare una contrapposizione (che nella privacy vedo da oltre 20 anni) tra libera iniziativa economica e tutela dei diritti.
In conclusione, l'accordo raggiunto sull'AI Act se pure segna un traguardo significativo nella regolamentazione dell'intelligenza artificiale, rappresenta solo l'inizio di un percorso democratico più ampio. Questa legislazione pone le basi per un futuro in cui la tecnologia viene utilizzata in modo responsabile e etico, garantendo che i benefici siano distribuiti equamente e i rischi adeguatamente mitigati. Tuttavia, è fondamentale riconoscere che questo è solo il primo passo. La continua evoluzione della tecnologia richiederà un impegno costante da parte dei legislatori, degli esperti e della società civile per garantire che questa normativa rimanga all'altezza delle sfide e delle opportunità presentate dall’IA.
L’Europa non può rassegnarsi ad essere solo il guardiano delle libertà (ruolo sicuramente meritevole), ma deve ambire ad essere un continente capace di generare innovazione, non lasciando il dominio agli altri (come USA e Cina).
🔊 Un vocale da… Livio Gigliuto (Istituto Piepoli): l’intelligenza artificiale non è più solo argomento di discussione tra gli addetti ai lavori, ma sempre più tema di dibattito pubblico in tutto il mondo. Gli italiani la conoscono? Cosa ne pensano? Lo scopriamo nel vocale di questa settimana.
📰 Cresce l’uso dell’IA sul posto di lavoro (e in tanti non lo dicono al capo)
Secondo un recente studio di Salesforce -basato su un sondaggio condotto su oltre 14.000 lavoratori in 14 Paesi - sono sempre più le persone che impiegano soluzioni di IA generativa senza l'approvazione formale dei propri datori di lavoro. I numeri della ricerca sono tanto interessanti quanto preoccupanti: il 64% dei lavoratori ha ammesso di aver presentato come proprio un lavoro generato da IA, mentre circa il 70% di loro non ha ricevuto alcuna formazione sull'uso sicuro ed etico dell'IA in ambito lavorativo.
Si tratta di numeri che rendono urgente - a prescindere dalle norme europee - stabilire linee guida chiare e politiche aziendali per l'uso dell'IA, oltre all’avvio di iniziative di formazione sull'utilizzo responsabile di queste tecnologie.
📰 L’OCSE aggiorna la definizione di AI
Nelle scorse settimane, il Consiglio dell'Organizzazione per la Cooperazione e lo Sviluppo Economico (OCSE) ha aggiornato la definizione di Intelligenza Artificiale contenuta nelle proprie Raccomandazioni sull’AI (la precedente versione era del 2019).
Un sistema di AI è un sistema basato su una macchina che, per obiettivi espliciti o impliciti, deduce, dagli input ricevuti, come generare output quali previsioni, contenuti, raccomandazioni o decisioni che possono influenzare ambienti fisici o virtuali. I diversi sistemi di IA variano nei loro livelli di autonomia e adattabilità dopo l'implementazione.
È verosimile che questa definizione diventerà quella di riferimento anche per provvedimenti normativi e atti di policy.
⚖️ In Brasile il primo provvedimento amministrativo scritto dall’IA
In Brasile, a Porto Alegre, è stato approvato quello che sembra il primo atto normativo completamente redatto da un'intelligenza artificiale (ChatGPT). Il provvedimento è stato approvato all'unanimità dal consiglio comunale senza che i membri sapessero delle modalità di redazione, che sono state rivelate solo successivamente dal consigliere comunale Ramiro Rosário. Il proponente, infatti, lo ha presentato senza apportare modifiche (con ciò violando i termini d’uso di OpenAI che prescrivono di dichiarare sempre che i contenuti generati attraverso la propria soluzione).
Questa notizia è destinata ad alimentare il dibattito sulla necessità di trasparenza sull’uso di sistemi di IA, a maggior ragione in settori così delicati per il pubblico interesse.
⚖️ Tribunale di Pechino: le immagini generate da IA sono protette dal diritto d’autore
In una decisione destinata a fare discutere, il Tribunale specializzato per Internet di Pechino ha emesso un’ordinanza secondo cui una serie di immagini generate da un sistema IA (Stable Diffusion) vanno considerate come “prodotto artistico” e pertanto possono essere tutelate dalle leggi sul copyright.
Il Tribunale cinese ha ritenuto, infatti, che i sistemi di IA generativa sono in grado di esprimere un contenuto creativo che va al di là dell’input originario dato dall’essere umano con il suo prompt.
😂 IA Meme
Il trilogo sull’AI Act è durato oltre 36 ore, una vera e propria maratona.
📚 Consigli di ascolto: "Automatica-Mente" su RaiPlay Sound
Quello di cui abbiamo bisogno oggi è più conoscenza, e più dibattito pubblico, sull'intelligenza artificiale. Esiste davvero un confine netto tra umano e artificiale? L’intelligenza artificiale ci ruberà il lavoro? Che impatto ambientale produce lo sviluppo e l'impiego di sistemi di IA? E cosa prevedono le norme che si stanno mettendo a punto a livello europeo?
Questa settimana vi segnaliamo Automatica-Mente, un podcast RAI che prova a rispondere a queste domande. Il podcast curato da Luca De Biase, con la collaborazione di Roberta Fulci e Marco Motta, è diviso in 6 episodi, uno dei quali - l’ultimo - espressamente dedicato alle regole (con il contributo di Ernesto Belisario).
📣 Eventi
Aziende a guida autonoma. Cogliere le opportunità dell’intelligenza artificiale nel rispetto delle norme - Webinar, 12.12.2023
AI e Pubblica amministrazione: rischi, opportunità e vincoli per i comuni - Webinar, 13.12.2023
Gli Stati Generali del Diritto di Internet e dell'IA - Roma, 14-16.12.2023
Per questa settimana è tutto, torniamo sabato prossimo. Se la newsletter ti è piaciuta, commenta o fai girare. Grazie!