🤖 Il DDL del Governo 🇮🇹 su IA, spiegato bene – Legge Zero #22
Abbiamo letto il testo del disegno di legge del Governo italiano in materia di IA. In questo numero trovate una prima sintesi del provvedimento, in attesa dell'esame parlamentare.
🧠 La via italiana all’IA (e alla sua regolamentazione)
Sono giorni molto movimentati nel settore della regolazione dell’intelligenza artificiale. E non solo perché è stato anticipato che Papa Francesco, a giugno, parteciperà ai lavori del G7 nella sessione in cui si parlerà di intelligenza artificiale e delle sue regole (qui sotto il video dell’annuncio del Presidente Meloni).
Nel percorso verso l’adozione finale del Regolamento UE sull’IA, il Parlamento Europeo ha approvato il Corrigendum contenente, appunto, la correzione di alcuni errori presenti nella bozza di AI Act ratificata il 13 marzo. Trovate qui sotto la versione aggiornata dell’AI Act, con diversi chiarimenti utili. Il principale riguarda l’applicazione degli obblighi previsti dal regolamento ai sistemi di IA rilasciati con licenza libera o open source.
In Italia, invece, questa è stata la settimana in cui il Consiglio dei Ministri, su proposta del Presidente Giorgia Meloni e del Ministro della giustizia Carlo Nordio, ha approvato un disegno di legge per l’introduzione di disposizioni e la delega al Governo in materia di intelligenza artificiale.
Abbiamo letto le 15 pagine del testo della proposta di legge e di seguito vi riportiamo una sintesi di quelle che sono, a nostro giudizio, le principali disposizioni. Mettetevi comodi, è una lunga sintesi e - per ragioni di spazio - occuperà tutta la newsletter di questa settimana, ma crediamo sia utile per orientarsi tra gli annunci e il dibattito social che ne seguirà.
[Inizio delle premesse]
Premessa uno. Il testo ufficiale del disegno di legge non è ancora stato diffuso dal Governo. È probabile che rispetto a quello che abbiamo letto (e che vi rendiamo disponibile qui sotto) ci possano essere piccole modifiche nella formulazione che sarà presentata alle Camere.
Premessa due, utile specialmente per i non giuristi. Il Governo non ha approvato un provvedimento avente forza di legge (un Decreto Legge o DL), ma - in modo condivisibile - ha deciso di procedere con una proposta (un Disegno di Legge o DDL) che presenterà alle Camere affinché la discutano e - con tutte le modifiche del caso - la approvino come Legge dello Stato. Quindi, ci vorranno ancora alcuni mesi prima che l’Italia abbia il suo quadro giuridico nazionale sull’IA.
Premessa tre. Si apre una fase di dibattito che è auspicabile sia la più ampia e partecipata possibile (fuori e dentro le aule parlamentari), nell’ottica di dotare l’Italia di un quadro normativo evoluto in materia di IA. L’Italia - anche alla luce di ‘premessa due’ - non sarà “il primo Paese a dotarsi di regole sull’IA” (solo per restare in UE, ad esempio, la Spagna ha approvato nel 2021 la norma che ha istituito l’Agenzia competente per l’IA (AESIA), mentre in Germania sempre nel 2021 è stata approvata una norma contenente modifiche al Codice della Strada per i veicoli a guida autonoma). Ma arrivare primi non è un valore in sé, l’importante è dotarsi di regole chiare, in grado di abilitare l’innovazione e, al tempo stesso, tutelare i diritti delle persone e la stabilità della nostra democrazia.
[Fine delle premesse]
Per esaminare le principali disposizioni del DDL, andiamo per punti.
Struttura del provvedimento e principi
Il DDL è composto da 26 articoli suddivisi in cinque capi:
Principi e finalità (artt. 1-6);
Disposizioni di settore (artt. 7-16);
Strategia nazionale, autorità nazionali e azioni di promozione (artt. 17-22);
Disposizioni a tutela degli utenti e in materia di diritto d’autore (artt. 23-24);
Disposizioni penali (artt. 25-26).
Visto che non è un romanzo giallo, possiamo permetterci una piccola inversione metodologica e iniziare dalla fine, con quella che è una delle più importanti disposizioni, l’art. 26 (disposizioni finanziarie).
Dall’attuazione della presente legge non devono derivare nuovi o maggiori oneri a carico della finanza pubblica. Le amministrazioni pubbliche interessate provvedono all'adempimento delle disposizioni della presente legge con le risorse umane, strumentali e finanziarie disponibili a legislazione vigente.
Si tratta di una formula tristemente nota a chi si occupa di innovazione nella pubblica amministrazione italiana, utilizzata in tante “riforme a costo zero” degli ultimi vent’anni (Codice dell’amministrazione digitale innanzitutto). Riforme che, per questo motivo, sono poi rimaste sulla carta, determinando l’arretratezza tecnologica del nostro Paese.
È una formula potenzialmente pericolosa in un DDL su intelligenza artificiale che, come sappiamo, è un settore che richiede cospicui investimenti. Difficile pensare che - al di là del miliardo di euro stanziato per le imprese (art. 21) - Autorità e Ministeri possano affrontare la sfida dell’IA senza soldi. Speriamo sia finita l’era dei Comitati di esperti “a titolo gratuito”: le istituzioni devono essere in condizione di poter ingaggiare i migliori esperti, di dotarsi di strumenti tecnologici e organizzativi per potersi muovere con velocità, sperimentando soluzioni e approcci innovativi (come le sandbox). Confidiamo quindi che, in fase di dibattito parlamentare, ci sia la possibilità di trovare le risorse adeguate, così come stanno facendo proprio molti dei Paesi del G7.
Fatta questa premessa, il Disegno di legge si apre con alcuni articoli contenenti definizioni e principi generali (artt. 1-3). Per quanto riguarda le definizioni, probabilmente, la soluzione (giuridicamente) più corretta potrebbe essere quella di rinviare direttamente alle definizioni già contenute in altri provvedimenti (AI Act e CAD, ad esempio), evitando i rischi di duplicazioni e disallineamenti. Con riferimento ai principi, invece, per quanto condivisibili, viene da chiedersi quanto sia utile approvare in una norma di rango primario principi assai generali e generici (come quelli su rispetto dei diritti fondamentali, trasparenza, autonomia e potere decisionale dell’uomo) che già nell’AI Act troveranno una loro tutela più specifica e stringente.
Tra le poche disposizioni cogenti, contenute nel Capo I, quella relativa ai minori (art. 4, comma 4):
L’accesso alle tecnologie di intelligenza artificiale dei minori di anni quattordici richiede il consenso di chi esercita la responsabilità genitoriale. Il minore degli anni diciotto, che abbia compiuto quattordici anni, può esprimere il proprio consenso per il trattamento dei dati personali connessi all’utilizzo di sistemi di intelligenza artificiale, purché le informazioni e le comunicazioni di cui al comma 3 siano facilmente accessibili e comprensibili.
Per i minori di 14 anni sarà quindi necessario il consenso dei genitori per usare Siri, Alexa o Google Home? Sembra di si, stando all’attuale formulazione della norma.

Strategia e governance
Tra le disposizioni più attese del DDL ci sono quelle in materia di governance. Effettivamente, l’art. 18 sembra dare una primissima attuazione all’AI Act, individuando Agenzia per l’Italia Digitale (AgID) e Agenzia per la cybersicurezza nazionale (ACN) quali autorità nazionali per l’intelligenza artificiale (ne avevamo parlato già in LeggeZero #18). Ad AgID, secondo quanto previsto, spetterebbero le funzioni e i compiti in materia di notifica, valutazione, accreditamento e monitoraggio dei soggetti incaricati di verificare la conformità dei sistemi di intelligenza artificiale. Ad ACN, invece, competerebbe la vigilanza sul mercato, incluse le attività ispettive e sanzionatorie, sui sistemi di intelligenza artificiale. La norma fa comunque salve - e non potrebbe essere diversamente - le competenze del Garante per la protezione dei dati personali.
Nel frattempo che aspettiamo la pubblicazione della strategia nazionale (ne avevamo parlato in LeggeZero #19), l’art. 17 ne disciplina la futura procedura di adozione, affidandone la predisposizione al Dipartimento per la trasformazione digitale della PCM (DTD), sentiti, per gli aspetti di propria competenza, il Ministero delle Imprese e del Made in Italy e il Ministero della Difesa. La strategia è approvata dal Comitato interministeriale per la transizione digitale (CITD) e aggiornata a cadenza almeno biennale. Al DTD spetteranno inoltre il coordinamento e il monitoraggio dell’attuazione della strategia. La strategia si rivolgerà alle pubbliche amministrazioni, alle imprese e agli enti di ricerca, dettando indirizzi strategici e misure di coordinamento.
Gli articoli 19, 20 e 21 definiscono misure di sostegno, anche finanziario, per lo sviluppo e la sperimentazione dell’IA in diversi ambiti, a favore di soggetti sia pubblici che privati (il famoso miliardo di cui abbiamo parlato prima).
Di particolare interesse, poi, sono le norme di delega al Governo di cui l’articolo 22. Le materie sono diverse: vi è, innanzitutto, l’adeguamento della normativa nazionale all’AI Act. A tal fine, il Governo dovrà premurarsi di dettare norme per garantire l’alfabetizzazione e la formazione in materia di IA, oltre che il sostegno alla ricerca. Inoltre, il Governo dovrebbe essere chiamato a definire una disciplina organica sull’uso di sistemi di IA per finalità illecite. Andranno definiti strumenti legali (in ambito civile, amministrativo e penale) per inibire la diffusione di contenuti generati illecitamente tramite l’IA e vi sarà spazio, inoltre, per la previsione di nuove fattispecie di reato.
Modifiche al Codice Penale e altre disposizioni penali
Il disegno di legge decide di affrontare molti dei rischi dell’IA con uno strumento classico del diritto italiano: il Codice penale. Il DDL, infatti, propone l’introduzione di un nuovo reato, di alcune modifiche in seno ad altri delitti e alcune integrazioni per talune circostanze aggravanti.
Innanzitutto il decreto si propone di introdurre il nuovo delitto di “Illecita diffusione di contenuti generati o manipolati con sistemi di intelligenza artificiale” all’art. 612-quater del Codice penale. Questo delitto punisce con la pena della reclusione da uno a cinque anni chiunque cagiona ad altri soggetti un danno ingiusto, mediante invio con qualsiasi mezzo, consegna, cessione, pubblicazione o comunque diffusione di immagini o video di persone o di cose ovvero di voci o suoni in tutto o in parte falsi, generati o alterati mediante l’impiego di sistemi di intelligenza artificiale, atti a indurre in inganno sulla loro genuinità. Il bene giuridico tutelato è duplice, da un lato si vuole tutelare il diritto fondamentale della persona a non vedersi modificata la propria identità, il proprio comportamento, le proprie parole e il proprio aspetto in termini così perfetti da farli apparire reali e magari pregiudizievoli di fronte all’opinione pubblica ma soprattutto dall’altro tutelare la corretta informazione e percezione dei fatti da parte dell’opinione pubblica, facilmente ingannabile sulla genuinità di certi contenuti alterati con IA, diffusi o pubblicati ovunque (dei rischi dei deepfake abbiamo scritto in LeggeZero #8).
Il testo del DDL prevede che si tratti di un delitto punibile a querela della persona offesa, ma si procede d’ufficio se il fatto è connesso con altro delitto per il quale si deve procedere d’ufficio ovvero se è commesso nei confronti di persona incapace, per età o per infermità, o di una pubblica autorità a causa delle funzioni esercitate. Nel corso del dibattito parlamentare si discuterà delle eventuali criticità applicative della norma (cosa succederà, ad esempio, a chi ha diffuso un deepfake, credendo in buona fede che fosse vero?).
Nella proposta di legge, inoltre, il Governo propone anche di modificare altre disposizioni del codice penale introducendo la circostanza aggravante comune applicabile quando il fatto viene commesso mediante l’impiego di sistemi di intelligenza artificiale, quando gli stessi, per la loro natura o per le modalità di utilizzo, abbiano costituito mezzo insidioso, ovvero quando il loro impiego abbia comunque ostacolato la pubblica o la privata difesa, ovvero aggravato le conseguenze del reato.
Il disegno ha anche modificato alcuni delitti (come truffa, frode informatica, sostituzione di persona, riciclaggio) aggiungendo la disposizione del “l’aver commesso il fatto mediante l’impiego di sistemi di intelligenza artificiale”.
Infine, il DDL prevede la delega al Governo ad adottare - con uno o più decreti legislativi da adottarsi successivamente - una disciplina dei casi di uso di sistemi di intelligenza artificiale per finalità illecite.
Tutela degli utenti e diritto d’autore
Il DDL dedica alcune previsioni per garantire la trasparenza e la riconoscibilità dei contenuti generati con l’IA, a tutela della corretta informazione e dei diritti degli autori delle opere protette.
Le norme contro i deepfake
Il progetto di legge interviene innanzitutto sul T.U. dei servizi di media audiovisivi (D.lgs. 208/2021), introducendo obblighi a carico dei fornitori dei servizi audiovisivi e delle piattaforme per la condivisione dei contenuti, volti ad assicurare la trasparenza sui contenuti diffusi e tutelare il pubblico generale dai deep fake. Per questo motivo, a fronte del divieto di utilizzare sistemi di intelligenza artificiale, capaci di manipolare in maniera non riconoscibile allo spettatore il contenuto delle informazioni (art.6 co. 2 lett. e)), viene introdotto l’obbligo di marcare i contenuti che sono stati, anche parzialmente, generati da o su cui si è intervenuto con un sistema di IA.
Le piattaforme per la condivisione di video sono chiamate ad implementare funzionalità per consentire agli utenti di dichiarare se i contenuti da loro caricati siano stati generati o modificati, anche parzialmente, tramite un sistema di IA (lo sta facendo già Youtube, come abbiamo scritto in LeggeZero #18). La previsione sembra, per il momento, limitata ai contenuti video ma è ragionevole attendersi che in fase di conversione tale obbligo si estenda anche ai contenuti audio.
Queste piattaforme sono inoltre tenute ad adottare misure che tutelino il pubblico da contenuti che siano stati generati o modificati, anche parzialmente, “in modo da presentare come reali dati, fatti e informazioni che non lo sono.” ( art. 42 comma 1 lett.c bis)).
Sono esclusi dall’obbligo di riportare il “marchio IA” solo quei contenuti che fanno parte di un’opera o un programma “manifestamente creativo, satirico, artistico o fittizio” (come Striscia la notizia ad esempio).
In caso di violazione di quest’obbligo, l’AGCOM potrà irrogare sanzioni a 10.329 euro a 258.228 euro.
Gli interventi a tutela del diritto d'autore
Le previsioni del DDL che intervengono sulla Legge sul diritto d’autore (LDA) sono chiaro frutto del faticoso compromesso fatto in materia e che, ci sia attende, saranno oggetto di ulteriori modifiche all’esito dell’esame parlamentare.
Si conferma la scelta di escludere la tutela autoriale all’opera generata con l’IA, allineandosi con quanto già emerso a livello europeo e statunitense.
L’art.1 della LDA, se dovesse essere approvato il DDL, preciserà che sono oggetto di tutela le opere dell’ingegno umano e che tali sono considerate anche quelle create con l’ausilio di strumenti di intelligenza artificiale, “purché il contributo umano sia creativo, rilevante e dimostrabile”. Ci si attende che il riferimento a categorie come creatività e rilevanza del contributo umano daranno nuova linfa al dibattito mai sopito circa l’originalità dell’opera e la sua tutelabilità. Quale prompt è "creativo e rilevante?
Infine, con la proposta l’introduzione dell’ articolo 70-septies nel contesto delle c.d. “libere utilizzazioni”, il Governo propone di consentire l’uso di opere protette da parte dei sistemi di IA utilizzati da organismi di ricerca e da istituti di tutela del patrimonio culturale, per scopi di ricerca scientifica.
Altre disposizioni di settore
Il DDL, al Capo II, rubricato “Disposizioni di settore”, contiene una serie di disposizioni relative all’utilizzo di sistemi di IA in ambiti molto diversi tra loro con disposizioni che, in molti casi, sono mere affermazioni di principio.
Di seguito le più significative:
Utilizzo di IA in ambito sanitario
Viene, in generale, incentivato l’utilizzo di sistemi di intelligenza artificiale in ambito sanitario, al fine di migliorare l’efficienza del sistema sanitario nazionale a beneficio dei pazienti. Ciò nel rispetto dei principi di autodeterminazione e non discriminazione del paziente.
Viene incentivata altresì la ricerca e la sperimentazione scientifica nella realizzazione di sistemi di intelligenza artificiale in ambito sanitario. Sono alleggeriti gli oneri in capo a soggetti pubblici e privati che effettuano trattamenti di dati, anche personali, per tali finalità.
Per il supporto alle finalità di cura, e in particolare per l'assistenza territoriale, viene istituita una piattaforma di intelligenza artificiale. La progettazione, la realizzazione, la messa in servizio e la titolarità di tale piattaforma sono attribuite all'Agenzia nazionale per i servizi sanitari regionali (AGENAS), in qualità di Agenzia nazionale per la sanità digitale.
Utilizzo di IA in materia di lavoro
Viene, in generale, incentivato l’utilizzo di sistemi di intelligenza artificiale in ambito lavorativo, per migliorare le condizioni di lavoro, tutelare l’integrità psico-fisica dei lavoratori, accrescere la qualità delle prestazioni lavorative e la produttività delle persone.
Ciò nel rispetto dei diritti inviolabili del lavoratore e dei principi in materia di trasparenza, sicurezza, protezione dei dati personali e non discriminazione.
Viene istituito presso il Ministero del Lavoro e delle Politiche Sociali l’Osservatorio sull’adozione di sistemi di intelligenza artificiale nel mondo del lavoro con il compito di:
definire una strategia sull’utilizzo dell’intelligenza artificiale in ambito lavorativo;
monitorare l’impatto sul mercato del lavoro, identificare i settori lavorativi maggiormente interessati dall’avvento dell’intelligenza;
promuovere la formazione dei lavoratori e dei datori di lavoro in materia di intelligenza artificiale.
Utilizzo di IA nell’ambito delle professioni intellettuali
Viene affermato che l’utilizzo dell’IA è consentito solo per esercitare attività strumentali e di supporto all’attività professionale (quindi non per scrivere bozze degli atti giudiziari?).
Il professionista deve comunicare al soggetto destinatario della prestazione intellettuale con linguaggio chiaro, semplice ed esaustivo le informazioni relative ai sistemi di intelligenza artificiale utilizzati.
Utilizzo di IA in materia di pubblica amministrazione
Non particolarmente innovative queste disposizioni, vengono ribaditi i principi già affermati da tempo dalla normativa e dalla giurisprudenza sul tema.
Viene, in generale, incentivato l’utilizzo di sistemi di intelligenza artificiale nell’ambito della pubblica amministrazione per favorire l’efficienza dell’attività amministrativa ma garantendo sempre l'imputabilità della stessa ad un essere umano e il rispetto dei principi di trasparenza, sicurezza e tracciabilità.
Utilizzo di IA nell’attività giudiziaria
In questo ambito i sistemi di intelligenza artificiale possono essere utilizzati solo per l’organizzazione e la semplificazione del lavoro giudiziario e per la ricerca giurisprudenziale e dottrinale.
Rispetto alle prime bozze circolate, sparisce il riferimento alla possibilità di usare l’IA per predisporre anche solo le bozze dei provvedimenti giurisdizionali. Viene specificato, inoltre, che è sempre riservata al magistrato la decisione sulla interpretazione della legge, sulla valutazione dei fatti e delle prove e sulla adozione di ogni provvedimento.
Utilizzo di IA per il rafforzamento della cybersicurezza nazionale
Tra le funzioni già attribuite all'Agenzia per la cybersicurezza nazionale viene aggiunta quella di promuovere e sviluppare ogni iniziativa volta a valorizzare l’intelligenza artificiale come risorsa per il rafforzamento della cybersicurezza nazionale.
Cosa manca nel DDL
Ad una prima lettura, stupisce che nello schema di Disegno di legge manchi ogni riferimento alla AI sandbox, che dovrà essere comunque istituita in base all’AI Act, e il cui avvio poteva essere anticipato nell’ottica di fornire uno strumento di sperimentazione tecnica e normativa utile per imprese e pubbliche amministrazioni italiane, anche per orientarsi tra le diverse norme che stanno arrivando in materia di IA e semplificarne l’attuazione.
Il DDL inoltre fa rinvio a 7 tra regolamenti e decreti attuativi (compreso quello al Governo per l’attuazione dell’AI Act). Tanti, forse troppi, tenuto conto che l’adozione di linee guida e regole tecniche in materia di innovazione tecnologica è avvenuta spesso con grandissimo ritardo (basti ricordare che dal 2018 non sono mai state adottate le Linee Guida Agid in materia di blockchain).
Potrebbe quindi essere utile imparare dal passato, dettando le norme strettamente necessarie in questa prima fase di applicazione dell’AI Act e rinviando a provvedimenti di softlaw delle Autorità competenti per tutto quanto si renderà necessario, anche a seguito della velocissima evoluzione tecnologica.
📚 Consigli di visione: le audizioni del Senato sul DDL in materia di IA
In attesa di discutere il progetto di legge del Governo, l’ottava Commissione permanente del Senato della Repubblica (Ambiente, transizione ecologica, energia, lavori pubblici, comunicazioni, innovazione tecnologica) ha tenuto un ciclo di audizioni su un altro disegno di legge in materia di IA, il ddl n. 1066 recante "Norme per lo sviluppo e per l'adozione di tecnologie di intelligenza artificiale".
Nell’ambito di tale indagine, il 22 aprile, sono stati auditi: Padre Paolo Benanti - Presidente della Commissione AI per l'informazione, Stefano De Alessandri - Amministratore delegato ANSA, Federico Marchetti- fondatore YOOX, l’avvocato Ernesto Belisario, il prof. Francesco Crespi, Pasquale Stanzione - Presidente del Garante Privacy. Nei loro interventi diversi spunti che potranno tornare utili nella discussione sulla proposta di regolamentazione del Governo.
📣 Eventi
La notte blu 2024 - Roma, 04.05.2024
Think / Festival della cultura digitale - Figline Valdarno, 10-12.05.2024
Per ora è tutto, torniamo la prossima settimana con una edizione “ordinaria” e tutte le nostre rubriche. Se la newsletter ti è piaciuta, commenta o fai girare. Grazie!