🤖 Dove sono le regole dell'IA? - Legge Zero #111
I costruttori dell'IA si sono incontrati a New Delhi dove hanno chiesto regole globali ai governi. In questo numero ricostruiamo lo stato dell'arte mondiale delle leggi sull'intelligenza artificiale.

🧭 TL;DR: ecco di cosa parliamo in questo numero
⏰ Fate presto! I CEO dell’IA chiedono una governance internazionale sul modello dell’Agenzia internazionale per l’energia atomica.
🌐 Tutti d’accordo (o quasi). Guterres, Modi, Macron concordano sulla necessità di regole e standard internazionali, ma gli USA dicono no. Amnesty International critica la cooperazione tra governi e provider, mentre l’India batte un Guinness World Record di AI literacy.
🗺️ La mappa delle regole. Dall’AI Act europeo al Vietnam, dalla Corea del Sud alla Cina: abbiamo tracciato quattro modelli diversi di regolazione. Li trovate tutti nella versione aggiornata della mappa globale di Legge Zero.
🇺🇸 Il paradosso americano. Nessuna legge federale sull’IA, ma quasi 80 proposte pendenti al Congresso di Washington e 189 leggi statali già adottate in 47 Stati. Deregulation federale, iper regolazione locale.
😂 Per finire con un sorriso. Il meme su Altman e Amodei che rifiutano di darsi la mano.
⏰ “Fate presto!”
“La democratizzazione dell’IA è il modo migliore per garantire che l’umanità prosperi. La centralizzazione di questa tecnologia in una sola azienda o paese, infatti, potrebbe portare alla rovina. Questo non vuol dire che non avremo bisogno di regolamentazione o misure di salvaguardia. Ne abbiamo bisogno, ovviamente, con urgenza, come per qualsiasi altra tecnologia di questa potenza.”
Queste parole non sono state pronunciate da un attivista dei diritti civili né dal relatore dell’AI Act al Parlamento Europeo o da uno degli autori di questa newsletter. Sono tratte da un discorso di Sam Altman, il CEO di OpenAI, l’uomo che più di ogni altro ha messo l’IA generativa nelle mani di centinaia di milioni di persone. Altman, nei giorni scorsi, era a New Delhi dove il governo indiano ha organizzato l’India AI Impact 2026, il quarto vertice globale sull'IA dopo Bletchley Park (2023), Seoul (2024) e Parigi (2025), il primo ospitato da un Paese del Sud del mondo, con delegazioni da oltre cento Paesi, venti capi di Stato tra cui il francese Macron (per l’Italia c’era il Ministro delle Imprese Urso) e la partecipazione dei CEO di alcuni dei più importanti provider ed esperti mondiali.
Per l’occasione, Altman ha rispolverato un suo vecchio cavallo di battaglia, la proposta di creazione di un organismo internazionale simile all'AIEA per il coordinamento globale dell'IA. L'AIEA, l'Agenzia Internazionale per l'Energia Atomica, è l'organismo delle Nazioni Unite che dal 1957 vigila sull'uso pacifico del nucleare, ispeziona impianti, verifica il rispetto dei trattati di non proliferazione e può intervenire rapidamente in caso di emergenza. Altman immagina qualcosa di analogo per l'IA, un'autorità capace di monitorare i laboratori più importanti, condurre audit di sicurezza e reagire tempestivamente ai rischi emergenti. Non è la prima volta che lo propone. Nel maggio 2023 (pochi mesi dopo il lancio di ChatGPT), in un post firmato insieme ad altri due cofondatori di OpenAI (Greg Brockman e Ilya Sutskever), aveva scritto che "sarà probabilmente necessario qualcosa come un'AIEA per la superintelligenza", indicando addirittura la soglia di capacità computazionale oltre la quale un sistema dovrebbe essere soggetto a supervisione internazionale.
Altman non è stato però l’unico a parlare di regole a New Delhi. Anzi, il tema è stato al centro di moltissimi interventi. Ad esempio, Demis Hassabis, CEO di Google DeepMind, ha sottolineato l’urgenza di regole condivise in ragione della natura globale dell’IA, osservando che “è digitale, quindi significa che probabilmente influenzerà tutti nel mondo e che attraverserà i confini. Deve esserci una qualche forma di cooperazione internazionale o quantomeno standard minimi su come queste tecnologie dovrebbero essere implementate”.
È un dato politicamente rilevante: la richiesta di regolamentazione arriva proprio dai vertici delle principali aziende che guidano lo sviluppo dei modelli IA. È un segnale che può essere letto da più prospettive: marketing (non mostrarsi ostili a regole che in questo momento sembrano molto lontane), consapevolezza dei rischi (disinformazione, uso malevolo, impatti sul lavoro, concentrazione di potere tecnologico), interesse a evitare una frammentazione normativa che moltiplichi obblighi divergenti tra differenti legislazioni. C'è però anche un'altra opzione possibile, che la letteratura in economia della regolazione conosce bene: un regime di regole e audit internazionali impone costi che solo i grandi operatori possono assorbire e quindi il risultato potrebbe cristallizzare lo status quo concorrenziale. Si chiama regulatory capture - la cattura del regolatore da parte del regolato - e vale la pena tenerla a mente ogni volta che è l'industria a chiedere norme.
🌐 Tutti d’accordo (o quasi)
A New Delhi, quindi, i principali provider hanno parlato dell’urgenza di regole globali. Ma cosa hanno risposto le istituzioni?
Il Segretario generale delle Nazioni Unite, António Guterres, ha messo in guardia contro una governance concentrata nelle mani di pochi, affermando che “il futuro dell’intelligenza artificiale non può essere deciso da una manciata di Paesi né lasciato ai capricci di pochi miliardari”.
Nel suo intervento, invece, il padrone di casa - il primo ministro Narendra Modi - ha affermato che “l’intelligenza artificiale deve essere democratizzata affinché gli esseri umani non diventino semplicemente un punto dati per l’IA o restino mera materia prima per l’IA”, affermando la visione in cui la tecnologia deve restare al servizio delle persone e dello sviluppo inclusivo.

Sulla stessa linea di una governance condivisa delineata da Modi si è espresso anche il presidente francese Emmanuel Macron, dichiarando che “siamo determinati a continuare a plasmare le regole del gioco con i nostri alleati, come l’India”, confermando la volontà europea di contribuire, insieme a partner strategici, alla definizione delle regole globali dell’intelligenza artificiale.
Tutti d’accordo, quindi? Non proprio. Dal palco è arrivata una voce che non poteva essere più dissonante. Michael Kratsios, direttore dell'Ufficio per la politica scientifica e tecnologica della Casa Bianca, ha dichiarato che gli Stati Uniti “rigettano totalmente la governance globale dell’IA” perché l’innovazione non può prosperare “sotto burocrazie e controlli centralizzati”. Una frase che - per ora - ha di fatto vanificato gli appelli dei CEO statunitensi presenti nella stessa sala, disvelando una frattura inaspettata tra la Silicon Valley e il governo di Washington.
Non stupisce, quindi, che il Summit si sia chiuso con l'adozione di un documento molto blando, la New Delhi Declaration. La dichiarazione è un documento di principio che afferma sette pilastri (dalla democratizzazione delle risorse IA allo sviluppo del capitale umano) e contiene l’impegno a costruire un “Trusted AI Commons”, un repository collaborativo di strumenti e buone pratiche a livello globale. Certo, è sicuramente apprezzabile il fatto che la Dichiarazione sia stata sottoscritta da 86 Paesi (molti più dei circa 60 che un anno fa avevano sottoscritto il documento finale del Summit di Parigi). Tuttavia, sul piano regolatorio, l’approccio è rimasto molto soft: solo principi volontari (rimessi alla buona volontà di Stati e provider) e nessun meccanismo vincolante.
Anche per questo Amnesty International ha criticato il Summit per non essere riuscito a frenare le pratiche distruttive di governi e aziende tecnologiche. E c'è chi ha notato che l’incontro ha avviato una nuova stagione del multilateralismo in cui i colossi dell’IA sono in posizione di parità rispetto ai governi sovrani, senza una piattaforma equivalente per le organizzazioni della società civile (che si trovano quindi in una posizione di subalternità in questo dibattito).
🗺️ Lo stato dell'arte delle regole dell’IA
La governance globale, per ora, resta solo un’aspirazione. Ma c’è una differenza di contesto importante rispetto al primo Summit globale (quello tenutosi in UK nel 2023): diversi Paesi hanno già adottato proprie regole nazionali sull’intelligenza artificiale e molti altri le stanno discutendo proprio adesso.
I lettori più affezionati ricorderanno che già in LeggeZero #28 avevamo lanciato il nostro progetto di una mappa mondiale delle leggi sull'IA - la AI Global Regulatory Map - in costante aggiornamento. Guardandola oggi, nella versione più aggiornata, mostra un panorama più ricco di quanto si creda, ma anche progressivamente sempre più frammentato tra modelli diversi (il che potrebbe diventare un ostacolo difficilmente superabile nel percorso per la costruzione di una governance unitaria globale).

Potete usare questa immagine per rispondere a chi - durante un convegno oppure in un post sui social - afferma che “solo in Europa” scriviamo regole per l’intelligenza artificiale. Il Regolamento UE sull’IA 2024/1689 (il famoso AI Act) è stato il primo quadro regolatorio strutturato in materia, ma, da tempo, non è più l’unico.
Ci sono almeno 10 paesi al mondo che hanno adottato vere e proprie leggi in materia di intelligenza artificiale: Corea del Sud, Kazakhstan, Taiwan, Vietnam, Italia, Giappone, Peru, El Salvador, Colombia e Uzbekistan. A questi si aggiungono la Cina che finora ha emanato solo regolamenti settoriali (e dove gli studiosi stanno lavorando a una vera e propria legge quadro), la Spagna, che con il Real Decreto 729/2023 ha istituito l'AESIA (la prima agenzia di controllo sull'IA nell'Unione Europea) e gli USA con l’executive order firmato dal Presidente Trump a dicembre 2025.
📐 Non tutte le regole sono uguali
Ovviamente, non basta contare le leggi. Guardandole più da vicino, emerge che i Paesi non stanno tutti seguendo lo stesso approccio. I modelli sono diversi.
Il primo è quello della disciplina organica e vincolante: una legge dedicata all’IA, con obblighi, sanzioni e un’autorità di vigilanza. L’AI Act europeo ne è il prototipo, ma non è l’unico esempio. Nella scia del Regolamento europeo, la Corea del Sud, nel gennaio 2025, ha approvato l'AI Basic Act con un approccio che classifica i sistemi in base all'impatto sociale e non al “rischio” (come in UE). Ciò comporta una visione diversa sul ruolo dell’IA all’interno della società. Se il modello europeo vede i rischi che questa nuova tecnologia può generare, avendo quindi un’ottica di limitazione e di prevenzione, il modello coreano mantiene un’ottica neutra e analitica. I cosiddetti “high-impact AI”, devono rispettare requisiti più stringenti in tema di supervisione umana, gestione del rischio e trasparenza. Come l’AI Act, la legge coreana dedica grande attenzione anche all’IA generativa (etichette visibili o watermark specifici per evitare confusione o inganno). Dal punto di vista applicativo, anche l’AI Basic Act non si limita alle imprese nazionali: la sua portata extraterritoriale prevede che anche le società straniere che offrono prodotti o servizi IA nel mercato sudcoreano e superano determinate soglie di fatturato o di utenti debbano nominare un rappresentante locale responsabile verso le autorità per questioni di conformità e controllo.
Più recentemente, anche Taiwan ha approvato il suo AI Basic Act, ispirato al modello europeo ma senza obblighi immediati per il settore privato (le regole attuative arriveranno nei prossimi due anni) così come il Vietnam ha adottato una propria AI Law che - secondo alcuni commentatori - rappresenta la norma più fedele in assoluto al modello europeo.Il secondo modello legislativo è quello di norme che regolano l'IA con principi, governance e obblighi generali ma senza una classificazione e adempimenti secondo livelli di rischio (o impatto). Appartengono a questa categoria la legge del Peru (tra le prime in America Latina), quella di El Salvador e quella dell’Uzbekistan. Queste tipologie di norme - oltre a obblighi di trasparenza in caso di uso dell’IA - affermano genericamente principi come il fatto che le decisioni che incidono su diritti e libertà non possano basarsi esclusivamente su output generati dall’IA. A questo gruppo si può accostare anche il Giappone, che nel giugno 2025 ha adottato l'AI Promotion Act: una legge che enuncia principi generali senza imporre obblighi specifici né prevedere sanzioni, affidandosi a un meccanismo di name and shame - una specie di gogna mediatica - come unica leva di enforcement.
Il terzo modello è quello della regolazione settoriale progressiva, di cui la Cina è il caso più significativo. Pechino non ha (ancora) una legge quadro sull’intelligenza artificiale, ma dal 2022 - prima dell’AI Act - ha costruito un sistema di atti normativi specifici che, messi insieme, coprono gran parte dello spettro dell’IA (raccomandazione algoritmica, etichettatura, protezione dei minori e interazione uomo-macchina). Si tratta di un approccio pragmatico e incrementale: anziché tentare di disciplinare l'IA nel suo complesso, si interviene su ciascun profilo ritenuto meritevole sulla base del progresso tecnologico. Tuttavia, corre il rischio di essere un modello eccessivamente dispersivo tanto che alcuni accademici cinesi stanno portando avanti la proposta di una regolazione organica.
Il quarto modello, infine, è quello dell'intervento puntuale sulla legislazione preesistente: non una legge autonoma sull'IA, ma la modifica di norme già vigenti per tenere conto dell'impatto dell'intelligenza artificiale. È il caso della Colombia, ad esempio, che - con la Ley 2502/2025 - ha emendato il codice penale per introdurre un'aggravante specifica per le frodi commesse tramite deepfake e strumenti di IA (un disegno di legge organico sull'intelligenza artificiale è ancora in discussione al Congresso del Paese sudamericano).
A questo quadro già articolato si aggiungono almeno 15 Paesi che stanno attivamente discutendo leggi sull'IA nelle rispettive istituzioni - tra cui Brasile, Turchia, Indonesia, Messico, Argentina e Regno Unito - e più di 30 di altri Stati che hanno adottato strategie, linee guida o framework di soft law non vincolanti (come India, Singapore, Australia, Israele ed Emirati Arabi Uniti).
🇺🇸 Il paradosso americano
Discorso a parte meritano gli USA. Più volte abbiamo scritto che non esiste nessuna norma federale sull’intelligenza artificiale. Ma questo vuoto non significa assenza di iniziativa, anzi è vero il contrario.
Da un lato, tra il 2025 e il 2026, nel congresso statunitense sono state presentate quasi 80 proposte di legge sull’IA (anche molto diverse tra di loro). Dall’altro, ad oggi si contano almeno 189 provvedimenti legislativi adottati da 47 dei 50 stati USA. I temi su cui i legislatori statali sono intervenuti di più sono la protezione dei minori (circa 30 leggi), la tutela contro le immagini intime non consensuali create con l'intelligenza artificiale (29 leggi), la regolamentazione dei deepfake elettorali (22 leggi) e il diritto di optout dalle decisioni automatizzate all'interno delle leggi statali sulla privacy (18 leggi).
La California - e non poteva essere altrimenti visto che è la sede di molti provider IA - guida la classifica degli stati più attivi con 29 provvedimenti, seguita da New York (14) e Texas (13). Fin qui prevale il modello delle discipline settoriali, ma non mancano gli Stati che hanno tentato una governance complessiva dell'IA: tra questi il Colorado con il suo AI Act, il Connecticut e il Texas con il TRAIGA (Texas Responsible AI Governance Act).
Tanto per dare una dimensione del fenomeno, solo nel 2025 sono state presentate complessivamente oltre 210 proposte di legge statale da cui emergono non solo i “soliti temi” ma anche le prossime frontiere della regolazione (come agenti IA e pricing algoritmico).
Si tratta di un contesto normativo che genera difficoltà per gli operatori economici e, allo stesso tempo, incertezza per le persone. Indicativo un sondaggio Ipsos in cui - tra 30 Paesi analizzati - gli Stati Uniti si collocano all'ultimo posto per fiducia dei cittadini nella capacità del proprio governo di regolare l'IA in modo responsabile.
Il Paese che, fin qui, ha scelto la deregulation è anche quello in cui i cittadini si fidano di meno delle istituzioni. È la conferma che la disciplina dell'IA non è - né deve diventare solo - un esercizio burocratico o un freno all'innovazione, ma rappresenta una necessità sociale, il modo in cui una classe dirigente affronta una delle più grandi rivoluzioni della storia dell’umanità.
In attesa di una governance globale che sembra lontanissima, la strada - come mostra la nostra mappa - si sta costruendo dal basso: Paese per Paese, legge per legge, con approcci diversi e a velocità molto differenti. È un processo disordinato e frammentato che, prima o poi, dovrà trovare una sintesi.
😂 IA Meme
Sul palco del summit di New Delhi, il premier indiano Modi ha chiesto ai leader tech di alzare le mani tutti insieme, come gli attori alla fine di uno spettacolo: Altman (CEO di OpenAI) e Amodei (CEO di Anthropic ed ex OpenAI), uno accanto all'altro, hanno alzato i pugni rifiutando ostinatamente di toccarsi. Hanno così dato vita al momento più imbarazzante del vertice, diventato virale in poche ore.
Il social media team di OpenAI ha provato però a cavalcare il trend social, pubblicando un fotomontaggio (fatto con l’IA?) di Altman con chele di aragosta al posto delle mani. Si tratta di un chiaro riferimento al progetto di IA agentica OpenClaw, nato inizialmente come omaggio a Claude (l'IA di Anthropic) e poi acquisito nell’ultima settimana proprio da OpenAI.
👥👥 Convegno “Appalti Pubblici e Intelligenza Artificiale”
Se ti interessa, trovi qui info su docenti, programma, iscrizione e costi.
📣 Torna il Master di LeggeZero: ‘Il CAIO per la pubblica amministrazione’
Il master, articolato in 6 appuntamenti dal 9 al 23 aprile 2026 (per un totale di 24 ore di formazione), affronta le complesse sfide tecniche, giuridiche e organizzative poste dall’implementazione dell’IA negli uffici pubblici.
Se ti interessa, trovi qui info su docenti, programma, iscrizione e costi.
🙏 Grazie per averci letto!
Per ora è tutto, torniamo la prossima settimana.
Se la newsletter ti è piaciuta, sostienici: metti like, commenta o fai girare!













