🤖 Dieci anni senza leggi sull'IA - Legge Zero #74
Ecco la deregulation: i repubblicani USA propongono una moratoria sulle leggi in materia di intelligenza artificiale con l'intento di non rallentare lo sviluppo di sistemi sempre più potenti.

🧠 Una moratoria sulle leggi in materia di intelligenza artificiale
Dovremmo lasciare che le macchine inondino i nostri canali informativi di propaganda e menzogne? ... Dovremmo rischiare di perdere il controllo della nostra civiltà? Decisioni del genere non possono essere delegate a leader tecnologici non eletti.
Ricordate queste parole? Sono tratte dalla lettera aperta ‘Pause Giant AI Experiments’ pubblicata nel marzo 2023 e firmata da oltre 33mila persone tra cui figurano il prof. Yoshua Bengio, lo scrittore Yuval Noah Harari, il co-fondatore di Apple Steve Wozniac e addirittura Elon Musk (che ora, ironia della sorte, è uno dei leader tecnologici “non eletti”, ricoprendo addirittura un ruolo governativo). La lettera richiedeva una moratoria di sei mesi nello sviluppo delle intelligenze artificiali più avanzate. L’allarme lanciato allora sul rischio di “perdere il controllo della nostra civiltà” fece scalpore, ma quella moratoria non si è mai concretizzata. Anzi, lo sapete bene: lo sviluppo di sistemi IA sempre più potenti è proseguito - e prosegue - a un ritmo mai così serrato.
Alcuni movimenti di attivisti continuano a chiedere di sospendere lo
sviluppo dell’IA superintelligente. Uno di questi è PAUSE-AI,
organizzazione che chiede di non costruire sistemi di IA troppo potenti
finché non avremo capito come metterli in sicurezza e ha avviato una
propria petizione per la firma di un trattato internazionale che metta al
bando i sistemi di IA troppo pericolosi, come si è fatto per le armi nucleari.

Ora, a distanza di due anni da quell’appello, quando le potenzialità e i rischi sono ancora più evidenti, torna a farsi strada l’idea di una “pausa”, ma di tutt’altro genere: negli Stati Uniti c’è chi ha proposto di congelare per 10 anni le nuove leggi sull’intelligenza artificiale. Ironia della sorte, non si tratterebbe di una moratoria per le macchine quindi, bensì per le regole che dovrebbero governarle.
Per capire questa proposta, è necessaria una premessa: fin qui - come abbiamo scritto più volte in LeggeZero - gli USA non hanno adottato una norma federale (cioè nazionale) in materia di intelligenza artificiale. Questo non ha impedito che i diversi Stati americani (California innanzitutto) approvassero negli ultimi anni numerosi provvedimenti legislativi per colmare questo vuoto normativo.
La proposta legislativa - presentata nei giorni scorsi da Brett Guthrie, deputato repubblicano del Kentucky - mira a bloccare per dieci anni proprio le regolamentazioni statali sull'intelligenza artificiale. Non si tratta di una proposta preceduta da una lunga discussione, ma di un vero e proprio blitz: la norma è stata inserita all'ultimo momento nel disegno di legge di bilancio noto come "Big Beautiful Bill" (letteralmente “grande e bellissima proposta di legge”) promosso dalla leadership repubblicana alla Camera dei Rappresentanti.
La moratoria prevede che
nessuno stato o altra amministrazione locale può far applicare qualsiasi legge o regolamento che disciplini i modelli di intelligenza artificiale, i sistemi di intelligenza artificiale o i sistemi di decisione automatizzata per un periodo di 10 anni a partire dalla data di entrata in vigore di questa legge.
Non si tratta soltanto di un divieto che impedisce l’approvazione di nuove norme, ma anche l’applicazione di quelle già adottate che verrebbero quindi, di fatto, congelate, accentrando ogni potere normativo in capo al parlamento federale. Se ricordate, all’indomani dell’elezione di Trump ci eravamo chiesti come l’approccio della nuova amministrazione, improntato alla deregulation, si sarebbe conciliato con l’attivismo dei diversi Stati USA (trovate qui sotto il link).
Ora lo sappiamo: il Governo USA non solo non vuole nuove regole, ma ritiene necessario fare tabula rasa di tutte quelle esistenti. Anche il “perché” di questa modalità quasi improvvisa è facile da comprendere. Il blitz sembra giustificato da un escamotage procedurale: inserire una norma all’interno del pacchetto di “riconciliazione del bilancio”, infatti, consente di aggirare l’ostruzionismo e approvare la legge con una maggioranza semplice.
La proposta è già stata approvata (con tutto il pacchetto di misure economiche) dalla competente commissione della Camera dei rappresentanti e - dopo l’esame dell’assemblea - passerà al Senato dove potrebbe incontrare ostacoli sia politici (la maggioranza repubblicana è più risicata) sia procedurali (la procedura di “riconciliazione” è riservata a disposizioni sul bilancio).
In caso di approvazione definitiva, la moratoria sarebbe temporanea (decadrebbe dopo 10 anni), ma le sue conseguenze si farebbero sentire a lungo.
Ovviamente, la proposta di bloccare le normative locali sull’IA per un decennio ha polarizzato immediatamente le reazioni. Da un lato, i provider di IA sembrano aver accolto con favore la proposta di moratoria: da tempo non fanno mistero di considerare il mosaico di leggi statali come un freno all’innovazione e un costo burocratico eccessivo (tra gli altri, lo ha detto anche Sam Altman audito pochi giorni fa dal Congresso USA). Rappresentanti di Google, ad esempio, hanno definito la moratoria “un primo passo importante per proteggere la sicurezza nazionale e garantire la leadership americana nel campo dell’IA”. Il deputato repubblicano della Silicon Valley, Jay Obernolte, ha difeso la misura sostenendo che i mille disegni di legge pendenti nei parlamenti statali rischierebbero di creare un quadro caotico: “sarebbe impossibile per qualsiasi società che operi in tutto il Paese rispettare norme tanto divergenti”. In quest’ottica, congelare le regolamentazioni locali darebbe tempo al governo federale di elaborare un approccio unitario all’IA, per cui il pacchetto proposto stanzia 500 milioni di dollari.
Dall’altro lato, forti critiche sono arrivate dalla società civile, dai procuratori generali degli Stati e dall’opposizione democratica. Un insolito fronte bipartisan di quaranta procuratori statali (inclusi i repubblicani di Ohio, Tennessee, Arkansas, Utah e Virginia) ha inviato una lettera al Congresso definendo “irresponsabile imporre una moratoria generale su tutte le azioni statali mentre il Congresso non agisce” in ambito IA. Secondo i procuratori, la norma priverebbe i cittadini di tutele ragionevoli di fronte ai rapidi sviluppi dell’intelligenza artificiale.

Tra i firmatari vi è anche il procuratore generale della California, Rob Bonta, che ha dichiarato “mi oppongo fermamente a qualsiasi tentativo di impedire agli Stati di sviluppare e applicare normative di buon senso; gli Stati devono poter proteggere i propri residenti di fronte a tecnologie di IA emergenti”. Proprio la California è tra gli stati più attivi: di recente ha vietato l’uso dell’IA per creare deepfake pornografici senza consenso, ha messo al bando i deepfake non autorizzati in spot politici e obbliga gli operatori sanitari ad informare i pazienti quando interagiscono con un sistema di IA anziché con un essere umano. Leggi di questo tipo – già adottate in oltre 30 stati USA – verrebbero sospese se passasse la moratoria federale.
Anche numerosi gruppi per i diritti digitali e associazioni dei consumatori si oppongono: Consumer Reports, Epic, Public Citizen, American Economic Liberty Project, PAUSE-AI (solo per citarne alcuni) avvertono che, se approvata, la legge impedirebbe agli stati di proteggere i cittadini da rischi concreti come deepfake elettorali, discriminazione algoritmica o abusi dell’IA. Anche i rappresentanti democratici al Congresso denunciano la mossa repubblicana come “un regalo alle Big Tech”, tentando di bloccarla con emendamenti soppressivi e preannunciando battaglia in aula.
Staremo a vedere. Certo, in questo momento la distanza degli USA dall’UE - in relazione alla regolamentazione dell’IA - non potrebbe essere più netta.
Nel vecchio continente, infatti, istituzioni e aziende sono alle prese con l’attuazione dell’AI Act che diventerà pienamente cogente entro agosto 2026. Diversamente dall’approccio statunitense, l’Unione europea ha lanciato solo recentemente - e dopo l’approvazione delle norme - l'AI Continent Action Plan, un piano ambizioso volto a posizionare l'Europa come leader nel campo dell'intelligenza artificiale. Il piano prevede cinque ambiti di intervento: dal potenziamento delle infrastrutture informative e dalla garanzia dell'accesso a dati di qualità, allo sviluppo delle tecnologie, fino alla promozione di competenze adeguate e all’ottimizzazione dell’attuazione dell'AI Act. Quest’ultima sembra l’unica concessione che, al momento, le istituzioni europee intendono fare a chi vorrebbe che anche nel nostro continente si seguisse una politica di deregulation.
Consapevole che le nuove regole potrebbero risultare complesse, Bruxelles intende supportare imprese (in particolare startup e PMI) e autorità nazionali nell’applicazione del regolamento. Niente deregulation, per ora. Al massimo, semplificazione:
sono già state pubblicate alcune linee guida interpretative (non sempre semplici, a dire il vero) e promossi codici di condotta volontari per orientare i settori ad alto impatto;
sarà istituito un “AI Act Service Desk”, un servizio di assistenza che fungerà da punto di contatto unico per aziende in cerca di informazioni e consigli pratici sul rispetto delle norme;
inoltre, l’AI Act già prevede spazi di sperimentazione regolatoria (sandboxes) in cui imprese e autorità potranno testare soluzioni di IA innovative in un ambiente controllato, con deroghe temporanee alle norme vigenti. Ciò potrebbe consentire di trovare un equilibrio tra innovazione e tutele: provare nuove tecnologie in sicurezza e adattare eventualmente le regole prima di una applicazione su larga scala.
L’Europa scommette quindi sulla capacità di guidare l’innovazione tramite la regolazione, creando un ecosistema che provi a unire incentivi e vincoli. Certo, resta da vedere l’impatto concreto, specialmente sulle PMI. Negli USA la deregulation potrebbe significare meno vincoli immediati per provider e imprese (ma anche meno certezze sulle future regole), mentre l’AI Act europeo pone precisi obblighi (documentazione, valutazione dei rischi, adeguamenti tecnici) che per i piccoli attori potrebbero rappresentare un costo non irrilevante. Tuttavia, mentre oltreoceano si valuta una moratoria per evitare “1000 leggi diverse” sui sistemi di IA, in Europa si è già realizzato un unico quadro regolatorio comune per 27 paesi.
Nei prossimi mesi capiremo se il Congresso USA confermerà la linea della “mano libera” decennale all’industria dell’IA oppure se prevarrà un approccio più cauto. Di certo, la traiettoria europea e quella statunitense appaiono oggi completamente divergenti: regolazione vs. deregolamentazione, precauzione vs. accelerazione.
Chi avrà scelto la strada migliore per governare l’intelligenza artificiale (e per supportare la propria competitività tecnologica)?
💊 IA in pillole
Le aziende USA continuano a impegnarsi nell’attuazione dell’AI Act, nonostante Trump. È quanto riferisce questo articolo di Euronews che cita una fonte interna all’AI Office dell’UE. Nonostante l'amministrazione Trump abbia criticato apertamente il Codice di Condotta sui modelli di IA per finalità generali, le aziende statunitensi non hanno modificato il proprio atteggiamento e rimangono coinvolte nel processo. Il Codice, pensato per aiutare le aziende a conformarsi con l'AI Act europeo, avrebbe dovuto essere finalizzato entro il 2 maggio 2025, ma la pubblicazione è stata rimandata su richiesta di vari operatori. Durante il processo di redazione, che ha visto coinvolti circa mille esperti, ci sono state diverse critiche, in particolare da parte di grandi aziende tecnologiche e editori, preoccupati per possibili conflitti con le leggi sul diritto d'autore. Meta, ad esempio, ha dichiarato di non voler firmare il Codice nella sua forma attuale.
Il funzionario UE citato nell’articolo, tuttavia, ha chiarito che le aziende statunitensi sono rimaste "molto proattive", sottolineando che non si è registrato alcun calo del loro interesse a causa del cambio di rotta degli Stati Uniti. Attualmente, fino al 22 maggio, è aperta una consultazione pubblica sulla bozza di Codice: l'obiettivo è quello di completare il documento prima del 2 agosto 2025, magari facendo qualche concessione ai provider.Pochi giorni fa, la Casa Bianca ha comunicato via email a Shira Perlmutter – alla guida dell’U.S. Copyright Office dal 2020 – che il suo incarico era “terminato” con effetto immediato. Non ci sono giustificazioni ufficiali, ma secondo i media, il motivo del licenziamento sarebbe stato un rapporto di oltre cento pagine sull’intelligenza artificiale pubblicato dal Copyright Office pochi giorni prima: il documento solleva dubbi sul fatto che le piattaforme di IA possano invocare il fair use per addestrare i modelli su opere protette, e invita il governo a vigilare con attenzione. Proprio quest’analisi – letta come un ostacolo alle attività dei provider di IA – avrebbe irritato l’Amministrazione (di sicuro Elon Musk aveva sostenuto la necessità di abrogare le leggi sulla proprietà intellettuale, viste come un ostacolo al progresso dell’IA).
Le autorità federali statunitensi stanno investigando sui piani di Tesla per il lancio del servizio di robotaxi previsto a giugno 2025 ad Austin, in Texas. La National Highway Traffic Safety Administration (NHTSA) ha inviato a Tesla una richiesta dettagliata di informazioni riguardanti il software "Full Self-Driving" (FSD), focalizzandosi sulle prestazioni in condizioni di scarsa visibilità come nebbia, pioggia e polvere. Questa indagine è stata avviata dopo quattro incidenti avvenuti in tali condizioni, incluso uno mortale in Arizona nel 2023.
La NHTSA vuole chiarire se il sistema di guida automatizzata previsto per i robotaxi sia lo stesso o simile a quello già in uso (qui un articolo di TechCrunch). Le domande includono dettagli sulla dimensione della flotta, i modelli di veicoli coinvolti e le misure di sicurezza adottate, specialmente in condizioni di visibilità ridotta. Tesla deve rispondere entro il 19 giugno 2025. Se la moratoria venisse approvata dal Congresso USA, che fine farebbe questa istruttoria?
😂 IA Meme
Le proteste contro la proposta repubblicana di moratoria delle regole sull’IA usano anche lo strumento dei meme. Questo, ad esempio, ipotizza che la norma nasca da un’insofferenza dei provider IA agli obblighi e ai controlli.

📺 Consigli di visione: chi decide il futuro dell’IA?
Se siete lettori assidui di questa newsletter, ricorderete la parabola della proposta di legge californiana SB-1047: una norma ambiziosa che avrebbe imposto requisiti di sicurezza minimi per i modelli di IA più potenti. Ne avevamo seguito il cammino come si segue una serie TV: l’inizio tecnico, il dibattito acceso, le pressioni delle big tech, e poi il finale a sorpresa, il veto del governatore Gavin Newsom.
Nei giorni scorsi è stato pubblicato il documentario “The Battle For The Future Of AI” che racconta quella storia. È un dietro le quinte onesto e inquieto di una battaglia culturale ed economica che si è combattuta tra i corridoi del Campidoglio californiano e le sale riunioni di San Francisco, ma che - alla luce della proposta di moratoria di cui abbiamo scritto sopra - è quanto mai attuale.
È il racconto di uno scontro. Da un lato c’erano il senatore Scott Wiener, che firmava il disegno di legge, e una costellazione di esperti, attivisti e tecnologi convinti che serva stabilire dei guardrail prima che i sistemi diventino ingestibili. Dall’altra, l’ecosistema IA e una parte del mondo politico, anche democratico, preoccupato che l’innovazione possa essere soffocata dalle regole.
Il documentario non nasconde le contraddizioni. Fa nomi, mostra email, segue il denaro (quello delle campagne politiche, ad esempio). Ma il cuore del racconto è un altro: chi può o deve regolare una tecnologia così trasformativa? I legislatori? I ricercatori? Le aziende?
Il veto di Newsom è il momento clou. Un veto che esprime una posizione forte: il rischio c’è, non può negarsi, ma il modo per mitigarlo deve essere costruito insieme all’ecosistema, non contro.
Se lavorate con l’IA, o la studiate, o semplicemente vi chiedete in che mondo cresceranno i vostri figli, questo documentario è da vedere. Anche perché potrebbe aiutarci a capire chi vincerà lo scontro in atto (e quindi controllerà davvero l’intelligenza artificiale).
📣 Eventi
Agentforce World Tour- Milano, 29.05.2025
CAIO Day - Governare l’IA nella pubblica amministrazione - Bologna, 05.06.2025
CAIO Day - Governare l’IA nella pubblica amministrazione - Torino, 26.06.2025
🙏 Grazie per averci letto!
Per ora è tutto, torniamo la prossima settimana. Se la newsletter ti è piaciuta, metti like, commenta o fai girare.
Thanks for reading Legge Zero! Subscribe for free to receive new posts and support my work.





