🤖 Effetto Trump - Legge Zero #99
Con il Digital Omnibus, Bruxelles vuole snellire le norme europee sul digitale, compreso l'AI Act. Ma è possibile competere con la deregulation USA senza smantellare le tutele per le persone?

🧭 TL;DR: ecco di cosa ci occupiamo in questo numero
🧠 Chi non vuole le regole sull’IA? Il caso del RAISE Act a New York mostra quanto sia diventato difficile l’iter di regole in materia di IA (anche quando sono di buon senso).
💰 Un super PAC da 100 milioni di dollari – sostenuto da big della Silicon Valley – punta a far perdere le elezioni al deputato che ha osato chiedere protocolli di sicurezza obbligatori per le IA ad alto rischio.
🇺🇸 È l’effetto Trump: dal giorno dell’insediamento, il nuovo Presidente USA ha avviato una campagna di smantellamento delle norme federali sull’IA, dichiarando guerra alle leggi statali e preparando un ordine esecutivo per bloccarle.
⚖️ In nome della libertà d’impresa e del Primo Emendamento, il governo federale USA si prepara a fare causa agli Stati (come California, Colorado, New York) che vogliono introdurre obblighi di trasparenza e limiti per le IA pericolose.
🇪🇺 Anche in Europa si fa sentire l’effetto Trump: la Commissione ha presentato il “Digital Omnibus”, che congela e riscrive l’AI Act prima ancora che sia pienamente applicabile.
📉 Slittano gli obblighi per i sistemi ad alto rischio (dal 2026 al 2027–2028), si semplificano le regole per le medie imprese e si modifica anche il GDPR per facilitare l’addestramento dei modelli IA sui dati personali.
😬 Il risultato è una “regolazione dell’incertezza”: mentre l’IA accelera, la politica si ritira, prende tempo o cede alle pressioni. E il 2027 – l’anno in cui alcuni prevedono l’arrivo della superintelligenza – si avvicina.
🎉 Intanto LeggeZero compie 2 anni! Ci vediamo il 1° dicembre a Roma (Spazio Sette Libreria) per l’evento speciale su storie di umanità nell’era dell’IA.
🧠 Chi non vuole le leggi sull’IA?
I maggiori esperti di IA sono i più forti sostenitori di una regolamentazione urgente. Se aspettiamo, potremmo non avere mai un’altra chance.
Sono le parole di Alex Bores, esperto informatico con un master in computer science che è attualmente membro democratico dell’Assemblea Generale dello Stato di New York. Bores, nei mesi scorsi, aveva proposto l’iniziativa legislativa denominata Responsible AI Safety and Education Act (RAISE Act). Questo provvedimento – presentato insieme a un senatore dello Stato, il democratico Andrew Gounardes – è in sostanza una norma sulla sicurezza modelli di intelligenza artificiale più avanzati. La legge richiede che i principali provider di IA (aziende che hanno investito oltre 100 milioni di dollari in calcolo per addestrare modelli avanzati come OpenAI e Google) predispongano e rispettino specifici piani di sicurezza per prevenire usi catastrofici della tecnologia.
I principali pilastri del progetto di legge sono:
trasparenza (obbligo di pubblicare i protocolli di sicurezza nonché i risultati di verifiche indipendenti sul loro rispetto);
controllo dei modelli ad alto rischio (divieto di mettere in esercizio algoritmi che comporterebbero rischi irragionevoli, definiti come eventi in grado di causare gravi danni a 100 milioni di persone o perdite economiche di almeno 1 miliardo di dollari);
monitoraggio e segnalazione (dovere di notificare incidenti rilevanti tempestivamente e comunque non oltre le 72 ore, ad esempio se un’IA comincia a comportarsi in modo pericoloso);
accountability (rischio di sanzioni economiche rilevanti - fino a 30 milioni di dollari - a carico dei trasgressori).
L’obiettivo di Bores è garantire che i sistemi di IA più potenti vengano sviluppati e utilizzati in modo sicuro e trasparente, prevenendo scenari di rischio sistemico e accrescendo la fiducia del pubblico nell’IA.
Il RAISE Act è stato approvato a larga maggioranza - con un sostegno bipartisan - da entrambe le camere dello Stato ed è adesso all’esame della Governatrice democratica Kathy Hochul che ha tempo fino al 31 dicembre per ratificarla o esercitare il veto. L’esito della vicenda è tutt’altro che scontato. Se è vero che l’84% dei cittadini dello Stato di NY è favorevole al RAISE Act, gran parte dei provider IA si è mobilitata per convincere la governatrice a bloccare la norma. In particolare, l’industria sostiene che il provvedimento, pur animato da buone intenzioni, sia troppo ampio e troppo penalizzante per sviluppatori, tanto che potrebbe frenare la ricerca e gli investimenti sull’IA a New York.
Ma lo scontro sulle regole dell’IA non si limita ai comunicati stampa. Recentemente, è stato costituito un super PAC (organizzazione politica americana che può raccogliere e spendere fondi illimitati per influenzare le elezioni) chiamato “Leading the Future”, sostenuto con oltre 100 milioni di dollari dall’investitore Andreessen Horowitz, dal cofondatore di OpenAI Greg Brockman e dal cofondatore di Palantir Joe Lonsdale. Il primo obiettivo di “Leading the Future” sarà proprio Alex Bores: durante la prossima campagna elettorale saranno stanziati milioni di dollari per evitare che il rappresentante democratico venga eletto nel congresso federale USA. E tutto per il suo impegno nel settore della regolazione dell’intelligenza artificiale.
Quello che sta accadendo attorno al RAISE Act sarebbe stato impensabile fino all’elezione di Donald Trump come 47simo Presidente degli Stati Uniti d’America.
Da quel momento - come avevamo previsto all’indomani delle elezioni in LeggeZero #49 - anche nel mondo dell’IA, si è verificato un vero e proprio “Trump effect”: l’insediamento della nuova amministrazione USA sta contribuendo a riscrivere l’intero quadro regolatorio dell’IA, non solo negli Stati Uniti.
🇺🇸 Washington Vs. gli Stati: lo scontro finale sull’IA
Del resto, non si può dire che non lo avesse annunciato: Trump aveva dichiarato fin dalla campagna elettorale che uno dei suoi primi atti sarebbe stato smantellare la strategia IA dell’amministrazione Biden. E così ha fatto. Nel giorno stesso del suo insediamento, il Presidente ha revocato l’executive order del 2023 firmato da Biden sulla sicurezza dell’IA. Quel provvedimento imponeva ai produttori di sistemi IA ad alto rischio (sicurezza nazionale, economia, salute pubblica) di condividere con il governo federale i risultati dei test di sicurezza prima del rilascio dei prodotti. L’obiettivo era mitigare i pericoli emergenti di algoritmi avanzati, dai deepfake ao bias discriminatori, in mancanza di leggi specifiche del Congresso. Ma per Trump, il Partito Repubblicano e i loro sostenitori (ricordate i CEO della Silicon Valley presenti al giuramento?) quelle misure sapevano di burocrazia soffocante per la competitività dei provider USA. Coerentemente con questo approccio, il Presidente ha smantellato anche altre iniziative varate dalle agenzie federali negli anni precedenti.
Attenzione, non si è trattato soltanto del bisogno di demolire quanto fatto dall’amministrazione precedente (fenomeno diffuso a tutte le latitudini), quanto di un’insofferenza radicale verso ogni forma di regolazione dell’intelligenza artificiale. Insofferenza che è ben dimostrata dall’assenza di disegni di legge federali sostenuti dall’amministrazione Trump in materia di IA.
Com’era ovvio, questo vuoto è stato però colmato dalle legislazioni dei singoli Stati (ne abbiamo parlato in LeggeZero #94) che - dalla California al Tennessee, dal Texas a NewYork - hanno iniziato a legiferare per conto proprio: requisiti di trasparenza degli algoritmi, obblighi di documentazione sul training dei modelli, divieti di output “non veritieri” o potenzialmente discriminatori, norme a tutela dei minori o per prevenire sperequazioni nell’accesso ai servizi sociali. Questa proliferazione di norme locali - oltre mille proposte di legge sull’IA depositate nei parlamenti statali secondo i dati diffusi dalla Casa Bianca– è vista dall’industria tech come un incubo: un patchwork normativo ingestibile che rischia di soffocare la crescita del settore e la sua competitività con la Cina (il principale rivale degli USA a livello globale).
Trump si è fatto portavoce di queste preoccupazioni e ha annunciato il sostegno a un’iniziativa che impedisca ai singoli Stati di adottare leggi sull’intelligenza artificiale in attesa di un quadro normativo nazionale (che arriverà chissà quando). A maggio di quest’anno, il tentativo di fare approvare dal Congresso una moratoria di dieci anni sulle leggi degli Stati in materia di IA era fallito, ma ora i Repubblicani ci stanno riprovando.
E la sfida di Trump ai legislatori locali probabilmente culminerà presto in un ordine esecutivo in preparazione con il titolo evocativo “Eliminating State Law Obstruction of National AI Policy” (“Eliminare l’intralcio delle leggi statali alla politica nazionale sull’IA”). Questo executive order dovrebbe contenere un piano d’azione aggressivo: incaricherà il Dipartimento di Giustizia di istituire una “AI Litigation Task Force” con il compito di avviare cause federali contro gli Stati che regolamentano l’IA in modi ritenuti incostituzionali. In particolare, il governo federale vorrebbe contestare le leggi statali sostenendo che violano la Costituzione, ricorrendo a due principi fondamentali: la supremazia del diritto federale in materia di commercio interstatale (la cosiddetta Commerce Clause) e la tutela della libertà di espressione garantita dal Primo Emendamento.
Il bersaglio non è affatto teorico. La bozza di executive order cita esplicitamente le recenti leggi varate in California e Colorado, che impongono ai produttori di IA requisiti di trasparenza sul funzionamento e sull’addestramento dei modelli. Queste norme, secondo l’amministrazione Trump, costringerebbero le aziende a “modificare gli output dei modelli” o a divulgare informazioni in modi incompatibili con il Primo Emendamento. In altri termini, obbligare un’IA a non produrre certi contenuti (ad esempio contro minoranze etniche) potrebbe configurarsi come censura preventiva, mentre imporre la pubblicazione di dati sui modelli potrebbe violare segreti industriali o il diritto alla libera iniziativa economica. Sulla base della Commerce Clause, inoltre, Trump intende sostenere che regolamentare gli algoritmi – strumenti per loro natura utilizzati su scala nazionale e globale – esula dalle competenze dei singoli Stati, interferendo con il libero flusso commerciale.
Come se non bastasse, Trump minaccerà anche ritorsioni finanziarie: la bozza d’ordine esecutivo prevede di tagliare fondi agli Stati “ribelli”, ad esempio escludendoli da finanziamenti federali. In particolare, si cita un imponente programma per la banda larga da 42 miliardi di dollari (il Broadband Equity Access and Deployment Program), la cui erogazione potrebbe essere negata agli Stati che non si allineeranno a questo approccio regolatorio dell’IA.
La vicenda promette di approdare prossimamente nelle aule giudiziarie, quindi, aprendo un contenzioso costituzionale che potrebbe arrivare fino alla Corte Suprema. Spettatori interessati - su sponde opposte - i provider di IA e le organizzazioni per la difesa dei diritti e libertà fondamentali.
🇪🇺 Ordine, contrordine, disordine: l’UE ripensa l’AI Act
Fino a qualche settimana fa, l’approccio USA alle regole dell’IA non poteva essere più lontano da quello europeo. Le istituzioni UE si vantavano di aver approvato la prima norma al mondo per garantire che lo sviluppo e l’uso dell’IA rispettasse i diritti e le libertà fondamentali.
L’AI Act - Regolamento UE 2024/1689 - era entrato in vigore 1° agosto 2024 e sarebbe diventato pienamente applicabile entro il prossimo agosto 2026. Ma, dopo l’elezione di Trump, qualcosa si è progressivamente incrinato nella sicurezza delle istituzioni europee di essere sulla strada giusta, mentre hanno acquistato sempre più peso le posizioni di chi sosteneva - e continua a sostenere - che le norme prodotte dall’UE siano troppo complesse e difficili da attuare per aziende e pubbliche amministrazioni.
Risultato: tutto è tornato in discussione.
Lo scorso 19 novembre 2025 la Commissione Europea ha presentato il cosiddetto “Digital Omnibus”, una proposta di riforme normative volta a semplificare e aggiornare le principali regolamentazioni digitali dell’UE (è possibile scaricare il resto completo qui sotto in inglese).
Si tratta di un pacchetto unico di modifiche che interviene simultaneamente su più normative simbolo dell’approccio europeo all’innovazione: dal GDPR alla NIS2 e eIDAS, con una specifica proposta di modifica dell’AI Act. L’obiettivo dichiarato è quello di semplificare le regole, eliminare incoerenze e ridurre i costi di compliance per imprese e pubbliche amministrazioni. Ma a quale costo?
Come sottolineato da molti commentatori il Digital Omnibus sembra sconfessare la strategia europea dell’ultimo decennio in materia di regolamentazione di tecnologie e piattaforme (stupisce, tra l’altro, che sia presentato dalla stessa Presidente della Commissione, Ursula von der Leyen, che ha voluto molte di quelle norme). Particolarmente singolare il caso dell’AI Act di cui si propone la modifica ancora prima che sia diventato pienamente applicabile.
Ecco le principali modifiche al Regolamento sull’IA contenute nella proposta di Digital Omnibus:
sistemi di IA ad alto rischio: si propone di posticipare l’applicazione delle regole per i sistemi di IA ad alto rischio. L’applicazione delle norme potrebbe slittare da agosto 2026 fino a dicembre 2027 per i sistemi di IA elencati nell’allegato 3 del Regolamento (es. sistemi di identificazione biometrica remota, sistemi per determinare l’accesso a servizi pubblici e privati essenziali, sistemi utilizzati nella gestione dei lavoratori e per l’accesso al lavoro, ecc.) e da agosto 2027 ad agosto 2028 per i sistemi di IA ad alto rischio che sono componenti di sicurezza di prodotti regolamentati (quali, ad es., automobili, dispositivi medici, ecc.);
periodo transitorio per il watermarking: gli obblighi di marcatura dei contenuti prodotti da sistemi di IA generativa già presenti sul mercato verrebbero posticipati di 6 mesi;
agevolazioni estese alle medie imprese: le medie imprese (fino a 150 dipendenti o 150 milioni di fatturato) finora escluse dal regime agevolato delle PMI rientrerebbero nello stesso perimetro di semplificazione, beneficiando di obblighi documentali e di conformità ridotti. Una scelta pensata per alleggerire la pressione regolamentare su un segmento industriale che costituisce uno dei motori dell’innovazione europea;
sandbox normative ampliate: estensione degli spazi di sperimentazione regolatoria, con la possibilità di istituire una sandbox europea coordinata direttamente dall’AI Office;
chiarimenti sull’uso dei dati personali nel training: mediante le modifiche parallele al GDPR è chiarito che il “legittimo interesse” può essere utilizzato per il trattamento di dati personali ai fini dell’addestramento, dello sviluppo e del testing di modelli di IA (si tratta del recepimento di quanto sostengono da tempo i provider di IA). In pratica, gli utenti non dovrebbero più dare un consenso esplicito per l’uso dei propri dati per l’addestramento delle IA (opt in), ma potranno solo opporsi in seguito (opt out).
Perché l’Europa, da sempre rigorista in materia di diritti digitali, ha deciso di ammorbidire le sue stesse regole prima ancora che entrassero in vigore?
È l’effetto Trump. All’improvviso, la Commissione ha avvertito il bisogno di sfoltire la giungla normativa che aveva contribuito a creare fino a qualche mese prima, rispondendo alle preoccupazioni espresse anche nel Rapporto Draghi sulla competitività europea.

Le reazioni a queste proposte di revisione sono state polarizzate. Da un lato, le imprese tecnologiche hanno accolto con favore il cambio di passo, sebbene chiedano di osare di più. Colossi come Google, Meta, OpenAI e anche gruppi industriali europei (Siemens, SAP) avevano fatto pressioni per un’AI Act meno gravoso, e ora vedono alcuni dei loro desiderata realizzati. Dall’altro lato, invece, esperti indipendenti, attivisti e alcuni Parlamentari europei hanno sollevato allarme: vedono in queste mosse una pericolosa retromarcia sui diritti digitali. Il noto attivista privacy Max Schrems (fondatore di Noyb) ha denunciato che ora “tutti i vostri dati finiranno negli algoritmi di Meta, Google o Amazon. Sarà più facile per le IA conoscere i dettagli più intimi e quindi manipolare le persone”. Un nutrito gruppo di 127 organizzazioni civiche ha firmato una lettera aperta alle istituzioni europee definendo il Digital Omnibus “il più grande arretramento dei diritti digitali fondamentali nella storia dell’UE”. Parallelamente, a Bruxelles, manifestanti hanno tappezzato la città con poster, accusando la Presidente von der Leyen di essersi piegata alle pressioni di Big Tech e del Presidente USA Donald Trump
A livello politico, Brando Benifei, il parlamentare europeo che ha seguito da vicino i lavori preparatori dell’AI Act, ha messo in guardia: pur senza respingere a priori l’idea di alleggerire alcuni aspetti pratici (chi può essere contrario alla semplificazione?), ha ribadito che “il Parlamento dovrà continuare a difendere i diritti digitali dei cittadini” e vigilare affinché questa proposta non diventi una deregulation mascherata.
Insomma, siamo ancora all’inizio: la proposta sarà discussa nei prossimi mesi e - c’è da scommetterci - sarà al centro di un animato dibattito.
😕 La regolazione dell’incertezza
Sia negli Stati Uniti che in Europa, l’effetto Trump si è tradotto una sorta di paralisi normativa: le regole - ritenute necessarie innanzitutto dai principali esperti di IA - vengono congelate, rinviate, sospese prima ancora di dispiegare i loro effetti.
In America, l’offensiva di Trump sta cercando di bloccare sul nascere i tentativi degli Stati federati di disciplinare l’IA, creando di fatto un vuoto normativo, nell’attesa (forse vana) che il Congresso federale produca una legislazione unitaria.
In Europa, l’AI Act – salutato fino a pochi mesi fa come il primo quadro regolatorio al mondo in materia – viene messo in stand by nelle sue parti più rilevanti.
Si potrebbe definire questa fase come una regolazione dell’incertezza: i legislatori, sopraffatti dalla rapidità degli sviluppi tecnologici e dalle pressioni geopolitiche, reagiscono prendendo tempo, evitando di prendere decisioni ostili al mercato. È un tentativo di guadagnare flessibilità – non vincolare oggi ciò che potrebbe rivelarsi obsoleto domani – ma il rovescio della medaglia è l’assenza di certezze e riferimenti stabili per cittadini e imprese.
L’incertezza regolatoria avviene in una fase storica in cui l’IA corre più veloce che mai. Questo significa che, mentre i governi temporeggiano e rimettono mano alle normative, i laboratori di ricerca e i provider continuano a sfornare modelli sempre più potenti, con capacità emergenti difficili da prevedere. E con effetti già concreti nelle vite di tutti noi.
Il rischio è evidente: un vuoto di regole proprio quando servirebbero più che mai. E quindi, in assenza di guardrails condivisi, la corsa all’IA potrebbe trasformarsi in una gara al ribasso sulle tutele, con ogni attore (USA, UE, Cina) riluttante a imporre vincoli che altri potrebbero non avere. Per non parlare del fatto che nel 2027 - data del rinvio dell’applicabilità dell’AI Act - secondo alcuni potrebbe essere già stata raggiunta la superintelligenza artificiale, rendendo probabilmente obsolete molte delle norme attualmente scritte e differite.
La sensazione è che tra qualche anno guarderemo a questo periodo chiedendoci se abbiamo fatto troppo poco, troppo tardi.
Proprio come è accaduto per i social media.
😂 IA Meme
Dura la vita dei professionisti del settore IA.
😂 Meme IA che non lo erano
Episodio curioso al National Museum di Cardiff: l’artista concettuale Elias Marrow ha “infiltrato” una stampa generata con l’IA all’interno della galleria senza alcuna autorizzazione. L’opera, Empty Plate, nasce da uno schizzo trasformato dall’algoritmo in un’immagine digitale e poi stampata; ritrae un ragazzo in uniforme con un piatto vuoto in grembo, metafora – secondo l’autore – del Galles del 2025. Per ore è rimasta tra le altre opere esposte, senza che nessuno del personale notasse l’intrusione.
A svelare l’inganno è stato un visitatore, che ha messo in dubbio l’autenticità del quadro. Dopo la segnalazione, il museo ha rimosso l’opera.
Il caso riaccende il dibattito sull’uso dell’IA nell’arte, ma anche sulla vulnerabilità degli spazi espositivi e sul confine - sempre più labile – tra performance artistica, provocazione e manipolazione.

🚨📢🔔⚠️ Hai già preso i biglietti per il primo evento di LeggeZero?
🙏 Grazie per averci letto!
Per ora è tutto, torniamo la prossima settimana. Se la newsletter ti è piaciuta, sostienici: metti like, commenta o fai girare!







This piece really made me think, especially about that 'regulation of uncertainty' bit, it's so true and kinda scary for ai, you know.
Ok tutto bene però smettiamola di rilanciare questa storia dell'AGI entro il 2027 che, allo stato attuale, non ha alcun fondamento scientifico e forse, suggerisco, dovremmo parlare un po' di più della bolla dell'IA e di come questa potrebbe scoppiare da un momento all'altro. Per carità anche dell'esplosione della bolla c'è incertezza però: il MIT ha certificato che il 95% dei progetti di utilizzo di IA in azienda ha portato a 0 benefici, mentre NVIDIA ha finanziato con 100 miliardi Open AI per comprare chip NVIDIA. Cioè mi pare che, al netto dei grandi annunci per cui si chiede all'UE di deregolamentare, sta "intelligenza" artificiale ci sta dando piccoli vantaggi e nessuno di questi rivoluzionario.