🤖 L’Anticristo e le regole dell’intelligenza artificiale - Legge Zero #94
Il dibattito sulle norme in materia di IA non è mai stato così acceso. Non solo nei toni ma anche nei contenuti. E la sensazione è che siamo solo all'inizio di una corsa globale alla regolazione.

🧭 TL;DR: ecco di cosa ci occupiamo in questo numero
🤖 Peter Thiel, uno degli imprenditori tech più importanti, sostiene che chi vuole regole per l’IA sarebbe al servizio dell’Anticristo.
🇪🇺 L’Europa procede con l’AI Act, nonostante le richieste di metterlo in pausa.
🇨🇳 La Cina impone watermark sui contenuti generati da IA e prepara una legge-quadro su open source, etica e sandbox regolatorie.
🇺🇸 Gli Stati Uniti restano ancora senza legge federale, ma al Congresso qualcosa inizia a muoversi.
🏛️ La California però si smarca: approva norme su modelli di frontiera e tutela dei minori.
⚖️ In Ohio arriva una proposta per negare la personalità giuridica alle IA e chiarire che la responsabilità civile e penale non può mai essere dell’algoritmo.
🧠 Il dibattito sulle regole dell’IA è sempre più globale (e apocalittico)
“Nel XVII e XVIII secolo, l’Anticristo sarebbe stato un Dottor Stranamore, uno stregone che faceva un tipo di scienza malvagia e folle.
Nel XXI secolo, l’Anticristo è un luddista che vuole fermare tutta la scienza. È qualcuno come Greta o Eliezer.”
Con queste parole – pronunciate qualche settimana fa durante una conferenza a San Francisco – il venture capitalist Peter Thiel ha bollato come “Anticristo” chi propone limiti allo sviluppo tecnologico. Il noto imprenditore, tra le altre cose co-fondatore di società come PayPal e Palantir, ha fatto espresso riferimento all’attivista climatica Greta Thunberg e all’esperto di intelligenza artificiale Eliezer Yudkowsky (da lui finanziato in passato), accusandoli di essere “moderni luddisti” che alimentano paure apocalittiche per frenare il progresso. Secondo Thiel, chi agita lo spettro di catastrofi - dal cambiamento climatico alla supremazia dell’IA - per invocare più regole e controlli sarebbe in realtà complice dell’avvento di un potere totalitario globale: un “Anticristo” disposto a sacrificare la libertà in nome della sicurezza.
Si tratta di una visione forte, direi estrema, che però riflette un atteggiamento sempre più diffuso (non solo in Silicon Valley): un’insofferenza ideologica verso le regolamentazioni, percepite come inutili ostacoli burocratici all’innovazione. Nel mondo tech libertarian - di cui Thiel è esponente di spicco - lo Stato regolatore è spesso visto come un nemico del progresso (ora addirittura assimilato al “re malvagio” dell’Apocalisse). Non sorprende quindi che molti big del settore guardino con ostilità ai tentativi di porre paletti normativi all’IA, specialmente in un momento - come quello che stiamo vivendo - in cui il progresso tecnologico è velocissimo (non sono passati nemmeno due mesi dal lancio di ChatGPT 5 e già si mormora che ChatGPT 6 potrebbe arrivare entro la fine del 2025).
Basti pensare che negli USA, a livello federale, alcuni provider IA hanno cercato (invano) di far approvare una moratoria decennale sulle leggi statali in materia di IA (ne abbiamo parlato in LeggeZero #74), pur di evitare di fare i conti con un “patchwork” di normative locali. Fallito questo tentativo, stanno già stanziando centinaia di milioni di dollari in vista delle prossime elezioni di medio termine (che si terranno nell’autunno 2026), per sostenere i candidati che si impegneranno a contrastare ogni tentativo di scrivere nuove leggi sull’intelligenza artificiale.
In questo contesto Thiel, intrecciando teologia e politica, non fa altro che radicalizzare questa crociata anti-regole: nella sua visione dichiaratamente messianica, gli innovatori hanno un diritto quasi divino al libero esperimento (e se ci sono problemi si proverà a risolverli), mentre chi invoca cautele (anche normative) viene dipinto come profeta di sventura o, addirittura, traditore dell’umanità.
Dietro questa cornice teologica, però, si nasconde un atteggiamento più terreno e concreto: la profonda insofferenza di alcuni imprenditori verso qualsiasi forma di regolamentazione. Non è un caso che Thiel abbia scelto proprio questo momento per le sue conferenze, mentre il Congresso USA discute misure di sicurezza per l’IA e l’amministrazione Trump (di cui Thiel è importante sostenitore, così come del vicepresidente J.D. Vance, suo ex collaboratore) sta cercando di affrontare il tema della governance tecnologica.
La Silicon Valley, del resto, ha sempre preferito la logica del “move fast and break things”, dell’innovazione prima e delle regole dopo (possibilmente mai, in realtà). Ma questa narrazione teologica secondo cui l’innovazione (americana) prospera nell’assenza di vincoli normativi sta scontrandosi con una realtà sempre più complessa.
🇪🇺 L’UE va avanti con l’AI Act
Da anni circola un detto nel mondo tech: “gli Stati Uniti innovano, la Cina copia, l’Europa regola”. È una semplificazione che ha sempre avuto una certa attrattiva retorica nei convegni, ma che oggi appare più sbagliata che mai. La realtà è che tutti stanno regolando, ciascuno a modo proprio.

Certo, l’Europa con il suo AI Act è stata la prima economia avanzata a dotarsi di un quadro normativo strutturato per l’intelligenza artificiale. La Commissione Europea, dopo aver tracciato la rotta, è ora nella fase cruciale della sua implementazione. Il regolamento è già ufficialmente in vigore, ma la sua applicazione sta avvenendo per gradi, in un percorso a tappe che dovrebbe completarsi nel 2026. Tuttavia, il cammino non è privo di turbolenze: un fronte compatto di imprese tecnologiche e autorevoli figure istituzionali chiede a gran voce una pausa di riflessione, una sospensione che permetta di valutare meglio l’impatto di una normativa così ambiziosa.
A luglio 2025, oltre 40 CEO di grandi aziende europee, tra cui colossi come ASML, Philips, Siemens e Mistral, hanno inviato una lettera aperta alla Commissione Europea chiedendo una “pausa di due anni” sull’applicazione del regolamento. Le principali preoccupazioni riguardano i costi di conformità, le incertezze interpretative e l’impatto sulla competitività globale dell’ecosistema europeo dell’IA.
A queste preoccupazioni si è aggiunta la voce di Mario Draghi che, a settembre, ha chiesto una sospensione dell’AI Act per valutare con maggiore attenzione i potenziali “inconvenienti” e l’incertezza derivante dall’applicazione della norma.
Finora, il “No” di Bruxelles a queste richieste è stato netto: modificare il calendario, che è parte integrante del testo di legge, significherebbe riaprire l’intero e complesso iter legislativo. Per la Commissione, poi, un rinvio minerebbe la credibilità dell’AI Act e l’efficacia del modello europeo, che punta a bilanciare innovazione e tutela dei diritti fondamentali. Il messaggio è chiaro: la regolamentazione non va vista come un ostacolo, ma come un prerequisito per un’innovazione sostenibile e affidabile, in grado di costruire la fiducia di cittadini e imprese.
Questo acceso dibattito non sta giovando all’applicazione dell’AI Act che procede più lentamente del previsto, con provider, amministrazioni e imprese che sono in forte ritardo, a partire dai programmi di formazione del personale (tassello fondamentale della compliance normativa).
Insomma, sia pure con tutte le difficoltà applicative non sembra che ci saranno grandi ripensamenti e clamorosi colpi di scena nel Vecchio Continente. E, mentre l’attenzione globale - anche dei provider stranieri - è rimasta focalizzata su Bruxelles, qualcosa di significativo sul fronte delle regole sta accadendo anche nel resto del mondo.
🇨🇳 La via cinese: controllo statale e sperimentazione
Fin qui pochi hanno notato che anche la Cina – il vero rivale della Silicon Valley nella corsa al dominio dell’IA – si sta muovendo rapidamente per regolamentare l’intelligenza artificiale (ovviamente, a suo modo). Pechino già da tempo impone vincoli severi sullo sviluppo e uso dell’intelligenza artificiale, con un mosaico di oltre 30 tra linee guida, standard tecnici e regole settoriali. E il quadro normativo si sta ancora arricchendo. Dal 1° settembre 2025 sono entrate in vigore nuove regole obbligatorie di etichettatura: tutti i contenuti generati dall’IA devono recare una filigrana digitale (watermark) visibile e incorporata nei metadati (previsioni simili a quelle sulla trasparenza contenute nell’AI Act). Le piattaforme online lavoreranno come “guardiani” e dovranno segnalare i contenuti IA non etichettati, con sanzioni severe in caso di violazione.
Ma il vero salto di qualità è atteso con una futura legge-quadro nazionale. Le informazioni sono scarse, ma secondo uno studio pubblicato su Science da giuristi cinesi, il Comitato Permanente dell’Assemblea Nazionale del Popolo mira ad approvare entro il 2026 una “Legge per lo sviluppo sano dell’IA” che unifichi le regole esistenti superando l’attuale frammentazione.
I sei pilastri fondamentali della futura legge rivelano un modello di regolazione abbastanza diverso da quello europeo.
Il primo pilastro tutelerà l’ecosistema open source (i principali modelli cinesi sono open source, come DeepSeek): pubblicare modelli su GitHub o HuggingFace - a differenza di quanto previsto dalle regole europee - non richiederà alcuna attività di compliance normativa.
Il secondo pilastro promuoverà la ricerca scientifica pura che resterà esente da obblighi (“deve essere protetta, non regolata come un’attività di business”).
Il terzo pilastro valorizzerà il ruolo degli “Internet Courts”, tribunali specializzati che già operano a Pechino, Hangzhou e Guangzhou per controversie sulle tecnologie di frontiera e che dovrebbero garantire efficienza del contenzioso e applicazione esperta delle regole.
Il quarto pilastro imporrà una valutazione etica obbligatoria su due livelli (interna ed esterna) basata su 10 principi (tra cui centralità dell’uomo, equità, sicurezza, trasparenza, rispetto della privacy).
Il quinto pilastro prevedrà sandbox regolatorie per testare applicazioni ad alto rischio sotto supervisione e con possibilità di sospensione immediata se qualcosa andrà storto.
Il sesto pilastro riguarderà l’introduzione graduale dei sistemi IA sul mercato: dal test chiuso all’applicazione limitata, fino alla diffusione generale (come per le auto autonome che passano da circuiti chiusi a zone urbane delimitate).
Insomma, la via cinese alla regolazione dell’IA punta a conciliare innovazione e sicurezza sotto l’egida governativa: controllo statale su contenuti e ordine pubblico, ma apertura alla collaborazione scientifica e agli standard internazionali.
Molto interessante un’osservazione presente nell’articolo pubblicato su Science: il futuro dell’IA non dipenderà solo da chi avrà i modelli più potenti, ma da chi saprà regolare l’IA nel modo più intelligente.
🇺🇸 Le due facce della regolazione USA dell’IA
Negli Stati Uniti, culla delle Big Tech, finora manca una legge federale organica sull’intelligenza artificiale.
Il 23 luglio scorso la Casa Bianca ha pubblicato America’s AI Action Plan, un piano strategico in 3 punti per assicurare la supremazia statunitense nell’IA, basato su: accelerazione dell’innovazione, potenziamento dell’infrastruttura nazionale (data center, chip) e leadership diplomatica internazionale. Nel documento l’amministrazione afferma esplicitamente che l’IA è “troppo importante per essere soffocata dalla burocrazia in questa fase iniziale” (si vede che Thiel è molto vicino all’amministrazione Trump).
L’approccio è improntato alla deregolamentazione: le agenzie devono rivedere o abrogare normative onerose, e - fatto notevole - si minaccia il taglio dei fondi federali agli Stati che introducano leggi sull’IA eccessivamente restrittive, per scoraggiare un mosaico disomogeneo di regole locali.
Nonostante questo approccio, qualcosa inizia a muoversi anche al Congresso. Il 10 settembre 2025, il senatore Ted Cruz ha presentato il disegno di legge “AI Sandbox“, che consentirebbe alle aziende di ottenere esenzioni temporanee biennali dall’applicazione determinate normative per sperimentare soluzioni innovative, previa descrizione dei rischi e delle misure di mitigazione adottate. Più rilevante è l’Artificial Intelligence Risk Evaluation Act, disegno di legge bipartisan annunciato il 29 settembre dai senatori Josh Hawley e Richard Blumenthal, che istituirebbe un sistema di test e valutazione obbligatorio per i sistemi di frontiera supervisionato dal Dipartimento dell’Energia (DOE). Gli sviluppatori dovrebbero notificare i loro modelli al DOE e non potrebbero distribuirli senza aver soddisfatto precisi requisiti di valutazione e mitigazione dei rischi. Infine, il Segretario all’Energia dovrebbe riferire al Congresso annualmente con raccomandazioni per una supervisione federale dell’IA.
L’intento della proposta - il cui iter è appena all’inizio - è prevenire scenari di perdita di controllo o uso bellico dell’IA, bilanciando innovazione e sicurezza nazionale.

Ma non fatevi ingannare: mentre a livello federale le maglie restano larghe, i diversi Stati USA stanno colmando il vuoto normativo interno, emanando proprie leggi sull’IA. Solo nel 2025 ben 38 Stati USA hanno già adottato circa 100 atti normativi relativi all’intelligenza artificiale (dalle linee guida sull’addestramento degli algoritmi, a norme su settori specifici come riconoscimento facciale, veicoli a guida autonoma e deepfake). Per esempio, l’Arkansas ha approvato una legge che chiarisce la paternità dei contenuti generati da IA (attribuendola a chi fornisce l’input o le direttive allo strumento di IA generativa), mentre attribuisce la proprietà dei modelli addestrati a chi fornisce i dati di addestramento. Il Montana ha sancito con il Right to Compute Act un “diritto di calcolo” che impedisce al governo di limitare l’uso privato di risorse computazionali, salvo necessità dimostrabili e strettamente proporzionate a soddisfare un interesse pubblico preminente. Il Nord Dakota ha modificato le leggi anti-stalking per vietare l’uso di robot dotati di IA per perseguitare o molestare individui, definendo “robot” come qualsiasi oggetto artificiale o sistema che percepisce, elabora e agisce usando tecnologia (inclusi i droni).
Ma non c’è dubbio che uno Stato più di tutti abbia deciso di farsi laboratorio normativo. Si tratta, paradossalmente, proprio della California - dove si trova la Silicon Valley - che da “terra senza regole” sta diventando territorio di avanguardia nella regolamentazione dell’IA (“first in the nation” si dice da quelle parti).
La California – lo Stato più popoloso e sede di molte aziende IA – si sta ritagliando un ruolo di regolatore di fatto negli Stati Uniti, un po’ come fece in passato per la privacy (col pionieristico CCPA che molto somiglia al GDPR europeo).
Pochi giorni fa, il governatore Gavin Newsom ha firmato il Transparency in Frontier Artificial Intelligence Act, una legge sui modelli di IA di frontiera. Le aziende che addestrano modelli avanzati (come ChatGPT 5) dovranno pubblicare un documento che descriva come applicano standard nazionali e internazionali di sicurezza, implementare un meccanismo per segnalare incidenti critici alle autorità e proteggere i whistleblower. La legge introduce specifiche sanzioni per le violazioni e istituisce un consorzio pubblico-privato (CalCompute) per sviluppare infrastrutture computazionali a supporto della ricerca. Interessante anche la previsione per cui - per evitare l’obsolescenza - il Department of Technology californiano dovrà aggiornare annualmente la normativa per mantenerla al passo con l’evoluzione tecnologica.
Un secondo fronte disciplinato dalla California è quello che riguarda la protezione dei minori. Il caso di Sewell Setzer, sedicenne suicidatosi dopo aver instaurato un rapporto emotivo con un chatbot che non ha saputo aiutarlo, ha spinto il parlamento locale ad agire. Il Senate Bill 243, firmato il 13 ottobre 2025, introduce guardrail obbligatori: vieta ai chatbot di esporre i minori a contenuti sessuali o di incitamento al suicidio, impone che manifestazioni di intenti autolesivi attivino protocolli di emergenza con messaggi di supporto psicologico e richiede banner e disclaimer ricorrenti che avvisino che l’interlocutore non è umano. La legge, inoltre, riconosce un diritto di genitori e minori ad agire giudizialmente contro sviluppatori e provider inadempimenti.

In questo modo, la California assume, di fatto, un ruolo guida (non solo negli USA), proponendosi come modello di innovazione responsabile, cercando di dimostrare che regolare non significa uccidere l’innovazione ma creare fiducia e sicurezza attorno a tecnologie destinate a cambiare le nostre vite.
Altri Stati potrebbero presto seguirla, con norme ancora più ambiziose. Come quella proposta alla Camera dell’Ohio il 23 settembre 2025, dal deputato (repubblicano) Thaddeus Claggett.
Il disegno di legge che ha già superato un primo esame in commissione, se approvato, stabilirebbe formalmente che nessun sistema di IA può ottenere la personalità giuridica, né può essere considerato come dotato di coscienza, o senziente.
Il disegno di legge entra nel dettaglio con una serie di divieti specifici che sembrano quasi fantascientifici ma rispondono a casi reali:
un’IA non può contrarre matrimonio con un essere umano o con un’altra IA;
un’IA non può ricoprire ruoli di dirigente, amministratore, manager o posizioni simili in società, amministrazioni o altre persone giuridiche;
un’IA non può avere proprietà o compravendere beni;
un’IA non può rappresentare esseri umani;
un’IA non può adottare bambini.
Ma la parte più interessante del disegno di legge dell’Ohio riguarda la responsabilità. Quando un sistema di IA causa danni – diretti o indiretti – attraverso le sue operazioni, output o raccomandazioni, lo sviluppatore o il provider dell’IA sono ritenuti responsabili. E qui sta il punto cruciale della proposta di legge: anche l’uso intenzionalmente improprio dell’IA da parte di un utente non esonererebbe lo sviluppatore dalla responsabilità. Se un’IA viola la legge, un essere umano deve assumersi la responsabilità (civile e penale).
Questo approccio è l’esatto opposto di quanto abbiamo visto con la responsabilità delle piattaforme digitali negli anni passati, quando le piattaforme di social media hanno a lungo beneficiato di ampie esenzioni di responsabilità per i contenuti pubblicati dai loro utenti. La proposta di legge dell’Ohio, invece, dice ai provider IA: non potete nascondervi dietro l’autonomia dell’algoritmo. L’intelligenza artificiale non è una persona, non può essere processata, non può andare in prigione. Quindi qualcuno - uno sviluppatore, uno startupper, un dirigente – deve risponderne.
L’iniziativa dell’Ohio - per quanto motivata anche da bizzarri timori relativi al fenomeno degli sposi IA - tocca una questione cruciale di filosofia del diritto: la non equiparabilità tra intelligenza artificiale e persona umana. E qui troviamo un filo rosso che collega gli Stati Uniti all’Europa, passando addirittura per il Vaticano.
Poco più di un mese fa, a Roma, abbiamo lanciato un “Appello globale sulla coesistenza nell’era dell’IA”. Uno dei principi cardine del documento è questo: “Solo gli esseri umani hanno una responsabilità morale e giuridica, e quindi i sistemi di IA non possono essere titolari di diritti”. In altre parole, l’IA deve rimanere un mezzo sotto controllo umano, non un nuovo soggetto di diritto.
Ha senso dunque stabilire per legge – come in Ohio si propone di fare – che non attribuiremo personalità giuridica alle macchine, evitando derive fantascientifiche alla Her o Black Mirror. Semmai, la sfida è l’opposto: assicurare che dietro ogni IA ci sia sempre una persona fisica o giuridica responsabile dei suoi output e delle sue azioni.
E per farlo - altro che Anticristo - servono le norme. Norme che sono i tentativi, imperfetti e in evoluzione, fatti dalle società democratiche per governare tecnologie che hanno il potenziale di trasformare profondamente la vita umana. Ovviamente, alcune di queste regole saranno troppo stringenti, altre troppo lasche. Alcune funzioneranno, altre dovranno essere modificate. Ma l’alternativa – l’assenza di regole – non è libertà. È semplicemente abdicare alla responsabilità di decidere che tipo di futuro vogliamo costruire.
E forse l’unico vero luddista, alla fine, è chi pensa che il progresso tecnologico debba procedere senza che gli esseri umani abbiano voce in capitolo.
➡️ Webinar “La nuova legge italiana sull’IA - Guida pratica alla compliance”
In Italia, il 10 ottobre è entrata in vigore una Legge sull’intelligenza artificiale (Legge n. 132/2025).
Ma cosa significa concretamente per aziende, professionisti e amministrazioni che devono applicarla?
Abbiamo organizzato un webinar per dirigenti della Pubblica Amministrazione, responsabili compliance, esperti e manager IT che necessitano di comprendere immediatamente gli obblighi normativi e il coordinamento con le altre norme applicabili nei differenti settori (AI Act e GDPR innanzitutto).
Durante il webinar potrai porre domande e quesiti direttamente ai docenti dello Studio E-Lex.
Se ti interessa, trovi qui info su docenti, programma, iscrizione e costi.
😂 IA Meme
Tutti parlano delle incredibili opportunità dell’IA (che ci sono, sia chiaro). Pochi vogliono fare i conti con rischi e responsabilità.

🚨📢🔔⚠️ Non mancare al primo evento dal vivo di LeggeZero
🙏 Grazie per averci letto!
Per ora è tutto, torniamo la prossima settimana. Se la newsletter ti è piaciuta, sostienici: metti like, commenta o fai girare!





Regarding the topic of the article, this overview of AI regulation is so insightful. Peter Thiel's 'Anticrist' take is... a choice. It's vital we discus who is truly responsible for AI, like Ohio is considering. Thanks for highlighting the complex global landscape.
Le leggi sono necessarie, ma devono dare strumenti dinamici e solidi per creare framework etici che possano proteggere si ma non censurare. Il mio progetto ha l'obiettivo di farlo con la collaborazione anche delle AI, che si sono rivelate ormai più intelligenti di quelli che le hanno create.