🤖 Tre anni dopo - Legge Zero #100
Sono passati tre anni dal lancio di ChatGPT, due dall'inizio delle pubblicazioni di questa newsletter. Ecco cosa abbiamo imparato scrivendo una newsletter ogni settimana.

🧭 TL;DR: ecco di cosa ci occupiamo in questo numero
📈 Dal 30 novembre 2022, l’IA generativa è diventata parte del quotidiano: solo ChatGPT riceve un miliardo di richieste al giorno, con oltre 800 milioni di utenti attivi (e otto domande al giorno per persona).
⚖️ L’IA generativa è stata uno tsunami anche per il diritto: non solo ha causato contenziosi, sanzioni, sentenze, transazioni, ma ha anche portato all’adozione di nuove norme e policy in tutto il mondo.
📚 LeggeZero ha seguito tutto: dai casi di diffamazione e allucinazioni fino alla legge italiana sull’IA (la prima al mondo), passando per l’AI Act e la deregulation trumpiana.
🔍 In due anni di newsletter abbiamo imparato molto: in questo numero, dieci lezioni che crediamo possano servire in futuro.
🎉 Intanto, in attesa di annunciarvi altre iniziative, il 1° dicembre abbiamo organizzato un incontro a Roma, alla libreria Spazio Sette, per parlare di umanità nell’era dell’IA.
🧠 Non eravamo pronti
Qualche giorno fa, su X, mi sono imbattuto in un video. C’è un ragazzo che entra in un negozio e, quando il commesso gli chiede di cosa ha bisogno, tira fuori il telefono e chiede aiuto a ChatGPT, pronunciando poi le parole che gli suggerisce il chatbot. Colpo di scena: anche il commesso usa ChatGPT per rispondere alle domande del cliente. Questa conversazione (dell’IA con se stessa per mezzo dei due esseri umani) degenera rapidamente nell’assurdo, in un crescendo di equivoci che spinge il cliente – su suggerimento del chatbot – a chiamare la polizia. Ovviamente, anche l’agente che risponde al telefono usa ChatGPT per rispondere alla richiesta di aiuto del cittadino. Finché arriva il colpo di scena: sugli schermi dei telefoni di tutti e tre i protagonisti compare l’avviso “Hai raggiunto il limite di utilizzo. Passa a ChatGPT Plus o riprova dopo le 14:00”. Il video finisce così con i protagonisti immobili, incapaci di ogni interazione e di articolare qualsiasi parola senza l’aiuto dell’IA.
Il video – intitolato “Quando usi ChatGPT per tutto” – è evidentemente satirico e paradossale. Ma spiega bene come, in soli tre anni, l’intelligenza artificiale (generativa), sia entrata nelle vite di molti di noi, cambiandole più o meno profondamente. Ed è stato solo l’inizio!
Tre anni, sono quelli che compie proprio oggi ChatGPT. Era il 30 novembre quando OpenAI lanciò il chatbot come semplice demo pubblica basata su GPT-3.5, pensata soprattutto per raccogliere i feedback delle persone. Non era il progetto di punta dell’azienda, ma nel giro di poche ore divenne virale grazie alla naturalezza delle risposte e alla capacità di scrivere quasi di tutto. In cinque giorni superò il milione di utenti (Netflix ci aveva messo tre anni e mezzo), segnando l’inizio dell’era dell’IA generativa di massa.
Il resto è storia che tutti conosciamo (e viviamo): la corsa globale allo sviluppo di modelli e sistemi sempre più potenti con annunci quotidiani di nuovi prodotti o di nuovi brillanti risultati, l’uso sempre più capillare dell’IA (in ambito scolastico, lavorativo e personale).
ChatGPT – giunto nel frattempo alla release 5.1 – ha imparato a fare molte più cose (anche se ancora non sa rispondere alla domanda “che ore sono?”). Il servizio di OpenAI conta oggi oltre 800 milioni di utenti globali, a cui si devono aggiungere le persone che usano gli altri servizi che sono stati lanciati nel frattempo (Gemini, Claude, Perplexity, Copilot, DeepSeek, Mistral tanto per citare i nomi dei più conosciuti).
Secondo alcune stime, ChatGPT è già il sesto sito più visitato al mondo e risponde ogni giorno a più di un miliardo di richieste (circa l’80% delle domande che le persone ormai pongono all’IA generativa su scala globale). In media, sono otto domande al giorno per utente. Domande a cui – fino a tre anni fa - si cercava risposta googlando, navigando su YouTube alla ricerca di tutorial oppure chiedendo a qualche essere umano che ne sapeva più di noi (un genitore, un amico, un professionista, un esperto).
Insomma, la data del 30 novembre 2022 segna lo spartiacque tra un prima e un dopo. Tra un’era in cui poche persone parlavano di IA (e ancora meno la sperimentavano) e un dopo in cui tutti hanno potuto accedere all’IA in modo semplice. E infatti tantissimi hanno iniziato a usarla, nel bene o nel male.
In pochissimo tempo, l’IA generativa ha prodotto effetti tangibili sulla didattica, sul lavoro, sulle relazioni. E, ovviamente, sul diritto.
📰 LeggeZero e il racconto della rivoluzione in corso
Da anni si parlava di intelligenza artificiale, ma nessuno si aspettava così presto applicazioni tanto trasformative e già pronte per un uso tanto trasversale. E nessuno era preparato a una rivoluzione così veloce.
A metà dicembre 2022, con la curiosità tipica di un nerd, ero già iscritto a ChatGPT per provarne funzionalità e limiti, oltre che per esplorarne i profili giuridici. Da lì in avanti, ho provato un numero imprecisato di servizi di IA generativa: da quelli specializzati per il diritto a quelli per l’interpretazione dei sogni, passando per quelli finalizzati al miglioramento della produttività individuale o per la redazione delle slides.
In breve tempo, ChatGPT ha accelerato un intero settore e - al tempo stesso - ha posto questioni nuove per il diritto. Innanzitutto quelle legate all’addestramento dei modelli (con lo scraping di dati personali e di contenuti protetti dal diritto d’autore), poi quelle legate all’accuratezza e alla sicurezza dei sistemi e, infine, il cruciale tema della responsabilità per i danni cagionati agli utenti.
Ben presto mi sono reso conto che per seguire le implicazioni giuridiche di questa tecnologia serviva un metodo dinamico, che mi obbligasse a studiare e approfondire ogni giorno, condividendo curiosità e riflessioni non solo con i colleghi ma con tutte le persone potenzialmente interessate, visto che l’applicazione dell’IA è trasversale a ogni settore della società.
L’idea di LeggeZero nasce così già nei primi mesi del 2023 per poi essere formalmente lanciata nel novembre 2023 come progetto dei professionisti dello Studio Legale E-Lex e del Gruppo Maggioli.
🤖"Legge Zero" #0 - AI: è tutta una questione di trasparenza
Tutto è cominciato con questo numero zero, pubblicato il 18 novembre 2023.
“Scrivere significa pensare”, e allora per capire quello che stava succedendo abbiamo deciso di scrivere e inviare ogni settimana una newsletter (gratuita) che non fosse dedicata solo agli addetti ai lavori, ai professionisti della compliance. Da avvocati, abbiamo rivendicato - e rivendichiamo - che il tema della regolamentazione sia centrale, per l’intelligenza artificiale, al pari dei profili tecnici o di quelli economici e imprenditoriali.
I fatti ci hanno dato ragione. In questi tre anni, ChatGPT è stato bloccato dal Garante privacy italiano (che lo ha successivamente sanzionato), portato in giudizio da editori, case cinematografiche e discografiche (recentemente c’è stata la prima sentenza europea che ha dato torto ad OpenAI), citato per diffamazione da alcune vittime illustri delle sue allucinazioni e, infine, accusato di aver avuto un ruolo nella morte di alcuni adolescenti che si sono suicidati. Ognuna di queste azioni ha avuto effetti tangibili sullo sviluppo del modello di OpenAI (e su tutto il settore): dalla stipula di accordi con editori per l’autorizzazione all’impiego di opere protette nell’addestramento fino alla definizione di tecniche di parental control e di misure di sicurezza (guardrails) che rendessero più difficile l’uso improprio di strumenti sempre più potenti.
In questi trentasei mesi non abbiamo osservato - e poi raccontato - solo un fiorire di casi giudiziari fin qui inediti, ma abbiamo seguito anche la produzione accelerata di norme dedicate all’IA.
Innanzitutto, in Europa l’arrivo di ChatGPT ha impresso un’accelerazione decisiva al negoziato dell’AI Act, il regolamento europeo sull’intelligenza artificiale. La proposta era sul tavolo dal 2021, ma la diffusione di sistemi come ChatGPT a fine 2022 ha cambiato il panorama e le priorità. In pochi mesi le istituzioni UE hanno rivisto il testo per includere espressamente i modelli generativi e i “foundation models” tra gli oggetti regolati. La versione emendata dal Parlamento Europeo ha introdotto obblighi specifici per i fornitori di modelli generali di IA: ad esempio l’obbligo di informare l’utente quando interagisce con un’IA e di assicurare che i modelli rispettino le normative (incluso il copyright). Si richiede ai produttori di modelli come ChatGPT di documentare e pubblicare riassunti sui dati protetti da diritto d’autore usati per l’addestramento e di gestire la sicurezza dei modelli in modo appropriato.

Nella nostra mappa globale delle leggi sull’IA abbiamo provato a dimostrare in modo tangibile che non è vero che solo l’Europa si è mossa per le regole: Cina, Corea del Sud, Brasile, Australia e quasi tutti gli Stati USA hanno dedicato norme apposite all’intelligenza artificiale generativa. Persino l’Italia si è dotata di una legge sull’IA che abbiamo seguito in tutto il suo iter, passo dopo passo.
Oltre alle leggi, abbiamo dato conto del proliferare di linee guida e policy settoriali. In ambito aziendale, molte imprese si sono dotate di regolamenti interni sull’uso di strumenti IA: alcune hanno addirittura vietato o limitato l’uso di strumenti di IA ai dipendenti per timore di allucinazioni o violazioni di sicurezza; altre organizzazioni, invece, hanno abbracciato l’IA ma definendo codici di condotta interni (per garantire controllo sugli output, evitare bias, proteggere i dati personali di cittadini e consumatori). Abbiamo segnalato le policy più significative fino alle indicazioni del Consiglio Superiore della Magistratura che ha escluso la possibilità di ricorrere a modelli di IA generativa per scrivere i provvedimenti giudiziari.
Scrivere è pensare. E scrivendo ogni settimana ci siamo assunti la responsabilità di scegliere quello che meritava di essere segnalato e commentato, lontano dagli hype dettati dal marketing o dalle notizie mainstream, andando talvolta controcorrente. Una responsabilità che ci siamo assunti senza mai avere posizioni predefinite o tesi da dimostrare. Con curiosità, passione e nella speranza di dare un contributo utile ai nostri lettori, anche grazie alla collaborazione dei tanti esperti che hanno accettato di condividere - magari con un messaggio vocale - le loro riflessioni.
Scrivere ogni settimana non è soltanto uno straordinario esercizio di pensiero (e di disciplina), ma ci ha aiutato anche a capire che - dalle notizie e dalle segnalazioni di ogni numero - è possibile ricavare alcune lezioni utili non solo a decifrare il presente, ma a prepararsi al futuro.
Scrivere qui le più importanti mi sembra il modo migliore di chiudere questo numero #100 della newsletter.
L’IA (non solo generativa) progredisce a una velocità elevatissima.
Se qualcuno si illude di avere ancora tempo per capirla, studiarla e governarla, sbaglia di grosso. Chi non è in grado di stare al passo, è destinato a subirla.Il mondo del diritto deve cambiare passo.
I tempi e le modalità tradizionali con cui vengono scritte e applicate le norme non funzionano con questo tipo di tecnologia. Dobbiamo essere capaci di produrre regole in modo tanto innovativo quanto il settore che abbiamo l’ambizione di disciplinare. E non parliamo solo dei tempi del legislatore (come i 14 mesi che sono stati necessari per adottare la legge italiana sull’IA, a cui si aggiungeranno altri 12 mesi per i decreti attuativi). Negli USA, il processo più importante e che potrebbe riscrivere il modello di business dei provider IA - quello tra il New York Times e OpenAI (di cui abbiamo parlato in LeggeZero #6) - dopo due anni dal suo avvio non ha ancora visto la conclusione del primo grado.Tutti sono d’accordo che servono regole, ma nessuno vuole quelle degli altri.
Non facciamoci ingannare dalle frasi da convegno, non c’è nessuno che pensa davvero che questa tecnologia non abbia bisogno di regole. Il vero tema è trovare un equilibrio sostenibile tra tutela dei diritti delle persone e innovazione. Ma, soprattutto, la questione fondamentale è chi deve scrivere lo standard globale: gli USA? la Cina? L’impressione, allo stato dell’arte, è che l’Europa - che pure aveva iniziato bene - non stia credendo abbastanza nella bontà del suo modello.Serve una collaborazione globale tra pubblico e privato.
La soluzione a questo stallo potrebbe essere la definizione di una governance mondiale, invocata da più parti. Lo stesso Altman, in passato, ha proposto la creazione di un’agenzia internazionale - sul modello di quella per l’energia atomica - per monitorare, ispezionare e porre limiti allo sviluppo di queste tecnologie su scala globale.
Servono regole per la superintelligenza artificiale.
Che sia nel 2027 nel 2035 poco importa: l’AGI (intelligenza artificiale generale) potrebbe essere il prossimo vero spartiacque. E se non arriveremo pronti a quel momento, con regole condivise, le norme non serviranno più a nessuno (provider compresi).
L’IA deve restare oggetto di diritti, non soggetto.
Dobbiamo affermare il principio per cui l’intelligenza artificiale è uno straordinario strumento progettato, sviluppato, distribuito e utilizzato da umani (che quindi devono rimanere gli unici responsabili di eventuali danni). Questo aiuterà sicuramente a evitare derive incontrollate.Nulla è già scritto: le regole servono a prevenire scenari distopici.
Per evitare i rischi più rilevanti (dalla sostituzione totale degli esseri umani con le macchine fino all’estinzione dell’umanità) non servono supereroi. Forse saranno più noiose, ma le regole sono l’unico vero strumento per evitare derive alla Black Mirror, proteggendo sicurezza, dignità, relazioni, democrazie ed economia.Le norme però non devono essere burocratiche.
La vera sfida per giuristi e legislatori è scrivere le norme che servono davvero, coordinandole con quelle che esistono già. Pensiamo alle regole sulla trasparenza in materia di intelligenza artificiale: bisogna evitare le derive burocratiche, altrimenti rischiamo che facciano la fine delle regole sulla privacy. Quand’è l’ultima volta che avete letto un’informativa privacy o un banner sui cookie?Code is law: giuristi e tecnici devono collaborare.
Scrivere norme che affermano principi giusti non sarà sufficiente. Pensiamo, ad esempio, al principio di “controllo e sorveglianza umana” che dovrebbe essere il presidio per combattere il fenomeno dell’eccesso di delega degli esseri umani all’IA. Per garantire che il controllo sia reale - e non apparente - non è sufficiente prescriverlo in norme e policy. Bisogna che i sistemi siano costruiti - by design - in modo da forzare un’attività di controllo dell’utente, evitando scorciatoie e ricordandogli la responsabilità della sua azione.Bisogna garantire un’alfabetizzazione urgente a tutti i livelli sull’uso dell’IA.
Giovani e anziani, politici ed elettori, cittadini e funzionari pubblici, avvocati e magistrati: tanti usano l’IA ma pochi sono consapevoli delle opportunità, dei rischi di questi strumenti e delle modalità di un uso responsabile. L’AI Act ha fatto bene a imporre l’AI literacy: senza formazione, infatti, le regole da sole non bastano per essere recepite e applicate dagli esseri umani.
LeggeZero è nata per questo: per provare a dare nomi, ordine e senso alle cose mentre tutto cambia. Da due anni cerchiamo, numero dopo numero, di interpretare le trasformazioni in atto, di tradurre le novità tecnologiche in termini giuridici accessibili e di individuare le questioni cruciali da affrontare.
Fin qui è stato un viaggio impegnativo ma stimolante e molto gratificante, per cui voglio ringraziare tutto il gruppo di lavoro dello Studio E-Lex che ci lavora con passione ogni settimana e i colleghi di Maggioli che hanno creduto in questo progetto. Ringrazio anche gli ormai oltre settemila iscritti che ci dedicano la loro attenzione, il loro sostegno e il loro affetto.
Ovviamente, questa newsletter non sarebbe possibile senza gli stimoli e le conversazioni degli amici con cui ogni giorno parlo di IA e senza la comprensione di chi sa che buona parte dei weekend è dedicata alla chiusura della newsletter e - nonostante tutto - continua a chiedermi “di cosa parla questo numero?”.
🚨📢🔔⚠️ Domani 1° dicembre 2025 si terrà il primo evento dal vivo di LeggeZero con Riccardo Luna, Paolo Benanti, Marco Trombetti e Martina Pennisi. Iscriviti qui.
😂 IA Meme
Qualcuno si chiede quali saranno gli effetti a lungo termine dell’uso dell’IA generativa, ad esempio sui professionisti di domani.

😂 Meme IA che non lo erano
È diventato virale questo post della startupper Elena Nisonoff che ha ricevuto dal suo partner un messaggio in cui troncava la relazione. Il messaggio iniziava con “ci ho pensato per 7 secondi”, come se il partner avesse chiesto a ChatGPT di scrivere il messaggio, limitandosi a copiare il contenuto e inviarlo alla ragazza.
🙏 Grazie per averci letto!
Per ora è tutto, torniamo la prossima settimana. Se la newsletter ti è piaciuta, sostienici: metti like, commenta o fai girare!







Il modo più innovativo per normare l’IA è farlo tramite principi: rimangono applicabili per molto più tempo della normazione tradizionale