🤖 Inizia l'era della 'vibe legislation'- Legge Zero #72
Gli Emirati Arabi Uniti diventeranno presto la prima nazione al mondo in cui le leggi saranno scritte da IA e non da esseri umani. Forse sarà più efficiente, difficilmente sarà democratico.
🧠 Scrivere leggi ‘a sentimento’
‘Vibe coding’ è un termine inglese che significa letteralmente ‘ programmare a sensazione’. È stato usato per la prima volta il 3 febbraio 2025 da Andrej Karpathy (co-fondatore di OpenAI ed ex responsabile IA di Tesla) ed è diventato subito popolarissimo. Si tratta di un nuovo approccio alla programmazione reso possibile dall’IA in cui non si scrive più ogni riga di codice con rigore da sviluppatore, ma si descrive a grandi linee il problema in linguaggio naturale (realizza un videogioco di corse in auto, ad esempio) e si lascia che sia un modello di intelligenza artificiale a generare il codice. Il programmatore diventa più un coach che definisce gli obiettivi per il suo assistente virtuale, il quale produce codice in autonomia, permettendo all’essere umano che usa l’IA di risparmiare tempo e fatica (almeno in teoria).
Il bello (e il brutto) del vibe coding è proprio questo affidarsi all’IA “perché funzioni, senza troppe domande”. Karpathy stesso - nel suo post manifesto del vibe coding - ha scherzato dicendo che in questo approccio
non stai programmando davvero in effetti, ti limiti a vedere cose, dire cose, far girare il programma e fare copia&incolla, e funziona quasi tutto.
L’idea è semplice: delegare tutto il lavoro tecnico all’IA, fidandosi della vibe più che del processo tradizionale fatto di debug meticolosi. Se il risultato gira ed esegue il compito richiesto, tanto basta: don’t worry, be happy (e incrocia le dita). Non a caso c’è chi descrive il vibe coding così: chiedi a un chatbot di fare qualcosa per te, senza sapere bene cosa succede sotto il cofano, senza supervisionare, senza curarti troppo delle conseguenze, insomma vai a sentimento.
Ovviamente, se si usa l’IA per scrivere tutto il codice ma poi un esperto lo rivede, lo studia e lo testa, quello non è ‘vibe coding’ ma è usare l’IA come assistente. Il vero vibe coder è quello che prende per buono il codice generato dall’intelligenza artificiale e lo fa girare sperando che vada bene (qui un interessante approfondimento di Ars Technica sul fenomeno del vibe coding).
Perché questa modalità di sviluppare codice si sta diffondendo? In parte perché gli strumenti di IA generativa sono ormai alla portata di tutti e sempre più potenti. Anche chi non ha alcuna competenza di programmazione può provare a realizzare un’app semplicemente descrivendo ciò che vuole: c’è chi lo ha fatto per creare piccole app per uso amatoriale, chi interi siti web, chi lo sta utilizzando per lanciare startup. Gli entusiasti sostengono che ciò democratizza lo sviluppo software: “tutti possono diventare programmatori”. Del resto, il CEO di Anthropic, Dario Amodei, si è spinto a prevedere che “in soli 3-6 mesi l’IA scriverà il 90% di tutto il codice prodotto”, mentre i CEO di Microsoft e Google hanno già ammesso che nel 2025 il 30% del codice necessario per il loro business sarà già sviluppato da IA. Consente di ridurre i tempi e di risparmiare sui costi delle attività di sviluppo.
Naturalmente non è tutto rose e fiori. Anche tra gli sviluppatori c’è scetticismo: il vibe coding può andar bene per prototipi rapidi o progetti da weekend, più difficile è mantenere un software complesso scritto “a sentimento”. Il rischio, infatti, è accumulare bug e vulnerabilità che nessuno capisce davvero da dove saltino fuori. Per non parlare del fatto che l’IA può sbagliare, allucinare soluzioni strampalate o generare codice di bassa qualità destinato a creare problemi in seguito (ad esempio per la sicurezza).
Tra l’altro, questa filosofia del “chiediamo all’IA, buttiamola lì e incrociamo le dita” sta già uscendo dai monitor dei programmatori per contagiare altri campi.
L’idea di affidarsi all’IA in modo un po’ cieco ha iniziato a fare capolino, ad esempio, anche nel mondo delle decisioni di governo. Vi sembra assurdo che un governo si affidi alle sensazioni di un algoritmo? Eppure di recente molti commentatori hanno sollevato il sospetto che l’amministrazione Trump lo abbia fatto sul serio, chiedendo all’IA di formulare la sua nuova politica dei dazi (lo abbiamo scritto in LeggeZero #68). Peccato che i numeri non tornino rispetto alle stime ufficiali o alla realtà degli scambi commerciali. Risultato? Borse mondiali a picco e valanga di proteste diplomatiche. Insomma, proprio come il vibe coding, anche il vibe government (governare a sensazione) non funziona sempre.
Ecco il cuore del problema: il vibe government significa prendere decisioni sulla base di quello che suona bene o fa colpo, magari suggerito in pochi secondi da un’IA, senza il consueto (e umanissimo) processo di analisi, verifica e dibattito. Un po’ come governare “di pancia”, ma con la pancia di una macchina che mescola dati passati. L’impressione conta più della sostanza, ila velocità più della cautela. Invece di esperti in carne e ossa che studiano dossier complicati, c’è un algoritmo che sputa fuori un risultato numerico comodo (troppo comodo?). E se poi quel risultato è nonsense, pazienza: avremo almeno fatto vedere che “manteniamo le promesse” con una trovata scenografica. In fondo, quale politico o CEO non sogna un pulsante magico che produce decisioni istantanee?

Se Trump (forse) ha usato l’IA (di nascosto), c’è chi invece rivendica apertamente l’idea di affidare all’intelligenza artificiale la produzione normativa. Gli Emirati Arabi Uniti hanno recentemente annunciato un piano ambizioso: vogliono essere il primo Paese al mondo a utilizzare l’IA per redigere e modificare le leggi. Proprio così: le norme saranno scritte dall’IA (e non dagli umani) con l’obiettivo di accelerare al massimo il processo legislativo e – dicono – ridurre le “liti infinite” (cioè il dibattito) e le lungaggini parlamentari.
Il progetto emiratino prevede la creazione di un apposito ufficio (il Regulatory Intelligence Office), una nuova unità incaricata di integrare l’IA in tutto il processo di produzione normativa. Questo dipartimento lavorerà a stretto contatto con le autorità e avrà il compito di progettare e coordinare il sistema normativo utilizzando l’IA. In pratica, l’intelligenza artificiale verrà usata non solo per stesura di nuove leggi, ma anche per rivedere e modificare la legislazione esistente e persino per altri atti amministrativi.
Lo sceicco Mohammed bin Rashid al-Maktoum, Primo Ministro e vicepresidente degli EAU nonché emiro di Dubai, ha presentato l’iniziativa con entusiasmo quasi futuristico
Questo nuovo sistema legislativo, basato sull’intelligenza artificiale, cambierà il modo in cui creiamo le leggi, rendendo il processo più rapido e preciso.
Secondo le stime ufficiali diffuse, l’uso dell’IA accorcerà i tempi legislativi del 70%. Non solo: negli Emirati prevedono che questa trasformazione porterà benefici economici enormi, con una riduzione del 50% dei costi della macchina burocratica e un aumento del PIL del 35% entro il 2030 (numeri che farebbero gola a qualsiasi Ministro delle finanze). Per un Paese relativamente giovane che già nel 2017 fa aveva nominato un Ministro per l’Intelligenza Artificiale (il primo al mondo), si tratta di consolidare la propria posizione all’avanguardia nell’AI-gov: gli Emirati vogliono essere un laboratorio globale di governance algoritmica, mostrando al mondo come si può governare più velocemente grazie alle macchine.
Ma come funzionerà, in concreto, la scrittura di leggi da parte dell’IA? I dettagli tecnici non sono tutti noti, non sappiamo quale sarà lo strumento utilizzato, quale la tipologia e la penetrazione dei ‘controlli umani’ e se si tratterà di una sorta di vibe legislation. Sulla base delle informazioni pubblicate, sappiamo che sarà creato un database legislativo completo: un’enorme base dati di tutte le leggi federali e locali emiratine, integrata con archivi di sentenze, regolamenti e dati socioeconomici. L’IA potrà scandagliare questa massa di informazioni in tempo reale per monitorare l’impatto della legislazione sulla popolazione e sull’economia, identificare incoerenze e suggerire modifiche o aggiornamenti normativi quando servono. In prospettiva, dicono, il sistema sarà anche in grado di anticipare esigenze legislative future basandosi su trend emergenti e cambiamenti sociali ed economici. Insomma, un legislatore non umano proattivo e sempre aggiornato, che corregge le norme come fossero un software da aggiornare e addirittura prevede nuove leggi prima che il problema esploda. Roba da far impallidire i Parlamenti tradizionali, dove spesso si legifera dopo (talvolta molto dopo) che i buoi sono scappati dalla stalla.
Un altro aspetto interessante: gli Emirati sottolineano che le leggi scritte dall’IA saranno messe a disposizione in un linguaggio chiaro e in più lingue, in modo che tutti i cittadini e residenti (nel loro caso, il 90% della popolazione è straniera) possano comprenderle senza bisogno di un avvocato. Questo approccio multilingue e semplificato mira a migliorare l’accessibilità del diritto: in un paese con circa 200 nazionalità diverse, avere testi di legge disponibili immediatamente in arabo, inglese, hindi, ecc., potrebbe favorire la trasparenza e il rispetto delle norme. E chissà, potrebbe anche abolire l’uso del burocratese.

Fin qui le suadenti promesse dell’IA: leggi precise, velocissime, sempre aggiornate e comprensibili a tutti, grazie all’algoritmo che non dorme mai e macina dati su dati. Ma come in tutte le utopie tecnocratiche, è d’obbligo chiedersi: cosa potrebbe mai andare storto?
Passare da leggi scritte da umani a leggi scritte (o quantomeno suggerite) dall’IA pone enormi interrogativi etici, giuridici e pratici. Gli entusiasti come lo sceicco Maktoum parlano di precisione, rapidità ed efficienza, ma è doveroso analizzare i potenziali rischi della vibe legislation.
Opacità e mancanza di trasparenza: le decisioni prese da un algoritmo - pur se scritte in una lingua accessibile - possono risultare di fatto incomprensibili. Un sistema avanzato di IA può risultare una scatola nera: ci sputa un testo di legge, ma chi potrà spiegare perché quella formulazione e non un’altra? Già oggi i testi legislativi scritti da umani non sono sempre chiarissimi; figuriamoci un testo partorito da un modello matematico addestrato su enormi dataset.
Un processo di produzione normativa basato su IA potrebbe quindi rendere difficile tracciare il perché delle norme (la ‘volontà del legislatore’ che tanto spesso aiuta a interpretare una norma quando il significato letterale delle parole non basta).
Bias e discriminazioni incorporate: un’IA impara dai dati con cui è addestrata, che inevitabilmente portano con sé pregiudizi, lacune e distorsioni. Se i dati, giuridici ed economici, su cui si addestra l’algoritmo contengono bias (ad esempio norme storicamente discriminatorie, o dati parziali su certi gruppi sociali), l’IA potrebbe facilmente replicare e perpetuare quei bias nelle nuove leggi (ne abbiamo parlato molte volte). Ci si potrebbe ritrovare con normative che, senza volerlo, penalizzano minoranze o favoriscono chi ha già potere, semplicemente perché il modello ha assorbito uno schema ingiusto dal passato. Senza contare bias più sottili: ad esempio un’IA addestrata principalmente su dati di common law anglosassone potrebbe “pensare” leggi in quel modo, inadatte a un sistema di civil law come il nostro.
Allucinazioni e errori grossolani: lo sappiamo, i modelli generativi talvolta inventano cose che non esistono. In campo normativo, un’IA potrebbe proporre soluzioni normative completamente prive di senso giuridico o pratico. Insomma, un algoritmo potrebbe partorire una legge tecnicamente applicabile ma socialmente assurda. E se chi la supervisiona non se ne accorge in tempo (magari accecato dalla fede nell’IA), rischiamo di vedere pubblicate norme che sulla carta funzionano benissimo ma nel mondo reale creano caos. Gli errori umani nella produzione normativa esistono da sempre, per carità, - e noi italiani lo sappiamo meglio di altri (ricordate gli esodati?) - ma qui parliamo di errori nuovi, ancora più difficili da affrontare.
Mancanza di accountability: in democrazia possiamo sempre dare la colpa a qualcuno. Se una legge è pessima, sappiamo quale governo o maggioranza l’ha voluta, e in teoria possiamo punirli alle elezioni o chiederne le dimissioni. Ma se le leggi le scrive l’IA, di chi è la responsabilità? Di che preme il pulsante “genera”? Del programmatore che ha sviluppato l’algoritmo? Dell’azienda che l’ha fornito? Di chi non ha supervisionato l’output?
Si rischia di creare un vuoto di responsabilità in cui le decisioni nessuno le ha prese davvero (perché “erano dati oggettivi a suggerirle”). Questo è molto comodo per i governanti: “non è colpa nostra, è la scienza/IA”. Ma mina le basi della democrazia, perché i cittadini non saprebbero più chi chiamare a rispondere di leggi ingiuste o dannose. L’accountability verrebbe rimpiazzata da uno scaricabarile tecnico. Un sistema così può funzionare (forse) in un contesto autoritario, dove i cittadini contano poco, non in una democrazia dove “la sovranità appartiene al popolo”.Erosione del dibattito democratico: legiferare non è solo “scrivere il testo” finale di un provvedimento, ma un processo fatto di proposte, discussioni, emendamenti, mediazioni tra interessi e posizioni diverse. È un processo di confronto democratico fondamentale, per quanto a volte farraginoso, caotico e inefficiente. Se deleghiamo all’IA la bozza di legge “ottimale”, potremmo essere tentati di saltare o comprimere quel dibattito: “in fondo l’ha proposta l’algoritmo imparziale, cosa discutiamo a fare?”. A parte il fatto che l’algoritmo non è affatto imparziale, il rischio è di esautorare i parlamenti dal loro ruolo, riducendo i rappresentanti delle istituzioni a notai che ratificano testi partoriti altrove. Si parla da anni di crisi della democrazia rappresentativa: ecco, un iper-automatizzazione del processo di redazione delle norme potrebbe essere l’atto finale delle democrazie, cancellando il ruolo dei rappresentanti eletti. Non è un caso che questa proposta arrivi dagli Emirati che sono una federazione di monarchie e non una democrazia parlamentare.
Manipolazioni: come anticipato prima, affidarsi a un sistema automatico non significa che questo sia neutrale. Chi controlla l’algoritmo? Chi fornisce i dati di input? Potenzialmente un’IA legislativa potrebbe essere plagiata o indirizzata per inserire nelle leggi piccole norme favorevoli a determinati soggetti (ne parlavano già due anni fa sulla rivista del MIT Bruce Schneier e Nathan Sanders). Basta “aggiustare” i dati di training o inserire prompt suggestivi, e l’algoritmo piega le regole in modo sottilmente favorevole a chi sa come influenzarlo. Uno scenario da brividi: lobby o governi stranieri potrebbero inserire backdoor normative approfittando dell’automazione. Potrebbe essere una nuova forma di corruzione, difficile da individuare perché annegata nella complessità tecnica.
Perdita di competenze e ruolo umano: a lungo andare, delegare troppo all’IA potrebbe creare un appiattimento delle competenze in chi dovrebbe fare le leggi. Se i parlamentari (o gli uffici legislativi) si abituano ad avere sempre la soluzione pronta dall’algoritmo, potrebbero perdere la capacità di analisi critica sulle norme. Il sapere giuridico stesso rischierebbe di atrofizzarsi: perché studiare diritto o tecniche di drafting normativo, se c’è un software che sforna già il testo bell’e fatto? Questo depauperamento professionale - connesso alla vibe legislation come al vibe coding - potrebbe essere pericoloso.
Di fronte a questi scenari, c’è chi adotta un approccio più prudente e umanocentrico. Un buon esempio viene proprio dall’Italia: la Camera dei Deputati negli ultimi due anni ha avviato una sperimentazione sull’uso dell’IA a supporto del lavoro parlamentare (ne abbiamo parlato in LeggeZero #12) e nei prossimi mesi i primi casi di uso dell’IA generativa dovrebbero essere operativi. Questa esperienza riconosce le potenzialità dell’IA (ad esempio per analizzare grandi quantità di dati e documenti) ma delinea anche principi guida molto chiari sul suo utilizzo: trasparenza degli algoritmi, controllo umano costante, rispetto dei diritti e delle libertà fondamentali, e totale adesione ai principi democratici e costituzionali. Insomma, l’IA può essere un prezioso assistente, non un decisore.
Questa prudenza non significa arretratezza, ma anzi visione democratica. È un equilibrio delicato, una presa di posizione che diventerà sempre più cruciale per tutti i lavori (legislatore compreso): mantenere l’approccio “human in the loop” (la macchina propone, ma la decisione finale spetta sempre all’umano) oppure andare verso l’approccio “human on the loop” (l'IA prende autonomamente decisioni, e l’umano monitora da vicino, intervenendo solo se necessario).
In democrazia - e nel diritto - la scelta dovrebbe essere semplice.
🔊 Un vocale da… Erik Longo (Università di Firenze)
Può l’intelligenza artificiale rivoluzionare il modo di fare leggi? Quali rischi e opportunità emergono dall’uso dell’IA nelle procedure parlamentari?
Nel messaggio vocale di questa settimana, Erik Longo — professore di Diritto Costituzionale e pubblico all'Università di Firenze — commenta l’ambiziosa iniziativa degli Emirati Arabi Uniti, che saranno il primo paese al mondo ad utilizzare l'intelligenza artificiale non solo come supporto, ma direttamente per scrivere, rivedere e proporre nuove leggi.
Longo evidenzia i vantaggi dichiarati di questa innovazione, come la drastica riduzione dei tempi del processo legislativo e dei costi pubblici. Ma sottolinea anche i rischi sostanziali: dalla possibile inaffidabilità tecnica dei sistemi alle "allucinazioni" degli algoritmi, fino alla perdita del dibattito e del compromesso democratico, tradizionalmente al cuore della produzione legislativa.
La riflessione che Longo pone a tutti noi è chiara e urgente: possiamo davvero aumentare efficienza e chiarezza delle leggi attraverso l’IA senza sacrificare i principi fondamentali delle nostre democrazie?
💊 IA in pillole
Il vibe government è molto più diffuso di quanto pensiamo - anche se non tutti lo ammettono - e presto i provider di IA potrebbero sviluppare proprie funzionalità specifiche per parlamenti e governi. Non ci credete? Leggete questo scambio di tweet tra Paul Graham (informatico e imprenditore) e Sam Altman (CEO di OpenAI): policy by ChatGPT.
Paul Graham: "Sam, se tutti questi politici inizieranno a usare ChatGPT per generare le loro politiche, faresti meglio a concentrarti sul far generare politiche migliori. Oppure potremmo concentrarci sull'eleggere politici migliori. Ma dubito che riusciremo a migliorare l'hardware velocemente quanto tu puoi migliorare il software." - Sam Altman: "Grazie per la richiesta di funzionalità; lo faremo." Nell’era del vibe coding, tutti usano già l’IA. Negli USA sta facendo discutere quanto accaduto all’esame di avvocato tenutosi in California lo scorso febbraio: il locale ordine degli avvocati ha ammesso che 23 delle 171 domande sono state sviluppate con l'assistenza dell'IA. Queste domande sarebbero state successivamente validate da esperti per garantire l’accuratezza. Tuttavia, l'uso dell'IA non è stato comunicato prima dell'esame, sollevando preoccupazioni sulla trasparenza del processo. Si tratta di un episodio che dimostra l’utilità delle norme - come l’AI Act europeo - che richiedono trasparenza per gli usi dell’intelligenza artificiale. La presunta semplificazione (non essere obbligati a pubblicare disclaimer) non previene problemi successivi (che possono essere molto più gravosi degli sforzi per rispettare le temute norme).
😂 IA Meme - vibe coding edition
Andare a sentimento (nello scrivere codice così come nello scrivere leggi) significa non sapere perché l’output dell’IA funziona o non funziona.

Per non parlare del fatto che questo modo di lavorare potrebbe avere conseguenze sulle nostre capacità cognitive.

Specialmente se non si controlla quello che produce l’IA.

Il rischio è che ben presto si perda l’abitudine di scrivere un programma, un parere, un atto, una legge, un articolo, partendo da zero.

📣 Eventi
Leaders League Compliance Summit - Milano, 07.05.2025
🙏 Grazie per averci letto!
Per ora è tutto, torniamo la prossima settimana. Se la newsletter ti è piaciuta, metti like, commenta o fai girare.