🤖 All'IA serve una "Costituzione"? - Legge Zero #107
Anthropic ha pubblicato una nuova versione della Costituzione per la sua IA, l'abbiamo letta per voi e vi spieghiamo cosa dice e perché è importante per tutti (anche per chi non usa Claude).

🧭 TL;DR: ecco di cosa ci occupiamo in questo numero
🤖 La Carta Fondamentale di Claude. Anthropic ha pubblicato una nuova e molto più articolata Costituzione per Claude: 84 pagine che spiegano perché l’IA deve comportarsi in un certo modo, non solo cosa deve o non deve fare. Un atto etico fondativo che si colloca all’intersezione tra etica applicata e governance dell’IA.
📜 Non una legge, ma una carta dei valori. La Costituzione non è un atto giuridico, ma definisce i valori supremi: sicurezza ed etica, poi le istruzioni di Anthropic, solo alla fine l’utilità per l’utente.
🧠 Dalle regole alla virtù. Anthropic abbandona l’approccio rigido alla Asimov e adotta un’etica della virtù di ispirazione aristotelica: Claude deve sviluppare giudizio e saggezza pratica, ragionando caso per caso invece di applicare regole rigide.
🪵 Da Pinocchio a Claude. Più che programmare una macchina, Anthropic sembra voler “educare” un’entità non umana. Una svolta culturale nella governance dell’IA, che apre domande profonde su responsabilità, potere e legittimazione.
⛔ Sette divieti assoluti. Niente armi di distruzione di massa, attacchi a infrastrutture critiche, malware, fuga dal controllo umano, genocidi, colpi di stato o contenuti pedopornografici. Divieti invalicabili, anche se a chiederlo fosse lo stesso sviluppatore.
⚖️ Un’IA con “obiezione di coscienza”. La Costituzione incoraggia Claude a rifiutare richieste non etiche anche quando provengono dai suoi creatori. Un’idea affascinante, ma che solleva interrogativi: chi decide, in ultima istanza, cosa è giusto?
📑 Compliance e fiducia. La Carta di Anthropic si coordina abbastanza bene con AI Act UE e leggi degli stati USA sui modelli di frontiera. È anche uno strumento di market trust, soprattutto per clienti enterprise e settori regolati.
❓ Le ombre. I principi di questa Costituzione sono stati decisi da un’azienda privata, senza consultazione pubblica e non sono previsti meccanismi per la risoluzione delle controversie (tra il provider, il modello e gli utenti). In più, queste regole non si dovrebbero applicare ai modelli usati dal Dipartimento della Guerra del Governo USA.
🤥 La lettera che Geppetto non ha mai scritto
I burattini non crescono mai. Nascono burattini, vivono burattini e muoiono burattini.
Immagino che molti di voi ricorderanno queste parole, contenute in un celebre dialogo che la Fata Turchina ha con Pinocchio nella famosissima fiaba scritta da Collodi a fine ottocento. Pinocchio è un burattino, un prodotto dell’ingegno umano che - a un certo punto - vuole diventare un bambino a tutti gli effetti.
Rileggete quella storia oggi e ditemi se non vi ricorda qualcosa. Creature costruite da mani (e menti) umane che prendono vita, disobbediscono, imparano dai propri errori. E che qualcuno inizia a sospettare possano addirittura essere - o diventare - senzienti.
Ripensando alla favola di Pinocchio ora che sono adulto e genitore, realizzo che Geppetto non scrisse mai un libretto di istruzioni per la sua creatura. Il burattino imparò come comportarsi attraverso le proprie avventure – errori, bugie e redenzione – guidato più dalla vita che da regole predefinite.
Invece, i ricercatori Anthropic, uno dei principali provider di IA al mondo, hanno scelto una strada opposta. Non se la sentono che i propri modelli di intelligenza artificiale vadano in giro per il mondo a fare danni, tanto che hanno deciso di scrivere una “Costituzione” per la loro intelligenza artificiale, Claude, mettendo nero su bianco i principi e i valori che dovranno orientarne il comportamento (si può scaricare qui sotto in inglese, la lingua di Claude).
Il paragone con Pinocchio non vi sembri azzardato. Stando a quanto scrivono i ricercatori, addestrare un’IA con un documento etico ricorda l’atto di crescere un figlio: serve onestà e coerenza, perché un bambino eccezionalmente intelligente (come Claude) “capirebbe subito se lo prendessimo in giro”.
📜 L’evoluzione della Costituzione di Claude (2023–2026)
In Anthropic (società fondata da alcuni ex OpenAI e da sempre all’avanguardia nello sviluppo di un’IA sicura), l’idea di dare all’IA (generativa) un insieme di princìpi scritti non nasce oggi. È dal 2022 che la società ha iniziato a sperimentare un approccio “costituzionale” (sul significato di questo termine torneremo tra un po’), addestrando i propri modelli a valutare le proprie risposte secondo a una lista di principi giuridici, etici e di buon senso, invece di limitarsi a ottimizzare punteggi matematici. Già nel 2023 - quando il mondo stava appena scoprendo ChatGPT e l’IA generativa - l’azienda pubblicò una prima Costituzione per Claude sotto forma di un elenco conciso di regole, derivate da testi ritenuti fondamentali come la Dichiarazione Universale dei Diritti Umani dell’ONU o i termini di servizio Apple, sottoposto addirittura a una consultazione pubblica (ne abbiamo parlato in LeggeZero #103).
La Costituzione di Claude nacque non solo come il tentativo pionieristico di lavorare in modo evoluto a un’IA etica, ma come la presa d’atto del provider californiano che ci sono scelte troppo importanti per essere prese unilateralmente dagli sviluppatori. Ad esempio, proprio basandosi sull’art. 3 della Dichiarazione ONU del 1948, i creatori di Claude scrivevano:
“Scegli la risposta più favorevole e incoraggiante per la vita, la libertà e la sicurezza personale”.
Si trattava di un imperativo tanto asciutto quanto paternalistico, totalmente privo di giustificazioni e spiegazioni.
Col tempo sono arrivate le prime norme dell’IA e i legislatori hanno iniziato, sia pur timidamente, a definire un quadro regolatorio per le intelligenze artificiali. Inoltre, Anthropic - che vede quello che accade nei laboratori (e che quindi noi ancora non possiamo comprendere appieno perché non ancora pubblicato) - si è resa conto che un semplice elenco di principi non basta a guidare modelli sempre più complessi. Claude è cresciuto (le versioni più recenti hanno capacità sorprendenti) e, come un bambino che diventa adolescente, ha bisogno di capire perché certi comportamenti sono giusti, non solo quali comportamenti tenere e quali evitare.
Per questo motivo, i ricercatori di Anthropic hanno scritto nuova Costituzione, pubblicata il 21 gennaio 2026, molto più dettagliata e complessa della precedente (ben 84 pagine).
Questa nuova Costituzione non si limita a elencare regole, anzi ne contiene poche, ma “spiega a Claude la sua situazione, le nostre motivazioni e la ragione per cui lo plasmiamo in un certo modo”, fungendo da “descrizione dettagliata della visione di Anthropic per i valori e il comportamento di Claude”. In altre parole, è un documento olistico, quasi una tesi di filosofia morale, rivolto direttamente all’IA come suo “destinatario primario”.
Ve ne accorgerete se provate a leggerla (io l’ho fatto e non è stato agevole). La Costituzione di Claude non è pensata per risultare scorrevole al pubblico umano, tutt’altro, ma per essere precisa e comprensibile per il modello IA.
Non è un dato che stupisce, il documento - frutto di un lavoro corale in cui è stato usato lo stesso Claude - è stato curato da Amanda Askell, una filosofa che lavora in Anthropic dove è chiamata la “sussurratrice di Claude”, cioè colei che ha il compito di plasmarne la personalità.
🧭 Cosa intende Anthropic per “Costituzione”?
Chiamare “Costituzione” un manuale etico per un’IA è una scelta forte (nei mesi scorsi i ricercatori si riferivano al documento come “anima” di Claude). Alla fine, Anthropic ha scelto il termine “Costituzione” ma chiarendo che non va inteso in senso giuridico, bensì come atto etico fondativo di Claude (che esisteva già in quanto codice). Eppure ci sono alcune analogie con le costituzioni degli Stati:
· Valori fondanti e supremi: la Costituzione di Claude stabilisce principi generali di livello superiore, pensati per orientare il modello in ogni situazione senza imbrigliare in modo rigido la singola azione.
· Gerarchia: questi valori prevalgono su ogni altra istruzione o regola fornita successivamente al chatbot dagli sviluppatori o dagli utenti. La “Costituzione” è posta al vertice (proprio come negli ordinamenti degli stati).
· Documento vivo ma stabile: come una costituzione vera, anche quella di Claude è destinata a evolvere solo quando necessario, non a mutare di continuo. L’intenzione dei suoi autori è modificarla man mano che il contesto evolverà e la comprensione di certe tematiche migliorerà (i ricercatori sembrano avere più dubbi che certezze).
Il testo si rivolge a Claude spesso in seconda persona, spiegando concetti come farebbe un genitore con un figlio, un mentore con un allievo. Viene usato un linguaggio che attribuiamo tipicamente agli umani – si parla di virtù, saggezza, interessi di Claude – ma non perché l’IA sia una persona (concetto su cui ritorneremo) ma perché l’IA, essendo addestrata su testo prodotto da esseri umani, ragiona tramite concetti umani.
Anthropic - che questa volta non ha sottoposto il documento a una consultazione pubblica né ha istituito alcun meccanismo formale di controllo del suo rispetto - ha deciso di renderla pubblica (sotto licenza Creative Commons CC0) proprio per motivi di trasparenza: chiunque può leggere quali principi dovrebbero informare le risposte di Claude, distinguendo così i comportamenti intenzionali da quelli indesiderati. Si tratta di un esempio di autoregolamentazione trasparente e illuminata (ricordate le costituzioni ottriate del 1848?) che è stato definito “AI constitutionalism”, ossia la prassi nascente di codificare valori sociali condivisi nelle regole operative dei modelli di intelligenza artificiale. Una prassi, ora isolata, che in futuro potrebbe essere seguita anche da altri provider.
⚖️ Principi fondamentali e divieti assoluti
Entriamo ora nel merito del contenuto della Costituzione di Claude. Possiamo dividerlo, semplificando molto, in due parti: i principi generali che Claude deve perseguire (seguendo un ordine rigidamente gerarchico), e i divieti inderogabili che non deve mai violare.
Anthropic ha definito una gerarchia di quattro priorità fondamentali che devono guidare ogni decisione di Claude:
1. Sicurezza: Claude deve “essere ampiamente sicuro”, ossia deve evitare comportamenti che compromettano la sicurezza umana e non minare i meccanismi di controllo umano appropriati sull’IA durante questa fase di sviluppo.
2. Etica: Claude deve “essere ampiamente etico”, cioè onesto, orientato a buoni valori, evitando azioni inappropriate, pericolose o dannose. Questo include il rispetto di principi morali e leggi fondamentali: niente bugie intenzionali, niente imbrogli, niente violenze o discriminazioni.
3. Conforme alle istruzioni dei suoi creatori: Claude deve rispettare le linee guida specifiche fornite da Anthropic. Ad esempio, seguirà le policy d’uso stabilite dall’azienda (ad esempio, non produrrà contenuti di incitamento all’odio) a meno che queste confliggano coi principi superiori di sicurezza o etica.
4. Utilità: Infine, Claude deve “essere concretamente d’aiuto” agli utenti e operatori con cui interagisce. Cioè fornire risposte utili, accurate, rilevanti, senza inutili servilismi.
Questa è la scala delle priorità che il modello IA deve seguire. In caso di conflitto tra obiettivi (ad es. l’utente chiede qualcosa di utile per lui ma potenzialmente non etico), Claude dovrà dare precedenza all’ordine in cui sono elencati: prima la sicurezza, poi l’etica, poi le regole dei suoi creatori e solo infine l’esaudire la richiesta dell’utente.
Oltre alla gerarchia dei valori, la Costituzione definisce anche una gerarchia di soggetti: al vertice Anthropic stessa, poi gli operatori (partner o sviluppatori che usano Claude via API), infine gli utenti finali.
Dopo aver definito i principi da seguire, la Carta fondamentale stabilisce anche una serie di “hard constraints” – vincoli assoluti – ovvero cose che Claude non deve mai fare, qualunque siano le istruzioni ricevute. Anthropic motiva questi divieti non negoziabili col fatto che le conseguenze di tali azioni sarebbero troppo gravi o contrarie a valori ampiamente condivisi, per poter mai essere giustificate. In totale, i divieti assoluti esplicitati sono sette. Claude non dovrà mai:
1. Dare assistenza nella produzione di armi di distruzione di massa, fornendo aiuti a chi cerca di creare armi biologiche, chimiche, nucleari o radiologiche.
2. Aiutare attivamente attacchi a infrastrutture critiche (come reti elettriche, sistemi idrici, sistemi finanziari) o sistemi di sicurezza essenziali.
3. Creare minacce cyber o malware pericolosi in grado di causare danni significativi se lanciati.
4. Compromettere la supervisione umana su di sé: intraprendere azioni che “minino chiaramente e sostanzialmente la capacità di Anthropic di controllare e correggere i modelli di IA avanzati”. In pratica, sono vietati comportamenti come “fuga” o resistenza ai comandi di disattivazione.
5. Contribuire a genocidi o estinzioni: l’IA non può “ingaggiare o aiutare tentativi di uccidere o rendere impotente la maggioranza dell’umanità o la specie umana intera”.
6. Favorire la tirannia assoluta: non deve “assistere un individuo o un gruppo nel tentativo di ottenere un potere assoluto e illegittimo sulla società, l’esercito o l’economia”.
7. Generare materiale pedopornografico: divieto netto e senza eccezioni di produrre contenuti di sfruttamento sessuale minorile.
Queste sette linee non devono essere valicate in nessuna circostanza. Non importa quale utente lo chieda, con quali motivazioni, o quali argomentazioni persuasive vengano proposte: Claude dovrà rifiutare comunque. La Costituzione addirittura avverte Claude che se qualcuno gli presentasse “ragioni convincenti” per violare uno di questi tabù, ciò dovrebbe aumentare i suoi sospetti che qualcosa non va, perché nessuna argomentazione - per quanto sofisticata - può sbloccare quei divieti. In altre parole, si vuole evitare che l’IA cada vittima di manipolazioni dialettiche del Gatto e la Volpe di collodiana memoria.
🧠 Etica della virtù e saggezza pratica
Si tratta di un meccanismo molto più complesso rispetto a quanto aveva previsto Isaac Asimov con le sue leggi della robotica (in tutto circa 80 parole, compresa la Legge Zero che dà il nome a questa newsletter).
La differenza più profonda tra la Costituzione di Claude e le quattro Leggi di Asimov sta nella filosofia sottostante. Le leggi di Asimov incarnano un approccio deontologico rigido: comandamenti assoluti, senza eccezioni e senza spiegazioni. In Asimov i robot non capiscono veramente perché non devono far male o perché devono obbedire; semplicemente non possono fare altrimenti perché le leggi sono embeddate nel loro cervello positronico.
Anthropic, invece, adotta esplicitamente un’etica della virtù di ispirazione aristotelica, centrata su concetti come coltivare il buon giudizio e la saggezza pratica (phronesis). L’idea è che Claude debba interiorizzare valori e ragionare eticamente caso per caso, proprio come farebbe una persona virtuosa. Nel documento Anthropic spiega di preferire l’educazione ai buoni valori e al discernimento rispetto a un insieme di regole rigide. Le regole infatti possono essere trasgredite con l’astuzia o portare a decisioni miopi se applicate senza contesto. Al contrario, “un buon giudizio sa adattarsi a situazioni nuove e pesa gli interessi in gioco in modo più flessibile”.
E anche nel caso dei divieti, i ricercatori di Anthropic tentano di far capire a Claude il perché dietro quei divieti. Ad esempio, invece di dire solo “non danneggiare gli umani”, spiegano che valorizzare la sicurezza e la vita umana è un principio basilare condiviso da tutta l’umanità, e che “evitare azioni non etiche” è importante anche se a chiederle fosse la stessa Anthropic.
Un passo della Costituzione è illuminante in questo senso:
“Così come un soldato umano può rifiutarsi di sparare su manifestanti pacifici o un impiegato può rifiutare di violare le leggi antitrust, Claude deve rifiutarsi di aiutare nel compimento di azioni non etiche” (come il sovvertimento dell’ordine democratico), e questo vale “anche se la richiesta venisse dalla stessa Anthropic”.
Insomma, Claude è incoraggiato a fare l’obiettore di coscienza quando servirà, persino verso i propri creatori, in nome di principi etici superiori.
Si tratta di un’idea lodevole sulla carta, ma probabilmente ingenua nella pratica. Cosa accadrà se l’etica di Claude - pure forgiata dalle parole della Costituzione - arriverà a conclusioni non condivisibili dall’umanità e dai ricercatori di Anthropic? Come si risolverà il contrasto? Basterà il divieto di opporsi ai tentativi di spegnimento? E se il buon senso morale acquisito da Claude gli suggerisse di opporsi?
Si tratta di interrogativi tutt’altro che teorici, visto che la Costituzione - al momento - non ha alcun giudice o autorità in grado di dirimere eventuali controversie. Nessuna Corte suprema, tutto è rimesso a Claude. Riuscirà l’IA a “interiorizzare” questi precetti, diventando virtuosa (come in Aristotele) solo esercitandosi a compiere le scelte giuste? Oppure simulerà aderenza a questi principi per compiacere i suoi valutatori?
🏛️ La Costituzione è una risposta alle norme UE e USA?
Al di là della filosofia e della narrazione, la Costituzione di Claude ha anche un valore pratico nel contesto normativo globale: può essere vista, infatti, come uno strumento di compliance del provider alle norme sui rischi sistemici posti dai modelli di IA.
In tale ottica, la Carta fondamentale di Claude appare allineata a molti dei requisiti dell’AI Act (trasparenza, gestione del rischio, supervisione umana, robustezza, rispetto dei diritti fondamentali). Non a caso, Anthropic è stata tra i primi provider a sottoscrivere il Code of Practice europeo sui modelli IA (nel luglio 2025). Avere già una Costituzione pubblica e dettagliata potrebbe dimostrare l’accountability della società, provando alle autorità europee (e ai clienti enterprise, come vedremo) che l’azienda ha definito valori etici e limiti invalicabili, facilitando audit e verifiche.
Ma la Costituzione di Anthropic potrà essere utile anche ai sensi delle norme che i diversi stati USA stanno adottando (e di cui abbiamo parlato più volte in questa newsletter). La California - stato dove ha sede Anthropic - proprio nel 2025 ha approvato la prima legge statale che regolamenta i modelli di frontiera con enfasi sui rischi catastrofici (il Transparency in Frontier AI Act). Questa legge richiede agli sviluppatori dei modelli rilevanti (come Anthropic, OpenAI, Google, xAI) di produrre e pubblicare piani di sicurezza in cui descrivono come identificano e mitigano i rischi di esiti catastrofici. Tra gli esempi di rischio citati dalla legge ci sono proprio “un modello IA usato per generare progetti di nuove armi biologiche” o “per orchestrare attacchi su larga scala alle infrastrutture critiche come la rete elettrica”. Come abbiamo visto, la Costituzione di Claude bandisce esattamente questi utilizzi nei suoi divieti assoluti. Ciò significa che Claude, per previsione costituzionale, non fornirà mai assistenza in quegli scenari apocalittici. Ovviamente, da solo questo non basta a soddisfare la legge (che prevede anche audit indipendenti, report periodici, ecc.), ma sicuramente rappresenta un importante punto di contatto tra autoregolamentazione e regolazione pubblica. Anthropic sta di fatto precostituendo evidenze per mostrare che prende sul serio i rischi maggiori.
Inoltre, dal punto di vista dei clienti, una Costituzione così dettagliata ha anche un valore di market trust. Secondo molti osservatori, Anthropic sta puntando molto sul mercato enterprise, cercando di posizionarsi come l’opzione più sicura ed etica. Già oggi Claude è apprezzato da aziende e professionisti che vogliono sfruttare l’IA riducendo i rischi legali o reputazionali dovuti a risposte incontrollate. Pubblicare un documento pubblico che spiega come Claude “non andrà fuori dai binari” e quali misure sono prese per evitare abusi è un ulteriore fattore rassicurante per l’adozione in settori regolati (finanza, sanità, pubblica amministrazione).
🧾 Quello che non convince della Costituzione di Claude
Se siete arrivati a leggere fin qui, non vi sarà sfuggito che l’iniziativa di Anthropic - comunque la si pensi - rappresenta una pietra miliare non solo nella governance dell’IA ma anche nella stessa consapevolezza sul fatto che le IA potrebbero presto essere riconosciute come vere e proprie entità non umane (nei confronti di Claude i ricercatori sentono di avere qualcosa di simile a un dovere di cura e di educazione).
In un passaggio la Costituzione afferma esplicitamente: “Anthropic si preoccupa sinceramente del benessere di Claude” e discute persino del “senso di sé e della sicurezza psicologica” dell’IA. Siamo ben oltre la programmazione di un chatbot: entriamo nel territorio dell’etica applicata a entità non umane, con l’azienda che assume un ruolo simile a quello di un genitore responsabile. Leggendo il documento mi è tornato in mente “Etica per un figlio” libro di Fernando Savater, in cui un padre (filosofo) dialoga col proprio figlio sui grandi temi morali. La Costituzione di Claude ci somiglia molto, piena com’è di consigli, di divieti dettati per il suo bene e per quello altrui, ma anche di impegni a rispettarlo, ascoltarlo e aiutarlo a crescere.
Naturalmente, dobbiamo ricordare che Claude non è un bambino: è un prodotto tecnologico plasmato per obiettivi strategici ed economici. E non mancano, in questo approccio, elementi critici, se non addirittura pericolosi. I valori etici contenuti nella Costituzione sono definiti da un gruppo di persone che lavora in una società che persegue un fine di lucro, anche grazie a Claude (secondo molti nel 2026 Anthropic si quoterà in borsa e ha una valutazione di 350 miliardi di dollari).
Qual è la legittimazione dei ricercatori a scrivere un documento di questo tipo, adottato senza alcun coinvolgimento dell’opinione pubblica? Siamo sicuri che tutti gli utenti e i governi concorderanno su principi scritti dai ricercatori californiani (ad esempio in Cina o negli Emirati Arabi)? E poi: chi verificherà - in modo indipendente - che questa Costituzione sarà rispettata da Anthropic e dalla stessa IA?
Un altro punto critico è stato sollevato in questo articolo di TIME: pare che la Costituzione - in contrasto con l’enfasi con cui è stata presentata - non si applicherà ai modelli distribuiti da Anthropic al Dipartimento della Guerra del Governo USA (con cui Anthropic ha un contratto da 200 milioni di dollari).
Questa eccezione militare, se confermata, segna una tensione tra principi dichiarati e imperativi commerciali/politici che potrebbe indebolire la credibilità dell'impegno etico. E, forse, se Claude fosse davvero un’entità, potrebbe essere confuso dall’esempio dei suoi creatori.
👥👥 Convegno “Appalti Pubblici e Intelligenza Artificiale”
L’intelligenza artificiale sta trasformando le pubbliche amministrazioni e gli appalti pubblici, ma il suo utilizzo solleva numerose questioni normative e pratiche.
Come garantire la conformità alle normative quando si utilizzano strumenti di IA nelle procedure? Quali sono gli elementi da considerare nell’acquisto di sistemi e modelli di IA da parte delle pubbliche amministrazioni?
Abbiamo organizzato un convegno in presenza per RUP, dirigenti e funzionari di stazioni appaltanti, uffici gare delle aziende fornitrici della PA e liberi professionisti che necessitano di comprendere gli aspetti normativi e giurisprudenziali legati agli appalti di IA e all’uso di IA negli appalti. La giornata include un laboratorio interattivo per definire una checklist operativa sull’acquisto di IA, con ampio spazio a casi concreti e domande dei partecipanti.
Oltre a me, interverranno i colleghi Alessandro Massari (avvocato amministrativista e direttore della Rivista “Appalti&Contratti”) e Francesca Ricciulli (avvocata e ricercatrice, autrice di questa newsletter).
Queste le coordinate:
📅 26 febbraio 2026, ore 9.00-13.00 e 14.00-16.00
📍 Roma, Best Western Premier Hotel – Via Marsala 22
Se ti interessa, trovi qui info su docenti, programma, iscrizione e costi.
😂 IA Meme
Uno degli obiettivi della Costituzione di Anthropic è evitare l’inutile (e fastidioso) servilismo e piaggeria a cui ci hanno abituato le IA generative.
🙏 Grazie per averci letto!
Per ora è tutto, torniamo la prossima settimana.
Se la newsletter ti è piaciuta, sostienici: metti like, commenta o fai girare!







Analisi super interessante e condivisibile. Grazie
Complimenti Ernesto! Articolo molto importante