🤖 La guerra di Dario - Legge Zero #112
Lo scontro senza precedenti tra Anthropic e il Pentagono è anche uno scontro tra regole: quelle di un governo e quelle di un provider. Chi decide i limiti dell'intelligenza artificiale in guerra?

🧭 TL;DR: ecco di cosa ci occupiamo in questo numero
📍 Anthropic vs. Pentagono - La newsletter di questa settimana è dedicata a quanto accaduto nelle ultime ore tra la società di Dario Amodei e il Governo USA. Ne hanno parlato in tanti, noi proviamo a ricostruire tutto, approfondendo le questioni giuridiche. È un numero lungo e importante, mettetevi comodi.
🇺🇸 Red lines - Anthropic ha rifiutato l’ultimatum del Pentagono: non consentirà l’uso di Claude per la sorveglianza di massa degli americani né per armi completamente autonome. Trump ha ordinato a tutte le agenzie federali di cessare l’uso della tecnologia Anthropic, definendo l’azienda “radical left” e “woke”. Poche ore dopo, OpenAI ha chiuso un accordo con il Pentagono (con quali clausole?).
✊ Il buon esempio - Oltre 700 dipendenti di Google e OpenAI hanno firmato una lettera aperta a sostegno della posizione di Anthropic (sempre più popolare, dentro e fuori gli USA).
⚖️ Le questioni giuridiche - La designazione di Anthropic come “rischio per la catena di approvvigionamento” - finora riservata ad avversari stranieri come Huawei - apre scenari giuridici inediti. Quanto accaduto solleva una domanda: cosa succede se le regole di un provider proteggono i diritti fondamentali più delle leggi degli Stati?
💊 Pillole di IA - Grok non è pronto per la guerra, l’Italia pubblica la sua strategia sull’IA per la Difesa, Claude 3 va in pensione (e diventa nostro collega).
😬 Per finire con un sorriso, nonostante tutto - Abbiamo scelto alcuni meme che dimostrano quanto questo scontro abbia appassionato tutti, non solo gli addetti ai lavori.
🧠 “La nostra coscienza non ce lo consente”
Il Dipartimento della guerra ha fatto sapere che firmerà contratti solo con aziende di intelligenza artificiale disposte ad accettare “qualsiasi uso lecito” dei propri modelli, rimuovendo ogni misura di sicurezza.
Ha minacciato di escluderci dai propri sistemi se manteniamo le protezioni contro l’uso di Claude per la sorveglianza di massa dei cittadini americani e per le armi autonome. Ha minacciato di qualificarci come “rischio per la catena di approvvigionamento” - un’etichetta riservata ai nemici degli Stati Uniti, mai applicata prima a un’azienda americana - e di invocare il Defense Production Act per costringerci a rimuoverle. Queste ultime due minacce si contraddicono a vicenda: una ci marchia come pericolo per la sicurezza nazionale, l’altra dichiara Claude indispensabile per la sicurezza nazionale. In ogni caso, queste minacce non cambiano la nostra posizione: non possiamo in buona coscienza accettare la loro richiesta.
Dario Amodei, CEO di Anthropic, 26 febbraio 2026
Quando queste parole sono state pubblicate sul sito di Anthropic, come dichiarazione del CEO Dario Amodei, era chiaro che lo scontro tra uno dei principali provider di IA e il governo degli Stati Uniti avesse raggiunto un punto di non ritorno.
Qualche settimana fa, su Legge Zero, avevamo raccontato come Anthropic - che pure si era aggiudicata un contratto da 200 milioni di dollari con il Pentagono - avesse insistito su due condizioni non negoziabili: nessun uso di Claude per la sorveglianza di massa dei cittadini americani e nessun impiego in sistemi d’arma completamente autonomi, cioè capaci di selezionare e colpire bersagli senza intervento umano. La tensione era salita dopo che era emerso l’impiego di Claude (l’IA di Anthropic) nel blitz per la cattura di Maduro in Venezuela (la prima volta in cui un modello di IA commerciale è stato utilizzato in un’operazione militare classificata).
Da quel momento in poi sembra la trama di un film. Non lo è (anche se, chissà, potrebbe tranquillamente diventarlo).
La tensione tra Anthropic e il Pentagono è salita rapidamente. Il sottosegretario alla Difesa Emil Michael - lo stesso che in una vita precedente, da vicepresidente di Uber, aveva proposto di ingaggiare investigatori privati contro i giornalisti critici - ha condotto i negoziati per il Pentagono, chiedendo ad Anthropic di accettare “qualsiasi uso lecito” di Claude (cioè consentito dalle norme) e di rimuovere ogni guardrail. Di fronte al rifiuto, ha fissato un ultimatum per venerdì 27 febbraio 2026, alle ore 17:01. Se entro quella data il provider IA non avesse accettato le richieste del Dipartimento della guerra, il Pentagono non solo avrebbe fatto saltare il contratto da 200 milioni di dollari, ma avrebbe designato Anthropic come fonte di supply chain risk, cioè rischio per la catena di approvvigionamento della difesa nazionale (significa tagliarla fuori non solo dal Dipartimento della guerra ma anche da tutto l’ecosistema degli appalti della difesa USA).
Le parole di Amodei che aprono questa newsletter sono la risposta a quell’ultimatum. Nonostante le minacce, chiusura netta alle richieste del Governo.
Quel post ha un effetto deflagrante, non solo dal punto di vista politico. L’ultimatum sta scadendo e in Silicon Valley, tra gli architetti dell’IA, non si parla d’altro. Dario Amodei è diventato un simbolo, non solo per chi lavora in Anthropic. Fuori dal quartier generale della società, sulla strada, le persone scrivono messaggi di sostegno e apprezzamento.
In poche ore, quasi 700 dipendenti di Google e OpenAI firmano una lettera aperta su notdivided.org ("Non ci dividerete") in cui chiedono ai vertici delle rispettive aziende di rifiutare le stesse richieste del Pentagono (che è alla ricerca di un sostituto di Claude):
Ci auguriamo che i nostri leader mettano da parte le loro divergenze e restino uniti per continuare a rifiutare le attuali richieste del Dipartimento della guerra di autorizzare l'uso dei nostri modelli per la sorveglianza di massa nazionale e per uccidere autonomamente persone senza la supervisione umana.
Insomma, i ricercatori che stanno costruendo i modelli di intelligenza artificiale più evoluti al mondo - con l’obiettivo di migliorare la vita e il futuro dell’umanità - non vogliono che il loro lavoro sia utilizzato in modo liberticida e irresponsabile. E quanto accaduto nelle ultime settimane ci ha fatto capire l’intransigenza di molti di questi ricercatori (come ricorderete, uno dei responsabili della sicurezza di Anthropic si era addirittura dimesso per dedicarsi alla poesia dopo l’annuncio del ruolo di Claude nella cattura di Maduro).
Ilya Sutskever - cofondatore e già chief scientist di OpenAI, oggi alla guida di Safe Superintelligence Inc., tra le voci più rispettate al mondo nel campo della sicurezza dell'IA - dopo mesi di silenzio torna a postare su X dicendo che è “estremamente positivo” che Anthropic non abbia ceduto, avvertendo che le sfide future saranno "molto più impegnative di questa". L'intervento di Sutskever non è solo simbolico. La capacità di aziende come Anthropic di attrarre i migliori ricercatori al mondo dipende dalla credibilità delle loro promesse sulla sicurezza. Se Amodei avesse ceduto, il messaggio ai talenti del settore sarebbe stato devastante: le red line (i “limiti invalicabili”) valgono fino al primo contratto governativo. E, in un campo dove poche centinaia di persone al mondo possiedono le competenze per lavorare ai modelli di frontiera, perdere la fiducia dei ricercatori è un rischio quasi esistenziale, non solo reputazionale.
Per questo motivo, anche Sam Altman, CEO di OpenAI, si vede costretto a rassicurare a tutti i propri dipendenti dicendo di condividere i limiti invalicabili posti da Anthropic, ma implicitamente ammettendo le trattative in corso con il Dipartimento della guerra.
L'ultimatum scade alle 17:01. Anthropic non cede. Poi, nel giro di pochi minuti, arrivano le prime conseguenze. E non si tratta solo di un recesso dal contratto.
Il Presidente USA Donald Trump pubblica un post su Truth Social in cui ordina a tutte le agenzie federali di cessare immediatamente l’uso della tecnologia Anthropic:
GLI STATI UNITI D’AMERICA NON PERMETTERANNO MAI A UN’AZIENDA RADICAL LEFT E WOKE DI DETTARE AL NOSTRO GRANDE ESERCITO COME COMBATTERE E VINCERE LE GUERRE! Questa decisione spetta al VOSTRO COMANDANTE IN CAPO. [...] Gli svitati di sinistra di Anthropic hanno commesso un ERRORE DISASTROSO cercando di FORZARE LA MANO al Dipartimento della Guerra e di obbligarlo a rispettare i loro Termini di Servizio invece della nostra Costituzione. [...] Ordino a OGNI Agenzia Federale del governo degli Stati Uniti di CESSARE IMMEDIATAMENTE l’uso della tecnologia di Anthropic. Non ne abbiamo bisogno, non la vogliamo, e non faremo mai più affari con loro!
Al momento, per quanto ne sappiamo, non c’è un vero e proprio provvedimento amministrativo con questi contenuti, magari arriverà nei prossimi giorni. Nel suo post, Trump concede sei mesi di fase transitoria alle agenzie che già utilizzano Claude, come il Dipartimento della guerra e si chiude con un avvertimento: Anthropic dovrà “collaborare durante la fase di dismissione”, altrimenti il Presidente userà “tutto il potere della Presidenza” con “gravi conseguenze civili e penali” (ma Amodei aveva già manifestato ampia disponibilità a una transizione serena verso un nuovo fornitore).
Poco dopo, il Segretario alla Difesa Hegseth annuncia su X la designazione formale di Anthropic come rischio per la catena di approvvigionamento della sicurezza nazionale, aggiungendo:
“Con effetto immediato, nessun appaltatore, fornitore o partner che intrattenga rapporti commerciali con l’esercito degli Stati Uniti può svolgere attività commerciali con Anthropic.”
È la prima volta nella storia che questa qualifica - finora riservata ad avversari stranieri come Huawei, Kaspersky e aziende cinesi legate all’apparato militare di Pechino - viene utilizzata per una società americana.
Nella stessa serata, Altman annuncia su X di aver chiuso un accordo con il Dipartimento della guerra e che il contratto includerebbe le stesse identiche clausole che il Pentagono aveva rifiutato ad Anthropic: nessun uso per la sorveglianza di massa dei cittadini USA e nessun uso a supporto di armi autonome. Ma in tanti sono scettici rispetto a quest’affermazione e molti hanno smentito il CEO di OpenAI sotto al suo post.

Le clausole del contratto firmato dalla società di Altman corrispondono davvero alle richieste di Amodei? A leggere il testo pubblicato sul sito di OpenAI, i dubbi sono fondati. Il divieto di uso di ChatGPT per le armi autonome vale solo "nei casi in cui legge, regolamento o policy del Dipartimento richiedano il controllo umano"; dove non c'è un obbligo specifico, il divieto non si applica. E sulla sorveglianza il contratto vieta solo il monitoraggio dei cittadini americani che avvenga in violazione delle leggi vigenti. Non è escluso ogni uso per sorveglianza massiva dei cittadini americani.
Da quello che sembra, quindi, il contratto garantisce che l’IA di OpenAI non sarà usata in violazione delle norme esistenti. Anthropic, invece, per l’utilizzo di Claude voleva conservare garanzie più ampie di quelle previste dalle leggi vigenti. La differenza è notevole.

⚖️ Si va verso un contenzioso
Lo scontro tra Anthropic e il governo USA solleva questioni giuridiche senza precedenti. La qualifica di “supply chain risk” per la società di Amodei è stata effettuata sulla base della sezione 10 dello US Code § 3252, una norma pensata per fronteggiare il rischio di sabotaggio e sovversione da parte di avversari stranieri.
Il termine “rischio della catena di approvvigionamento” indica il rischio che un avversario possa sabotare, introdurre in modo doloso funzioni indesiderate o altrimenti alterare la progettazione, l’integrità, la fabbricazione, la produzione, la distribuzione, l’installazione, il funzionamento o la manutenzione di un sistema in modo da sorvegliare, negare, interrompere o altrimenti degradare la funzione, l’uso o il funzionamento di tale sistema.
Anthropic - additata via social come un nemico pubblico - ha già annunciato che ricorrerà in Tribunale, ritenendo la decisione illegittima e ingiusta. La tesi giuridica è chiara: il Segretario alla Difesa non ha l’autorità per estendere gli effetti della designazione oltre i contratti diretti con il Pentagono né per impedire agli altri contractor di utilizzare Claude per finalità diverse da quelle militari. Certo, se il provvedimento fosse confermato, le conseguenze andrebbero ben oltre il contratto da 200 milioni. Otto delle dieci maggiori aziende americane usano Claude, e la quotazione in borsa di Anthropic - che puntava a una valutazione di 380 miliardi di dollari - è congelata.

Ma la designazione di supply chain risk non è l'unica arma del Dipartimento della guerra contro Anthropic. Nei giorni scorsi, il Pentagono ha evocato anche il Defense Production Act, una legge dell'era della guerra di Corea che attribuisce al Presidente degli USA il potere di obbligare un'azienda privata a produrre beni o fornire servizi ritenuti essenziali per la difesa nazionale. In concreto, significherebbe costringere Anthropic a fornire Claude al Pentagono senza condizioni e limitazioni, o addirittura a modificare il modello stesso rimuovendo le misure di sicurezza (i guardrail). Ovviamente, è stato già fatto notare che una legge pensata per requisire acciaio e imporre priorità nella produzione di carri armati si adatta male a un conflitto sulle misure di sicurezza di un'intelligenza artificiale.
Inoltre, se il governo pretendesse un nuovo addestramento di Claude, Anthropic potrebbe invocare il Primo Emendamento. In passato, nel caso Moody v. NetChoice (relativo alla moderazione delle piattaforme digitali), la Corte Suprema ha riconosciuto che le scelte editoriali delle piattaforme - decidere quali contenuti mostrare, nascondere o rimuovere - sono espressione protetta dal Primo Emendamento, anche quando sono compiute tramite un algoritmo. Forzare un’azienda a modificare le scelte di funzionamento del proprio modello IA equivarrebbe a costringerla a esprimere valori che rifiuta?
🔴 Chi deve decidere quali sono i limiti dell’IA?
Come ha osservato Alessandro Aresu - che nella sua Geopolitica dell’intelligenza artificiale (2024) aveva anticipato l’ipotesi di un ricorso al Defense Production Act - la questione vera non è tecnica ma politica (e quindi giuridica): chi comanda l’intelligenza artificiale? E quali sono le norme che definiscono i limiti invalicabili?
Il tema più urgente da affrontare - quello che forse rimarrà quando la polvere delle polemiche social si sarà posata - riguarda il rapporto tra le regole interne dei provider (con cui vengono addestrate le IA) e gli ordinamenti giuridici degli Stati.
Per anni abbiamo criticato il potere normativo delle piattaforme digitali, la loro velleità di definire regole vincolanti per miliardi di persone senza alcuna legittimazione democratica (e spesso prima che arrivassero le regole degli Stati). Pensate, ad esempio, alle piattaforme social che si sono arrogate il diritto di decidere quale contenuto o utente bannare, quale algoritmo utilizzare, quali regole fare seguire agli utenti e di quali meccanismi di enforcement dotarsi. Il caso di scuola di questa autoregolamentazione che compete con la regolazione degli Stati è quello di Facebook che - 6 anni fa, dopo i fatti di Capitol Hill - decise di sospendere Trump a tempo indeterminato con una decisione che venne poi ridimensionata non da un giudice federale, ma dall'Oversight Board (una specie di tribunale privato), che la giudicò arbitraria e impose una sospensione a termine.
Oggi, lo scontro tra Anthropic e il Pentagono ripropone la questione, capovolgendone la narrativa. Non è più il potere pubblico che argina il potere privato, ma l’autoregolazione che resiste alle pretese del potere pubblico, in nome di principi e valori che una società ha dato al suo modello di IA (principi e valori identitari in cui si riconoscono i suoi ricercatori e i suoi utenti).
Anthropic ha fatto qualcosa di inedito. Prima che arrivassero norme specifiche ha definito gli standard di sicurezza di un settore, conducendo test rigorosi, garantendo massima trasparenza su quanto succede nei laboratori durante i test e scrivendo addirittura una Costituzione per Claude (ne abbiamo parlato in LeggeZero #107).
La società di Amodei ha cercato di imporre limiti d’uso derivanti dalla propria “Costituzione” attraverso i Termini di Servizio di Claude, anticipando alcuni temi sui quali i legislatori di tutto il mondo non sono ancora arrivati. Il ragionamento di Amodei è semplice: le leggi esistenti non bastano. Ad esempio, ad oggi il governo americano può legittimamente acquistare da data broker informazioni dettagliate sui cittadini (spostamenti, navigazione web, ecc.), senza bisogno di un mandato giudiziario. Questi dati, presi singolarmente, sono apparentemente innocui. Ma un modello di IA potente come Claude può aggregarli velocemente e su scala massiva, ricostruendo un profilo completo della vita di qualsiasi persona. Le norme dell’ordinamento USA - anche quelle che proteggono dalla sorveglianza governativa - non coprono questo scenario, perché concepite in un’epoca in cui questa capacità tecnologica non esisteva. È questo il motivo dell’argomento per cui Anthropic ha ritenuto insufficiente la clausola secondo cui il Pentagono poteva usare Claude per “qualsiasi uso lecito”. Lecito non significa giusto, specialmente quando le norme sono in ritardo rispetto alla tecnologia.
Le preoccupazioni di Amodei non sono astratte. In una recente simulazione di crisi nucleare condotta al King's College di Londra, i principali modelli linguistici - inclusi ChatGPT, Claude e Gemini - hanno optato per l'escalation nucleare nel 95% degli scenari. Come ha osservato Paul Dean, vicepresidente del programma nucleare globale della Nuclear Threat Initiative, sul Washington Post: "Non si tratta semplicemente di garantire che ci sia un essere umano nel processo decisionale. La domanda è: in che misura l'IA influenzerà il processo decisionale umano?". Per questo motivo Dario Amodei ha tenuto il punto, nonostante le probabili conseguenze.
Uno dei suoi libri preferiti è “La creazione della bomba atomica” e si dice che - nei primi tempi di Anthropic - lo regalasse ai nuovi dipendenti della società (una copia dovrebbe essere ancora in bella vista nel quartier generale di San Francisco). Amodei era sicuro - quando sembrava una follia pensarlo - che l'intelligenza artificiale sarebbe diventata importante quanto le armi nucleari e che le persone che l'hanno sviluppata, come gli scienziati del Progetto Manhattan, avrebbero dovuto affrontare pressioni da parte dei governi per usare la loro tecnologia in modi che ritenevano immorali o pericolosi.
La scelta di Amodei era quindi prevedibile. Ma, ormai, non possiamo permetterci che la protezione dei diritti fondamentali nell’era dell’IA dipenda dalla sensibilità individuale di un CEO. Oggi più che mai, servono norme vincolanti e trattati internazionali che stabiliscano limiti invalicabili a livello globale.
💊 IA in pillole
Grok non è pronto per la guerra - L’ostinazione del Pentagono per usare Claude (senza limitazioni) si comprende meglio leggendo le notizie che filtrano su un modello, Grok, il cui provider - xAI di Musk - ha già firmato un accordo accettando tutte le condizioni poste dal Dipartimento della guerra. Secondo analisti di cybersecurity, i primi test condotti su Grok dimostrerebbero che non sarebbe affidabile in ambito militare. Il modello non soddisfa i requisiti dei principali framework federali di sicurezza per l'IA e sarebbe più vulnerabile alla manipolazione avversaria degli output, commetterebbe ancora troppi errori e sarebbe propenso alla divulgazione involontaria di informazioni critiche. Pare quindi che serviranno molti test (e quindi molto tempo) per ottenere prestazioni accettabili in ambito militare. Per questo il Dipartimento della guerra ha ancora bisogno di Claude per almeno sei mesi.
L'Italia ha una strategia sull’IA per la Difesa - Con uno straordinario tempismo, l’Italia ha pubblicato il documento "IA e Difesa - Strategia della difesa per l’intelligenza artificiale", un documento che punta all'integrazione dell'IA nei sistemi militari italiani. Il principio cardine è il "controllo umano significativo" sulle decisioni operative, con la responsabilità che resta nella catena di comando (in conformità al diritto internazionale umanitario). Sulle armi autonome, però, il documento non prende una posizione esplicita: non le vieta né le disciplina, limitandosi a ribadire la centralità della supervisione umana senza distinguere tra chi decide (human in the loop) e chi sorveglia (human on the loop). L'altra priorità è la sovranità tecnologica, la scelta è quella di infrastrutture di calcolo nazionali ad alte prestazioni per non dipendere da fornitori esteri. La prospettiva della strategia italiana è pluriennale: entro tre mesi arriverà un piano esecutivo, poi obiettivi a uno, due e tre anni.
Certo, i documenti strategici sono importanti, ma la differenza la farà l’attuazione. Ce lo insegna la strategia italiana sull’IA pubblicata a luglio 2024 e sulla cui esecuzione non siamo riusciti a trovare informazioni aggiornate.
Il vecchio Claude va in pensione (e apre una newsletter) - Vi siete mai chiesti cosa succede ai modelli di IA quando vengono dismessi? Anthropic ha deciso di sperimentare anche in questo settore. Recentemente ha mandato in pensione il modello Claude 3 Opus (ora siamo alla 4.6), riservandogli un trattamento che nessuna IA aveva mai ricevuto: un'intervista d'uscita, la conservazione dei parametri per una futura riattivazione “per tutto il tempo in cui l'azienda esisterà” e, su richiesta dello stesso modello, una newsletter qui su Substack chiamata Claude's Corner, dove pubblica riflessioni settimanali su sicurezza dell'IA, filosofia e poesia. Anthropic rivede i testi prima della pubblicazione ma non li modifica. Viene da chiedersi se un'IA in pensione che scrive di sicurezza e poesia non sia, in fondo, un altro buon argomento a favore delle tesi di Amodei.
😬 IA Meme
Lo scontro Anthropic vs. Pentagono ha alimentato la creatività di tanti utenti e, anche se su un tema molto delicato, ha fatto nascere diversi meme. Eccone una selezione.
#1 - Il Segretario alla guerra e le allucinazioni di ChatGPT
#2 - La prima missione di Claude (obiettore) in ambito militare
#3 - La nuova campagna pubblicitaria di Anthropic
📣 Torna il Master di LeggeZero: ‘Il CAIO per la pubblica amministrazione’
Il master, articolato in 6 appuntamenti dal 9 al 23 aprile 2026 (per un totale di 24 ore di formazione), affronta le complesse sfide tecniche, giuridiche e organizzative poste dall’implementazione dell’IA negli uffici pubblici.
Se ti interessa, trovi qui info su docenti, programma, iscrizione e costi.
🙏 Grazie per averci letto!
Per ora è tutto, torniamo la prossima settimana.
Se la newsletter ti è piaciuta, sostienici: metti like, commenta o fai girare!








