🧑🏼⚖️ Anthropic Vs. Department of War (Episodio 1) - I processi dell'IA raccontati da LeggeZero
Arriva in Tribunale lo scontro senza precedenti tra il governo degli Stati Uniti e l'azienda che ha creato Claude sull'uso dell'IA in guerra. Non uno, ma due giudizi che sono importanti per tutti noi.
⚖️ Capire l’IA attraverso i processi
Il contenzioso sull’intelligenza artificiale è diventato un fenomeno globale. Dai tribunali federali americani alle corti europee fino ai giudici italiani, le cause che coinvolgono l’IA si stanno moltiplicando e le decisioni che ne usciranno definiranno le regole del gioco per gli anni a venire. Non solo per le aziende tech, ma per tutti noi.
Con la serie I Processi dell’IA vogliamo raccontare i giudizi più importanti per il settore, entrando nel merito degli atti, degli argomenti giuridici, degli interessi in gioco, cercando di spiegarli in modo chiaro anche per chi non è un avvocato.
Forse per deformazione professionale, crediamo che sia possibile capire meglio l’IA - e il dibattito globale che ruota attorno ad essa - proprio attraverso i processi.
Cominciamo dalla vicenda che in questo momento è al centro del dibattito internazionale: uno scontro che si sta consumando in piena emergenza bellica tra il governo degli Stati Uniti e un’azienda di intelligenza artificiale, Anthropic, e che solleva questioni giuridiche senza precedenti.
📌 Lo scontro arriva in due Tribunali USA
Il 9 marzo 2026, Anthropic - l’azienda che ha creato il modello di intelligenza artificiale Claude - ha depositato due azioni legali distinte contro il governo federale degli Stati Uniti.
La prima è una causa civile presso il Tribunale federale di San Francisco (Anthropic PBC v. U.S. Department of War et al.): un complaint1 di 48 pagine articolate in cinque distinti motivi di diritto e una (separata) richiesta di provvedimento cautelare urgente di 34 pagine. La lista dei convenuti fa effetto: oltre al Dipartimento della Difesa e al Segretario Hegseth, l’azione è rivolta contro oltre una dozzina di agenzie federali e di alti funzionari, dal Segretario al Tesoro Scott Bessent al Segretario alla Salute Robert F. Kennedy Jr.
La seconda è una petition for review2 presso la Corte d’Appello del Circuito di Washington D.C.: un ricorso in cui viene chiesta la dichiarazione di illegittimità della designazione di supply chain risk (rischio per la catena di approvvigionamento) adottata dal Pentagono.
Perché due cause in due tribunali diversi? Perché le leggi invocate dal governo a sostegno del provvedimento prevedono canali di impugnazione differenti. In California si contesta l’intera operazione del governo (dai post social di Trump ai recessi contrattuali) mentre a Washington si contesta specificamente il provvedimento del Dipartimento della guerra che indica Anthropic come un rischio per la sicurezza nazionale.
In queste azioni legali, nulla è lasciato al caso. Nemmeno la scelta degli avvocati. A difendere Anthropic è WilmerHale, uno dei più importanti studi USA nelle materie del diritto costituzionale e sicurezza nazionale (oltre 1.100 avvocati). È lo stesso studio che nel 2023 ha condotto la review interna di OpenAI dopo il licenziamento di Sam Altman e ha difeso Apple in una storica battaglia giudiziaria contro Samsung. Nel collegio difensivo spiccano Susan Hennessey, ex avvocato dell'NSA (l’agenzia USA per la sicurezza nazionale) e Joshua Geltzer, ex vice consigliere giuridico della Casa Bianca per la sicurezza nazionale. Un dettaglio non secondario: nel 2025, Trump ha firmato un executive order contro lo studio WilmerHale (visto che ci lavorava Robert Mueller, il grande accusatore di Trump nell’ambito del Russiagate). Un giudice federale dichiarò quell’executive order incostituzionale, giudicandolo una ritorsione. Ora quello stesso studio patrocina in tribunale una causa contro la stessa amministrazione, per la stessa ragione.
ℹ️ I fatti: perché si è arrivati davanti ai giudici?
Claude, il modello di intelligenza artificiale di Anthropic, era il solo sistema IA autorizzato per l’uso sui sistemi classificati del Dipartimento della guerra. Le Forze Armate lo utilizzavano per analisi di intelligence, simulazioni, pianificazioni operative e operazioni cyber (dalla cattura di Maduro all’attacco all’Iran). Il Pentagono stesso ne ha lodato le capacità, definendole - secondo quanto è riportato negli atti di causa - “exquisite” (estremamente sofisticate).
C’era però un problema. Anthropic aveva posto due condizioni, due “red lines”: il modello IA non doveva essere impiegato per la sorveglianza di massa dei cittadini americani, né per alimentare sistemi d’arma autonomi letali. Come scrivono gli avvocati di Anthropic nell’atto introduttivo del giudizio californiano:
Anthropic non ha mai testato Claude per questi usi. Anthropic attualmente non ha la certezza, ad esempio, che Claude funzionerebbe in modo affidabile o sicuro se usato per supportare la guerra autonoma letale.
Il Pentagono voleva qualcosa di diverso: accesso a Claude per “all lawful use” (qualsiasi uso ritenuto lecito dal Governo), senza nessuna restrizione imposta dall’azienda. Le trattative si sono protratte per settimane. Il Dipartimento ha dato ad Anthropic un ultimatum pubblico: “get on board” entro le 17:01 del 27 febbraio 2026 o “pay a price” (sotto forma di esclusione dalla supply chain della difesa o di acquisizione della tecnologia tramite il Defense Production Act).
Dario Amodei, CEO di Anthropic, ha risposto pubblicamente che l’azienda non poteva “in good conscience” cedere. La risposta del governo è stata immediata (come vi abbiamo dato conto in LeggeZero #112).
📲 Impugnare un provvedimento notificato via social
Il primo a scendere in campo è stato il Presidente Trump che ha pubblicato su Truth (il suo social) un ordine a tutte le agenzie federali (allegato agli atti di causa):
Ordino a OGNI Agenzia Federale del Governo degli Stati Uniti di CESSARE IMMEDIATAMENTE ogni uso della tecnologia di Anthropic [...] Sono un’azienda RADICALE DI SINISTRA, WOKE, fuori controllo, di svitati di sinistra.
Due ore dopo, il Segretario alla Difesa Pete Hegseth ha pubblicato su X un post che viene allegato ad entrambi gli atti introduttivi. Il testo merita una lettura attenta, perché è l’atto con cui il governo ha comunicato al mondo la designazione di Anthropic come rischio per la sicurezza nazionale. Hegseth scrive che Anthropic ha dato “una lezione magistrale di arroganza e tradimento” (“a master class in arrogance and betrayal”), accusa il CEO di “doppiezza” (“duplicity”) e di nascondersi dietro la “retorica ipocrita dell’altruismo efficace” (“sanctimonious rhetoric of effective altruism”). E poi il passaggio chiave:
Con effetto immediato, nessun appaltatore, fornitore o partner che lavori con le forze armate degli Stati Uniti può intrattenere alcuna attività commerciale con Anthropic. [...] I combattenti americani non saranno mai tenuti in ostaggio dai capricci ideologici della Big Tech. Questa decisione è definitiva.
Nessuna analisi di rischio. Nessun riferimento a minacce di sabotaggio o sovversione. Nessuna valutazione tecnica. Solo invettive politiche e un ordine perentorio.
La designazione “formale” viene notificata ad Anthropic soltanto il 4 marzo 2026. Avrebbe dovuto, in teoria, indicare le basi fattuali e giuridiche di una decisione così importante. Su carta intestata “Secretary of War”, indirizzata personalmente a Dario Amodei al 548 Market Street di San Francisco, la lettera è molto asciutta (solo due pagine) e fa riferimento a tutti i prodotti e servizi di Anthropic (inclusi i modelli futuri di IA), con efficacia immediata. Anthropic ha 30 giorni per fare ricorso.
Ma la lettera non contiene nessuna motivazione in fatto e in diritto. Non spiega perché Anthropic rappresenterebbe un rischio. La motivazione è solo apparente, si limita a ricopiare quanto previsto nella norma: i prodotti “presentano un rischio per la supply chain” (quale?), l’azione è “necessaria per proteggere la sicurezza nazionale” (perché?) e “misure meno invasive non sono ragionevolmente disponibili” (chi e quando ha fatto quest’analisi?). Come scrive Anthropic nell’atto:
La Lettera del Segretario ... ripete pedissequamente i presupposti di legge del § 3252... Ma non offre alcuna spiegazione per nessuna di queste conclusioni, non affronta nessuna delle incongruenze che rendono arbitrario il provvedimento e non fornisce nessuna delle motivazioni che l’Ordine via social non conteneva.
Per fare un parallelo con il diritto amministrativo italiano, è come se un Ministero adottasse un provvedimento di esclusione da una gara d’appalto motivandolo solo con la frase “sussistono i presupposti di legge”, senza specificare quali fatti, quali rischi, quali valutazioni abbiano portato a quella conclusione. Con una particolarità: il documento allegato alla lettera con le procedure di riesame è qualificato come “UNCLASSIFIED” (non classificato), il che conferma che la designazione non si basa neppure su informazioni riservate di intelligence.
Per chi non avesse letto LeggeZero #112, una breve spiegazione. La supply chain risk designation è un’etichetta formale con cui il governo federale identifica un fornitore come una minaccia per la sicurezza della catena di approvvigionamento della difesa. Questo strumento era stato concepito per impedire che aziende legate a potenze straniere potessero infiltrare tecnologie compromesse nelle infrastrutture IT americane: Kaspersky, Huawei, ZTE. Non era mai stato usato contro un’azienda USA. E soprattutto, non colpisce solo i contratti federali diretti: funziona come un boicottaggio secondario, mettendo potenzialmente a rischio chiunque lavori con il Pentagono e faccia affari anche con Anthropic.
📜 La causa californiana
Come anticipavo, Anthropic ha deciso di reagire - legalmente - con due azioni giudiziarie.
Il cuore giuridico della battaglia è nell’azione promossa dinanzi a una corte federale di San Francisco. I counts - che nel lessico processuale americano indicano i motivi giuridici dell’atto di citazione - sono cinque. Ciascuno censura la condotta del governo da un’angolazione diversa.
Primo motivo - Violazione dell’Administrative Procedures Act e del § 3252. Anthropic sostiene che il Pentagono ha designato l’azienda senza rispettare le procedure previste nella legge generale statunitense sul procedimento amministrativo. La norma richiede che il Dipartimento della guerra consulti i funzionari degli approvvigionamenti, produca una determinazione scritta con specifiche motivazioni, dimostri che misure meno restrittive non erano disponibili e notifichi il Congresso. Nessuno di questi passaggi, secondo Anthropic, è stato rispettato. Date le tempistiche - tre giorni tra l’ultimatum e la designazione - è difficile immaginare che siano stati fatti determinati passaggi. La Secretarial Letter del 3 marzo, come abbiamo visto, si limita a formule sacramentali senza nessuna motivazione effettiva.
Secondo motivo - Ritorsione in violazione del Primo Emendamento3. È l’argomento costituzionale più complesso, ma potenzialmente più efficace. Anthropic sostiene che il governo la sta punendo per aver esercitato il proprio diritto alla libertà di espressione: aver espresso pubblicamente le proprie posizioni sull’uso etico dell’IA, aver sostenuto la necessità di limiti all’impiego militare, aver rifiutato di rimuovere le proprie protezioni.
La Costituzione non consente al governo di usare il suo enorme potere per punire un’azienda per aver esercitato la sua libertà di espressione.
E ancora, a proposito della direttiva presidenziale e della designazione di Hegseth:
I convenuti cercano di distruggere il valore economico creato da una delle aziende private in più rapida crescita al mondo, leader nello sviluppo responsabile di una tecnologia emergente di importanza vitale per la nostra Nazione.
L’uso dei post social di Trump e Hegseth è centrale in questa strategia. Se un’azione del governo è formalmente legittima ma in realtà motivata da ragioni illegittime - come la ritorsione per opinioni sgradite - i tribunali americani possono invalidarla. È il cosiddetto test del “pretesto”, applicato dalla Corte Suprema in Department of Commerce v. New York (2019). Le parole di Hegseth (“arroganza e tradimento”, “altruismo difettoso”) e di Trump (“azienda radicale di sinistra, woke” ) vengono utilizzate per smascherare i veri motivi della decisione governative e provare la ritorsione.
Terzo motivo - Eccesso di potere (ultra vires). Questo motivo attacca la direttiva presidenziale: l’esecutivo, anche se politicamente libero di cambiare fornitore, non potrebbe “inventare” un bando generalizzato contro un’azienda al di là dei poteri che il Congresso gli ha concesso.
Quarto motivo - Violazione del giusto procedimento amministrativo. Anthropic sostiene che la designazione e i recessi contrattuali hanno colpito i suoi interessi economici e reputazionali senza preavviso, senza possibilità di essere ascoltata e di fornire le proprie ragioni.
Quinto motivo - Violazione della legge sul procedimento amministrativo per le sanzioni delle agenzie. Anthropic contesta che le agenzie federali non possano imporre sanzioni o azioni restrittive se non nell’ambito di quanto previsto dalla legge. Gli annullamenti contrattuali ordinati da Trump a tutte le agenzie sarebbero un atto punitivo illegittimo, mascherato da decisione amministrativa.
🏛️ Il giudizio a Washington
Il procedimento davanti alla Corte d’Appello di Washington D.C. merita un discorso separato perché opera con logiche diverse.
La norma prevede espressamente che le impugnazioni delle designazioni supply chain risk siano presentate al D.C. Circuit - il tribunale più importante del paese per le questioni di diritto amministrativo - entro 60 giorni dalla notifica. Anthropic ha depositato l’impugnativa cinque giorni dopo.
Qui non ci saranno testimoni, deposizioni o un processo con giuria. La Corte d’Appello esaminerà solo i documenti agli atti per verificare se la designazione fosse supportata da prove e ragionamenti adeguati. Se il fascicolo del procedimento è effettivamente vuoto, come sostiene Anthropic, la designazione potrebbe cadere facilmente.
💡 La strategia processuale di Amodei
Anthropic presenta una narrazione chiara: il Pentagono aveva pieno diritto di non rinnovare il contratto o di rivolgersi ad altri fornitori. Ma non è quello che è successo. Invece di cambiare fornitore, il governo ha scelto di “stigmatizzare” Anthropic con un’etichetta che ne compromette l’intera attività commerciale. E l’ha fatto per punire l’azienda per le sue posizioni.
Il governo ha contemporaneamente minacciato di invocare il Defense Production Act per costringere Anthropic a collaborare - perché la tecnologia era indispensabile - e designato la stessa azienda come un rischio per la sicurezza nazionale. Una posizione abbastanza contraddittoria (viene in mente la battuta di Woody Allen “Il cibo è terribile e le porzioni sono troppo piccole”).
E c’è un’altra incongruenza che l’azione di Anthropic mette in evidenza: mentre il governo dichiarava che Claude era una minaccia, il Pentagono continuava a usarlo nelle operazioni militari legate al conflitto con l’Iran.
Ovviamente, nei prossimi giorni scopriremo come l’amministrazione USA risponderà a queste contestazioni.
🆘 Gli interventi che non ti aspetti
Poche ore dopo il deposito degli atti introduttivi, però, è successo qualcosa di inaspettato. Nel fascicolo della causa californiana è apparso un amicus curiae brief4 firmato (a titolo personale) da 37 importanti ricercatori e ingegneri di OpenAI e Google DeepMind.
Ricercatori che lavorano per i diretti concorrenti di Anthropic hanno scelto di esporsi pubblicamente per difenderla. Due i passaggi chiave del documento:
La designazione di Anthropic come rischio per la supply chain è stato un uso improprio e arbitrario del potere, con gravi ripercussioni per il nostro settore.
Le preoccupazioni tecniche alla base delle “red lines” di Anthropic sono legittime.
Il sottotesto è chiaro: siamo oggi dalla parte di Anthropic, perché domani potrebbe toccare a chiunque, anche a noi.
Ma non è l’unico intervento a favore dell’azienda di Amodei. Il 10 marzo - appena un giorno dopo - Microsoft ha depositato un proprio amicus curiae brief nel procedimento californiano, diventando la prima grande azienda a schierarsi formalmente. Non una dichiarazione generica di solidarietà: una richiesta esplicita al tribunale di concedere un provvedimento provvisorio di sospensione.
Le ragioni sono anche molto concrete. Microsoft integra i modelli di Anthropic nella tecnologia che fornisce alle forze armate americane, spende circa 500 milioni di dollari l’anno per la tecnologia Claude e nel novembre 2025 ha annunciato un investimento miliardario in Anthropic. L’argomento centrale del brief è che il Pentagono ha concesso a sé stesso sei mesi di transizione per sostituire Claude, ma ai contractor privati non ha dato alcun periodo transitorio, creando anche un caos operativo immediato:
L’attuazione immediata del provvedimento impone costi e rischi sostanziali e di vasta portata a Microsoft e agli altri appaltatori governativi statunitensi che collaborano con Anthropic.
Microsoft ha avvertito - tra l’altro - che i militari americani potrebbero essere intralciati se le aziende fornitrici dovessero alterare immediatamente i propri prodotti e le configurazioni contrattuali con il Pentagono. E ha aggiunto un passaggio che suona come un avvertimento: questa situazione mette a rischio “proprio quell’ecosistema IA che l’Amministrazione stessa ha contribuito a promuovere”.
A completare il quadro degli interventi nel fascicolo californiano, il 10 marzo un gruppo di 22 ex Segretari delle forze armate e generali in pensione (tra cui Michael V. Hayden, già direttore della CIA e della NSA) ha depositato un proprio amicus curiae brief sostenendo che il potere di designazione supply chain risk è stato concepito dal Congresso esclusivamente per contrastare infiltrazioni di potenze straniere ostili nelle infrastrutture militari, e che utilizzarlo come strumento di ritorsione contro un'azienda americana per un disaccordo politico è un precedente pericoloso che mina lo stato di diritto.
🧐 Il parere dei giuristi USA
Fin qui, gli atti di una battaglia legale che è solo all’inizio. Tante le analisi, quella giuridica più dettagliata sulla decisione del governo è disponibile sul sito di Lawfare. L’opinione è netta: il provvedimento del Pentagono ha “gravi criticità giuridiche” e la posizione del governo è “vicina all’insostenibile”. Ogni singolo vizio potrebbe bastare, da solo, a far cadere il provvedimento.
Qualcuno avanza anche un’ipotesi cinica: l’amministrazione potrebbe sapere benissimo che la designazione non reggerà in tribunale, ma averla adottata comunque per motivi politici.
Tra l’altro non mancano precedenti incoraggianti per Anthropic: in Luokung Technology Corp. v. Department of Defense e Xiaomi Corp. v. Department of Defense (2021), i giudici avevano concesso provvedimenti d’urgenza contro designazioni del Pentagono ritenute prive di adeguato preavviso, motivazione o contraddittorio.
⏭️ Cosa succede adesso?
Al momento della pubblicazione di questo numero (11 marzo 2026), la fase cautelare del processo californiano sta entrando nel vivo.
Oggi si è tenuta la prima udienza davanti alla giudice federale Rita F. Lin a San Francisco. L'avvocato di Anthropic ha dichiarato che oltre 100 clienti enterprise hanno già espresso dubbi sulla prosecuzione dei rapporti commerciali e che l'impatto sul fatturato 2026 potrebbe essere di diversi miliardi di dollari. Alla richiesta di impegnarsi a non adottare ulteriori misure ritorsive prima della prossima udienza, il legale del governo ha rifiutato seccamente. La giudice Lin, per ora, non ha emesso un provvedimento d'urgenza, ma ha fissato un udienza per il 24 marzo, con il termine per la memoria difensiva del governo al 17 marzo e per la replica di Anthropic al 20 marzo.
A Washington, invece, non sono previste novità prima delle prossime settimane quando la Corte d’Appello pubblicherà il calendario dei propri lavori.
Ma lo scontro, c’è da scommetterci, proseguirà anche fuori dalle aule giudiziarie. Secondo fonti confermate da Axios e CBS News, la Casa Bianca sta preparando un executive order formale per rimuovere la tecnologia di Anthropic da tutte le attività del governo federale. L’ordine potrebbe arrivare già questa settimana, formalizzando e ampliando il post di Trump su Truth del 27 febbraio. Se emesso mentre il procedimento cautelare è pendente, questo atto potrebbe diventare un ulteriore oggetto di contestazione giudiziaria (rafforzando la tesi di Anthropic sulla ritorsione governativa).
Per chi legge dall’Italia e dall’Europa, questo scontro può sembrare lontano. Ma le domande che solleva sono universali e ci riguardano tutti: chi decide i limiti dell'intelligenza artificiale? Può un'azienda tecnologica resistere alla pressione di un governo? E a quale prezzo?
Le risposte a queste domande passano per le decisioni dei giudici statunitensi. Ed è per questo che continueremo a raccontarvi questo processo.
🙏 Grazie per averci letto!
I Processi dell'IA è una serie speciale di LeggeZero. Torniamo domenica, come di consueto.
Se la newsletter ti è piaciuta, sostienici: metti like, commenta o fai girare!
Il complaint è l’atto con cui si avvia una causa civile nel sistema federale americano. Contiene l’esposizione dei fatti, le basi giuridiche delle pretese e le richieste al tribunale. È paragonabile (con le dovute differenze) a un atto di citazione nel processo civile italiano.
È un rimedio simile al ricorso al TAR nel diritto amministrativo italiano.
Il Primo Emendamento della Costituzione americana protegge la libertà di espressione e impedisce al governo di punire un soggetto per le opinioni espresse. A differenza dell’art. 21 della Costituzione italiana, si applica anche alle imprese e copre le dichiarazioni di policy aziendale.
L‘amicus curiae brief (lett. “memoria dell’amico della corte”) è un documento che soggetti terzi, non parti in causa, possono depositare per fornire al tribunale informazioni, competenze o prospettive rilevanti per la decisione. Possiamo paragonarlo all’intervento ad adiuvandum nell’ordinamento italiano.





