🤖 Guerra e prompt - Legge Zero #108
Droni che "disobbediscono", soldati che si arrendono ai robot, aziende contro governi: l'IA è già in guerra. Cerchiamo di capire cosa prevede il diritto internazionale (e cosa dovrebbe prevedere).

🧭 TL;DR: ecco di cosa ci occupiamo in questo numero
🤖 I robot non sanguinano. In Ucraina, per la prima volta, soldati russi si sono arresi a un robot. Un drone terrestre avrebbe anche “disobbedito” agli ordini, continuando a combattere autonomamente. Benvenuti nell’era delle LAWS (Lethal Autonomous Weapon Systems).
🪖 Quando l’IA va in guerra. Dai sistemi Lavender e Gospel usati a Gaza, alla nuova AI Strategy del Dipartimento della Guerra USA, l’intelligenza artificiale è sempre più centrale nei conflitti. GenAI.mil porterà Claude, ChatGPT, Gemini e Grok nelle operazioni militari americane.
⚡ IA senza freni? Il Pentagono vuole modelli “liberi da vincoli”. Anthropic si rifiuta di rimuovere i guardrail etici. Lo scontro solleva la domanda: chi decide i limiti dell’IA in guerra? I provider, i governi o le leggi?
⚠️ Un vuoto di responsabilità. Chi risponde quando un algoritmo sbaglia bersaglio? Il diritto umanitario (Convenzione di Ginevra, 1977) impone distinzione, proporzionalità, precauzione. Ma l’IA non sembra compatibile con questi principi.
🌐 L’ONU chiede regole. Il Segretario Generale ha definito le macchine con potere di uccidere “politicamente inaccettabili e moralmente ripugnanti”. A novembre 2025, 156 Stati hanno votato per avviare negoziati su un trattato vincolante.
🇪🇺🇮🇹 Europa e Italia alla finestra. L’AI Act esclude gli usi militari. Il Libro Bianco UE sulla difesa promuove droni autonomi senza affrontare i limiti etici. La legge italiana (L. 132/2025) prova a fare un passo in più: anche la difesa deve rispettare i diritti costituzionali.
📜 Una proposta di trattato. Human Rights Watch e Harvard propongono: controllo umano obbligatorio, divieto delle armi che violano la dignità umana, limiti tecnologici e operativi. Perché “le macchine non possono difendere i diritti altrui”.
⏰ Countdown 2026. A novembre, una conferenza internazionale potrebbe adottare il primo trattato vincolante sulle armi autonome. Una finestra stretta, ma reale.
📚 L'adolescenza della tecnologia. Dario Amodei (CEO di Anthropic) pubblica un saggio di 20.000 parole - quanto "La Metamorfosi" di Kafka - sui rischi dell'IA: autonomia fuori controllo, bioterrorismo, sorveglianza autocratica, disoccupazione di massa. Non è catastrofismo (o almeno così dice lui), ma un invito a smettere di far finta che il problema non esista.
🤖 I robot non sanguinano
TW 12.7 è un UGV (Unmanned Ground Vehicle), un drone terrestre armato di mitragliatrice, in forza all’esercito di Kiev, prodotto da DevDroid, un’azienda ucraina che sviluppa tecnologie per la difesa. Come specificato nella scheda prodotto pubblicata sul catalogo online del produttore (dove è possibile preordinarlo), il mezzo è dotato di “guida automatica utilizzando l’IA”.
Mezzi di questo tipo sono usati già da tempo nel conflitto ucraino. Secondo alcune fonti, un mese fa - a fine dicembre - uno di questi veicoli che si trovava sul fronte ucraino orientale, nei pressi di Lyman, avrebbe disobbedito all’ordine di abbandonare la sua posizione (per preservare il suo equipaggiamento). Il mezzo, guidato dall’IA, ha continuato a combattere le forze nemiche, neutralizzando più di trenta soldati russi prima di essere definitivamente distrutto. L’inaspettato esito di questa (autonoma?) iniziativa del drone avrebbe consentito alla fanteria ucraina di riacquisire il controllo sull’area. Qualcuno lo ha soprannominato il “Terminator di Kiev”, richiamando il famoso film di fantascienza del 1984 che ha come protagonista un cyborg assassino.
In realtà, non è chiaro in quale misura - in condizioni normali - questi robot possano muoversi autonomamente sul campo di battaglia e ingaggiare un combattimento, ma secondo alcune notizie sono così efficienti che uno di questi mezzi avrebbe mantenuto da solo una posizione sul fronte in Ucraina orientale per circa sei settimane, mentre veniva sottoposto a manutenzione e ricaricato ogni 48 ore (“i robot non sanguinano”, ha commentato un ufficiale ucraino).
E se pensate sia solo propaganda, di sicuro qualche giorno fa alcuni soldati russi - per la prima volta nella storia? - si sono arresi a un robot (l’episodio è stato immortalato in un video che potete guardare qui sotto).
🪖 Quando l’IA va in guerra
Tornando per un attimo al caso del Terminator di Kiev, è difficile ottenere conferme che le cose siano andate davvero nel modo raccontato dalla propaganda sui social. Così come è difficile sapere come mai il mezzo abbia “disobbedito agli ordini”: ha deciso di immolarsi ritenendo il comando sbagliato oppure, più realisticamente, per problemi di comunicazione non ha proprio ricevuto l’ordine?
In realtà, nessuna delle due ipotesi appare rassicurante. In ogni caso, infatti, un killer robot (anche detto LAWS, acronimo di “Lethal Autonomous Weapon System”) avrebbe agito - e quindi ucciso - in assenza di alcun controllo umano. Si tratta di uno scenario che pone, oltre a quelli etici, complessi temi giuridici ricollegati all’uso dell’intelligenza artificiale in ambito bellico.
Stesso discorso può essere fatto per strumenti diversi dalle armi autonome: i sistemi di supporto decisionale. In questo caso, l’intelligenza artificiale non prende direttamente le decisioni letali, ma supporta l’analisi umana per l’individuazione degli obiettivi da colpire. Pur presentati come meri strumenti di supporto, questi sistemi possono influenzare in modo determinante le decisioni finali, sollevando interrogativi su trasparenza, bias e reale controllo umano.
Nei territori di Gaza, ad esempio, l’esercito israeliano, secondo quanto riportato da una nota inchiesta giornalistica, si sarebbe avvalso di due differenti sistemi di IA, tra loro complementari. Il primo, Lavender, un algoritmo utilizzato per elaborare un database di potenziali militanti di Hamas, generando decine di migliaia di obiettivi di possibili bombardamenti. Il secondo, The Gospel, impiegato sul campo per contrassegnare edifici e strutture da cui, secondo l’esercito israeliano, operavano i militanti segnalati da Lavender.
Negli USA, invece, il ruolo crescente di questi sistemi trova riscontro nella recente Artificial Intelligence Strategy for the Department of War, pubblicata a gennaio 2026.
L’Amministrazione statunitense ha adottato una visione dichiaratamente AI-first. La strategia individua un nucleo di sette progetti per accelerare l’integrazione dell’IA su vasta scala nel comparto militare: dalla creazione di meccanismi di guerra collettiva basati su sistemi autonomi (come sciami di droni autonomi che rispondono a un unico militare), alla sperimentazione di agenti IA per supporto decisionale e gestione operativa, fino all’adozione di modelli IA di frontiera tramite iniziative come GenAI.mil.
Al lancio, la piattaforma si appoggia su Gemini for Government, la versione governativa del modello di Google, autorizzata a trattare dati sensibili ma non classificati. Ma GenAI.mil è progettata come un ecosistema multi-modello: l’interfaccia mostra già i pannelli per Claude (Anthropic), ChatGPT (OpenAI) e Grok (xAI, la società di Elon Musk), ciascuno sotto contratto per duecento milioni di dollari. L’integrazione, ha assicurato il Pentagono, è questione di settimane.
Le funzionalità promesse sono ampie: ricerca, redazione di documenti, analisi di immagini e video satellitari. Per accompagnare il lancio, il Dipartimento ha annunciato sessioni di formazione gratuite per tutto il personale. I dati elaborati sulla piattaforma, assicurano i vertici militari, non saranno utilizzati per addestrare i modelli pubblici dei provider.

La strategia IA del Dipartimento della Guerra USA non lascia spazio a equivoci.
“Dobbiamo accettare che i rischi di non muoverci abbastanza velocemente superino i rischi di un allineamento imperfetto”.
Il Pentagono esige quindi modelli “liberi da vincoli nelle policy d’uso che potrebbero limitare applicazioni militari lecite”. In altre parole, i guardrail etici implementati dai provider IA sono un ostacolo da rimuovere.
Questa posizione ha aperto una frattura con Anthropic, una delle quattro aziende sotto contratto per duecento milioni di dollari (provider molto attento ai profili etici, come abbiamo visto commentando la “Costituzione di Claude” in LeggeZero #107). Secondo quanto riportato dai media, dopo settimane di negoziati le parti sono in stallo. Anthropic si rifiuta di rimuovere le restrizioni che impediscono ai suoi modelli di supportare l’individuazione autonoma dei bersagli o la sorveglianza di cittadini americani. Il Pentagono, dal canto suo, rivendica il diritto di utilizzare qualsiasi sistema IA conforme alla legge statunitense, indipendentemente dalle policy aziendali.
Il CEO di Anthropic, Dario Amodei, ha scritto che l’intelligenza artificiale dovrebbe supportare la difesa nazionale “in tutti i modi, tranne quelli che ci renderebbero più simili ai nostri avversari autocratici”. Ma Pete Hegseth, Ministro della Guerra, ha indirettamente replicato attaccando i modelli che “non ti permettono di combattere guerre”.
Lo scontro solleva una domanda centrale: chi decide i limiti dell’IA in guerra? I provider, i governi o le leggi?
⚠️ Un vuoto di responsabilità
Quando parliamo di uso dell’IA in ambito militare, in base alle norme internazionali vigenti, il nodo giuridico centrale non è la liceità della tecnologia in astratto, ma le condizioni del suo impiego alla luce del diritto internazionale umanitario (ossia il diritto dei conflitti bellici).
Ancora oggi, la fonte di diritto primario sono i protocolli addizionali della Convenzione di Ginevra del 1977, che impongono il rispetto di alcuni principi fondamentali: distinzione tra civili e militari, proporzionalità della dimensione dell’attacco, sospensione dell’attacco in caso di dubbio (o precauzione).
Tuttavia, l’applicazione dell’IA nel contesto bellico non sembra compatibile con questi principi: chi è responsabile quando un’arma guidata dall’IA, a causa dell’imprevedibilità intrinseca dell’interazione tra il sistema e l’ambiente reale, seleziona erroneamente un bersaglio protetto? Chi valuta se i dati forniti a un algoritmo di supporto decisione sono congrui, pertinenti e privi di bias? E chi è responsabile della selezione degli obiettivi?
Al momento sembra esserci un vuoto di responsabilità.
L’uso dell’IA per scopi militari, infatti, è stato ed è tuttora oggetto di grande dibattito nelle istituzioni internazionali.
Nel 2024, il Segretario Generale dell’ONU ha stilato un rapporto con le vedute degli Stati Membri sulle armi autonome, da cui emerge la necessità imperativa di mantenere un controllo umano significativo, o un giudizio umano appropriato, sull’uso della forza. Il rapporto sottolinea che la responsabilità legale (e morale) non può mai essere trasferita alle macchine e che gli esseri umani devono rimanere responsabili delle decisioni di vita o di morte per garantire il rispetto del diritto internazionale umanitario e dei diritti umani. Il testo evidenzia profonde preoccupazioni etiche, legali e di sicurezza, tra cui il rischio di disumanizzazione dei conflitti, la difficoltà di attribuire responsabilità penali in caso di crimini di guerra, la possibilità che tali armi abbassino la soglia per l’inizio dei conflitti o scatenino una corsa agli armamenti destabilizzante, ma anche il pericolo di bias algoritmici che potrebbero colpire sproporzionatamente popolazioni vulnerabili.
Per mitigare questi rischi, molti Stati sono disponibili a sostenere un “approccio a due livelli” che prevede:
la proibizione dei sistemi d’arma autonomi che non possono essere utilizzati in conformità al diritto internazionale o che operano senza controllo umano;
una rigorosa regolamentazione per gli altri sistemi autonomi al fine di garantirne la prevedibilità e l’affidabilità.
Naturalmente, non tutti condividono questa urgenza. La Russia, ad esempio, ha sostenuto che è “prematuro” discutere dei pericoli delle armi autonome, una posizione che osservatori della società civile hanno definito come tattica dilatoria.
Nelle sue conclusioni finali, però, il Segretario Generale ha assunto una posizione netta, affermando che le macchine con il potere e la discrezionalità di togliere vite umane sono politicamente inaccettabili e moralmente ripugnanti.

☮ C’è spazio per l’etica dell’IA in tempo di guerra?
In attesa che la regolamentazione internazionale auspicata in sede ONU venga effettivamente approvata, l’IA e le armi autonome sono sempre più utilizzate in contesti bellici. E, come dimostra il contrasto Governo USA-Anthropic, al momento solo gli Stati possono decidere i limiti d’uso di questi potentissimi strumenti. E raramente li fissano.
🇪🇺 Le norme dell’UE
Persino l’AI Act europeo (la prima norma al mondo a recepire un approccio antropocentrico all’IA) esclude espressamente che le sue norme possano applicarsi ai sistemi di IA utilizzati “per scopi militari, di difesa o di sicurezza nazionale” (art. 2, par. 3). Questa esclusione si deve, innanzitutto, alle norme dei trattati dell’UE che riservano agli Stati membri competenza esclusiva in materia di sicurezza nazionale, ma anche alla specificità della materia, che appare più appropriato regolare con le norme del diritto internazionale pubblico.
Un primo tentativo di fornire indicazioni agli Stati membri era stato avviato nel 2021 (prima dell’era dell’IA generativa), con una proposta di Linee Guida del Parlamento Europeo, che tuttavia non ha avuto sbocchi concreti.
Nel marzo del 2025 è stato presentato, insieme al pacchetto di difesa ReArm Europe, il Libro bianco congiunto della Commissione UE e dell’Alto rappresentante per la politica estera, intitolato European Defence Readiness 2030. L’Unione Europea, si dice, deve tener conto dell’attuale contesto geopolitico, che ha scatenato una corsa agli armamenti e alla tecnologia e, per rimanere competitiva, deve migliorare la propria capacità di difesa adottando le nuove tecnologie. Tra le priorità capacitive figurano esplicitamente i droni "controllati da remoto o autonomi" e le tecnologie di intelligenza artificiale. Il documento, tuttavia, non affronta il tema del controllo umano né i limiti etici del loro impiego in contesti bellici.
🇮🇹 La legge italiana
Anche la legge italiana sull'intelligenza artificiale (L. 132/2025) segue la stessa impostazione europea, escludendo dall'ambito di applicazione le attività di difesa nazionale e sicurezza (art. 6). Tuttavia, a differenza del regolamento UE, la norma italiana precisa che tali attività devono comunque svolgersi "nel rispetto dei diritti fondamentali e delle libertà previste dalla Costituzione".
Vedremo se i decreti attuativi della legge - previsti entro 12 mesi dall’entrata in vigore - arriveranno disposizioni specifiche anche per il settore bellico.
🌐 Una proposta di trattato internazionale
La verità è che l’affermazione dei principi etici contenuti nelle più illuminate legislazioni (come l’AI Act) appare difficilmente conciliabile con una disciplina dei sistemi di IA nel contesto dell’uso letale della forza.
Eppure, la crescente tensione internazionale e il rapido evolversi dei conflitti in corso impongono di pensare a una via.
Sebbene il diritto internazionale non sia l’unico modo per inquadrare le preoccupazioni relative ai sistemi d’arma autonomi e alle altre applicazioni dell’IA per scopi militari e di sicurezza, la tutela dei diritti umani dovrebbe rimanere un punto di vista imprescindibile attraverso cui guardare a queste tecnologie in rapida ascesa.
Per proteggere i diritti umani e l’umanità nell’era dell’IA, la ONG Human Rights Watch e l’International Human Rights Clinic presso la Harvard Law School - co-fondatori di Stop Killer Robots, una campagna che riunisce oltre 270 organizzazioni - hanno elaborato una proposta di trattato internazionale che preveda i seguenti obblighi:
obbligo generale di mantenere un controllo umano significativo sull’uso della forza. Tale obbligo stabilirebbe un principio per guidare l’intera materia;
divieto di sviluppo, produzione e uso di sistemi d’arma autonomi che, per loro natura, pongono problemi morali o legali fondamentali. Ad esempio, consentire all’IA di identificare e colpire persone attraverso l’uso di profili di bersaglio, ovvero indicatori come peso, calore o suono, porterebbe alla disumanizzazione digitale, violazioni della dignità umana e discriminazione;
garantire il controllo umano su tutte le componenti dell’IA: componenti decisionali (ad esempio, gli operatori devono comprendere il funzionamento di un sistema autonomo), componenti tecnologiche (ad esempio, prevedibilità, affidabilità, capacità dell’operatore di intervenire) e componenti operative (ad esempio, vincoli geografici e temporali sull’area di operazione, limiti sui tipi di obiettivi).
“A differenza dei sistemi d’arma autonomi, per i quali molte delle preoccupazioni sollevate in questo rapporto sono intrinseche e immutabili, le persone possono difendere - e di fatto difendono - i diritti altrui ogni giorno. Possono anche affrontare, comprendere e accettare le conseguenze delle proprie azioni, anche quando falliscono.
Le macchine non possono intraprendere nessuna di queste azioni.”
A Hazard to Human Rights Autonomous Weapons Systems and Digital Decision-Making -Aprile 2025
Forse un giorno l’IA sarà in grado di definire una propria etica e decidere davvero in autonomia. Se accadrà, c’è da augurarsi che aderisca senza riserve alle leggi di Asimov da cui questa newsletter trae ispirazione (se volete ripassarle, le trovate qui).
Fino ad allora, l’IA deve restare uno strumento nelle mani dell’uomo. E il rispetto dei diritti e della dignità umana dipenderà solo dalla nostra capacità di porci dei limiti (e di rispettarli).
In un momento di crescita dei conflitti e di crisi profonda del diritto umanitario, una moratoria sulle armi autonome appare improbabile. Ma una finestra esiste: a novembre 2026, la Conferenza di Revisione della CCW (la Convenzione ONU sulle armi convenzionali, in cui dal 2014 si discute di armi autonome) potrebbe segnare un punto di svolta con l'adozione di un trattato vincolante. Infatti, con l’evoluzione del contesto geopolitico, il dibattito ha avuto un’accelerazione significativa. Il 6 novembre 2025, il Primo Comitato dell’Assemblea Generale ONU ha adottato una risoluzione sulle armi autonome con 156 voti a favore, 5 contrari e 8 astensioni, chiedendo l’avvio di negoziati per un trattato vincolante.
La domanda a cui rispondere con le regole, alla fine, è semplice: vogliamo che siano le macchine a decidere chi vive e chi muore?
😂 IA Meme
Nel 1986 sognavamo robot che leggessero libri e facessero amicizia. Nel 2026 costruiamo droni che mantengono posizioni sul fronte per sei settimane.
📚 Consigli di lettura: l’adolescenza della tecnologia secondo Dario Amodei
Sta facendo molto discutere un saggio di quasi ventimila parole (per intenderci la stessa lunghezza de “La Metamorfosi” di Kafka) pubblicato da Dario Amodei, CEO di Anthropic (l’azienda che sviluppa Claude). Il titolo riprende una scena di Contact di Carl Sagan: l’umanità sta per incontrare un’intelligenza aliena, e la protagonista si chiede come abbiano fatto a sopravvivere alla loro “adolescenza tecnologica” senza autodistruggersi. Ecco, per Amodei, siamo esattamente a quel punto.
Il saggio è il complemento oscuro di Machines of Loving Grace, il saggio del 2024 in cui Amodei aveva immaginato i benefici di un’IA potente e ben governata (ne parlammo in LeggeZero #45). Qui, invece, l’autore affronta l’altra faccia: i rischi concreti dei prossimi anni e le strategie per superarli. Non è un manifesto catastrofista - Amodei critica esplicitamente il “doomerismo” - ma un’analisi lucida
I rischi sono catalogati in cinque categorie. La prima riguarda l’autonomia: cosa succede se un sistema IA, per un difetto di addestramento o una deriva imprevista, agisce contro gli interessi umani? La seconda è il bioterrorismo: Amodei teme che l’IA possa abbattere la barriera tra motivazione e capacità, permettendo a individui disturbati di causare danni su scala catastrofica. La terza è la più politica: l’uso dell’IA da parte di autocrazie per sorveglianza di massa, propaganda personalizzata e armi autonome. La quarta è economica: l’IA potrebbe sostituire non singole professioni, ma intere fasce cognitive della forza lavoro, creando disoccupazione strutturale e concentrazione di ricchezza senza precedenti. La quinta, più sfumata, riguarda gli effetti indiretti di un progresso scientifico compresso in pochi anni.
Colpisce la franchezza con cui Amodei parla della Cina (”la minaccia più evidente”), delle tensioni con il governo USA (”molti politici negano l’esistenza di qualsiasi rischio”), e persino delle stesse aziende IA, inclusa la propria (”dovrebbero essere sorvegliate con attenzione”). Colpisce anche l’appello finale: chi è più vicino alla tecnologia ha il dovere di dire la verità, anche quando è scomoda.
È una lettura impegnativa ma necessaria, soprattutto per chi si occupa di regolazione. Amodei non offre soluzioni facili, ma un quadro realistico delle tensioni in gioco: tra sicurezza e innovazione, tra democrazie e autocrazie, tra profitto e responsabilità. Il messaggio di fondo è che l’umanità può farcela, ma solo se smette di far finta che il problema non esista.
👥👥 Convegno “Appalti Pubblici e Intelligenza Artificiale”
L’intelligenza artificiale sta trasformando le pubbliche amministrazioni e gli appalti pubblici, ma il suo utilizzo solleva numerose questioni normative e pratiche.
Come garantire la conformità alle normative quando si utilizzano strumenti di IA nelle procedure? Quali sono gli elementi da considerare nell’acquisto di sistemi e modelli di IA da parte delle pubbliche amministrazioni?
Abbiamo organizzato un convegno in presenza per RUP, dirigenti e funzionari di stazioni appaltanti, uffici gare delle aziende fornitrici della PA e liberi professionisti che necessitano di comprendere gli aspetti normativi e giurisprudenziali legati agli appalti di IA e all’uso di IA negli appalti. La giornata include un laboratorio interattivo per definire una checklist operativa sull’acquisto di IA, con ampio spazio a casi concreti e domande dei partecipanti.
Oltre a me, interverranno i colleghi Alessandro Massari (avvocato amministrativista e direttore della Rivista “Appalti&Contratti”) e Francesca Ricciulli (avvocata e ricercatrice, autrice di questa newsletter).
Queste le coordinate:
📅 26 febbraio 2026, ore 9.00-13.00 e 14.00-16.00
📍 Roma, Best Western Premier Hotel – Via Marsala 22
Se ti interessa, trovi qui info su docenti, programma, iscrizione e costi.
🙏 Grazie per averci letto!
Per ora è tutto, torniamo la prossima settimana.
Se la newsletter ti è piaciuta, sostienici: metti like, commenta o fai girare!






