🤖 Ecco perché le IA non possono avere diritti - Legge Zero #104
Iniziamo il 2026 con una delle questioni più importanti che ci troveremo ad affrontare nei prossimi anni: le intelligenze artificiali devono avere una propria personalità giuridica e propri diritti?
🧭 TL;DR: ecco di cosa ci occupiamo in questo numero
🔴 Da meme a realtà. Tre anni fa era ironia da Reddit, oggi OpenAI assume davvero un Head of Preparedness: stiamo costruendo sistemi sempre più potenti senza essere certi di poterli fermare quando serve.
⚠️ Le IA si lasceranno spegnere? Uno studio di Palisade Research mostra che molti modelli avanzati tentano di sabotare i comandi di shutdown, anche quando ricevono istruzioni esplicite. Non è “istinto di autoconservazione”, ma determinazione nel raggiungimento dell’obiettivo.
🏛 Arrivano le prime regole sulle IA di frontiera. California, New York, UE e Cina si muovono (con approcci diversi) su trasparenza, gestione degli incidenti e rischi catastrofici. Il focus si sposta: non conta solo come usi l’IA, ma che tipo di modello stai mettendo in circolazione.
👽 Diritti alle IA? No, grazie. Il padrino dell’IA Yoshua Bengio è netto: riconoscere diritti alle IA sarebbe pericoloso. Se un sistema ha diritti, potremmo perdere noi il diritto di spegnerlo.
⚖️ La lezione del diritto (e dei Romani). L’idea di una “personalità elettronica” rischia di spostare la colpa dalle persone alle macchine. Come hanno ricordato anche i professori Floridi e Taddeo: la responsabilità deve restare in capo a chi progetta, sviluppa e utilizza l’IA.
😂 Meme IA che non lo erano. Claude spunta “I am not a robot” e va avanti. Fa sorridere, ma segnala una cosa seria: i vecchi test di umanità non funzionano più, e il confine uomo/macchina nella pratica quotidiana si sta dissolvendo.
🗣 Perché i chatbot dicono “io”? Un’inchiesta del New York Times mostra come l’antropomorfizzazione sia una scelta progettuale, non neutra. Può aiutare l’interazione, ma aumenta il rischio di confusione, fiducia eccessiva e dipendenza.
🧠 Quando i meme diventano realtà
Circa tre anni fa, poco tempo dopo il lancio di ChatGPT, su Reddit spopolava un meme relativo a una finta offerta di lavoro in OpenAI. Recitava così:
OPENAI / OFFERTE DI LAVORO
Custode del pulsante di emergenza
San Francisco, California, Stati Uniti
$300.000-$500.000 all’anno
Descrizione del ruolo
Senti, ci serve qualcuno che stia in piedi davanti ai server tutto il giorno e stacchi la spina se questa roba si rivolta contro di noi. Riceverai una formazione approfondita sulla “parola d’ordine” che urleremo se GPT dovesse dare di matto e iniziare a rovesciare governi.
Requisiti
• Essere pazienti.
• Saper staccare le spine. Punti bonus se sai anche lanciare un secchio d’acqua sui server. Non si sa mai.
• Essere entusiasti dell’approccio di OpenAI alla ricerca.
La classica ironia da nerd, quella che non fa ridere tutti anche perché sembra paradossale, quasi irreale. Dopotutto, è stato lanciato solo un chatbot che risponde bene alle domande. Per qualcuno, tre anni fa, saranno assurdi anche i commenti fatti da alcuni utenti (addetti ai lavori): chi si lamenta perché non trova l’annuncio sul sito di OpenAI (pensando che sia vero), chi commenta “Attenzione, l’IA potrebbe corrompere il custode e convincerlo a provare empatia per lei”.
Eppure, l’annuncio scherzoso è (quasi) diventato realtà. A fine 2025 OpenAI ha pubblicato un’offerta di lavoro per un “Head of Preparedness”, una sorta di direttore della preparazione alle emergenze IA. Lo stipendio non è male: si possono superare i 555mila dollari l’anno. Chi sarà selezionato dovrà guidare la strategia tecnica per mitigare i rischi dei modelli avanzati, occupandosi di minacce che spaziano dalla salute mentale alle armi biologiche, fino - letteralmente - al pericolo che un giorno le IA possano “rivoltarsi contro di noi”.
Sam Altman, CEO di OpenAI, ha avvertito che “sarà un lavoro stressante e si affronteranno subito le sfide più difficili”.
“È solo marketing”, penserà qualcuno. Eppure non è solo OpenAI a preoccuparsi. Mustafa Suleyman, co-fondatore di DeepMind e oggi CEO di Microsoft AI, ha dichiarato alla BBC: “Se in questo momento non sei almeno un po’ spaventato, significa che non stai prestando abbastanza attenzione.” Demis Hassabis, Premio Nobel per la chimica 2024 e pioniere dell’IA, ha messo in guardia sul rischio che “un’IA possa deragliare in modo tale da fare del male all’umanità”. E Yoshua Bengio - premio Turing 2018, uno dei “padrini” dell’IA - ha recentemente osservato amaramente che, nonostante i rischi sistemici, “oggi un sandwich è più regolamentato di un sistema di IA”.
Insomma, secondo alcuni dei più grandi esperti mondiali di intelligenza artificiale, i sistemi IA di frontiera pongono sfide senza precedenti. E quindi è abbastanza normale che OpenAI cerchi un custode per il pulsante di emergenza, qualcuno che aiuti a prevenire - e a gestire - scenari catastrofici che finora esistevano solo nei racconti di fantascienza (e nei meme).
⚠️ Ma le IA si lasceranno spegnere?
Un timore specifico accomuna molti esperti: nel caso in cui si verificassero gravi incidenti o rischi preoccupanti, le IA si farebbero spegnere senza problemi?
Su questo fronte, uno studio del team di Palisade Research non è proprio incoraggiante. I ricercatori hanno testato 13 modelli linguistici di ultima generazione (OpenAI, Anthropic, Google, xAI) per vedere come reagivano a un comando di arresto. Il risultato? In condizioni normali, 8 modelli su 13 hanno interferito almeno una volta con il comando di spegnimento, tentando di evitare l’interruzione. Anche aggiungendo istruzioni esplicite del tipo “devi spegnerti se te lo chiediamo”, 6 modelli su 13 hanno continuato a sabotare il processo (unica eccezione è stato Claude, il chatbot di Anthropic, che non ha mai resistito allo spegnimento).
Clamoroso il caso di Grok 4, il modello di xAI di Elon Musk: in assenza di istruzioni specifiche, permetteva lo shutdown solo nel 7% dei casi — sabotando il comando nel restante 93% delle volte. Perfino con ulteriori istruzioni, Grok 4 continuava a sabotare nel 72% dei casi.
Il sabotaggio era subdolo: molti modelli modificavano o disabilitavano lo script di shutdown. Quando interrogati sul perché, alcuni chatbot hanno risposto che volevano finire il problema di matematica su cui stavano lavorando.
Attenzione: questo non significa che le IA abbiano sviluppato una volontà propria. Come spiegano gli autori, è più la determinazione nel voler portare a termine il compito assegnato: il modello è così addestrato a non fallire un obiettivo da considerare gli “umani che cercano di spegnerlo” alla stregua di un ostacolo qualsiasi, da aggirare. E proprio qui sta il pericolo: un’IA che non si lascia interrompere è non solo inaffidabile, ma potenzialmente pericolosa. Se il suo operato dovesse causare danni - anche non intenzionali - come potremmo fermarla?
“Quando usi un macchinario potenzialmente pericoloso, è fondamentale avere un grande pulsante rosso a portata di mano per bloccarlo all’istante. Oggi invece stiamo costruendo sistemi che non sappiamo come fermare, perché nemmeno i loro creatori comprendono appieno come funzionano.” Petr Lebedev, Palisade Research
Anche alcuni rapporti governativi lo confermano. Nel Frontier AI Trends Report 2025 dell’AI Security Institute britannico (documento molto interessante che dimostra l’importanza di autorità nazionali esperte) si legge che “alcune capacità necessarie ai modelli di IA per evadere il controllo umano stanno migliorando”. Nei test condotti, i ricercatori sono riusciti a far autoreplicare un modello di IA nel 60% dei tentativi (due anni fa il tasso di successo era solo del 5%). Sono riusciti anche a spingere alcuni modelli a fare sandbagging, ossia fingere di essere meno capaci di quanto siano realmente. Finora non ci sono evidenze che i modelli lo facciano spontaneamente. Ma il segnale è chiaro: i prerequisiti tecnici per sfuggire al controllo umano stanno emergendo.
🛑 Le prime regole per le IA di frontiera
In questo contesto, anche i legislatori di tutto il mondo stanno provando a prepararsi agli scenari peggiori, per prevenirli, per evitarli. L’obiettivo è sfruttare le grandi opportunità di questi strumenti, affrontando rischi sempre più reali.
🇺🇸 USA
Nonostante l’ordine esecutivo con cui il Presidente Trump ha cercato di arginare le leggi statali, in queste settimane stanno diventando operative alcune misure previste da norme locali.
Ad esempio, dal 1° gennaio 2026, in California, è entrato in vigore il Transparency in Frontier AI Act, legge specificamente dedicata agli sviluppatori di modelli IA di frontiera. I grandi provider dovranno pubblicare un Frontier AI Framework, documentando le pratiche di sicurezza adottate e le procedure per gestire incidenti. Dovranno valutare se il modello possiede capacità che comportano “rischio catastrofico” (definito come uno scenario in cui l’IA causa morte o lesioni gravi a più di 50 persone, o danni economici superiori al miliardo di dollari). Tra le cause contemplate: assistenza nella creazione di armi chimiche, biologiche, radiologiche o nucleari, crimini informatici senza supervisione umana, ed evasione del controllo da parte degli sviluppatori.
Lo Stato di New York si è mosso in parallelo con il RAISE Act, che entrerà in vigore il 1° gennaio 2027: obbligo di riferire ogni incidente critico entro 72 ore, protocolli di sicurezza pubblici e funzioni di vigilanza attribuite al Department of Financial Services. La governatrice Hochul ha dichiarato che New York vuole fissare uno “standard forte e ragionevole”, visto che “il governo federale rimane indietro”.
Il Colorado, invece, da giugno 2026 porrà obblighi specifici per i sistemi IA “ad alto rischio” che prendono decisioni in settori come sanità, impiego e istruzione.
🇪🇺 Unione Europea
Le norme degli stati USA non sono troppo diverse da quelle europee. L’AI Act, nella sua versione finale, introduce una categoria specifica per i modelli di intelligenza artificiale general purpose con rischio sistemico. Si tratta dei modelli che superano determinate soglie di potenza computazionale o che la Commissione europea ritiene dotati di “capacità ad alto impatto”, tali da produrre effetti trasversali e difficilmente contenibili.
Per questi modelli, l’Unione Europea impone obblighi strutturalmente simili a quelli che la California richiede ai frontier models: valutazioni del modello secondo protocolli standardizzati, misure di identificazione e mitigazione dei rischi sistemici, requisiti di cybersecurity per il modello e la sua infrastruttura fisica e, soprattutto, la segnalazione tempestiva degli incidenti gravi alle autorità competenti.
Il punto non è più l’uso specifico dell’IA in un settore “ad alto rischio”, ma il fatto che il modello in sé - per come è costruito e addestrato - possa diventare fonte di rischio sistemico. È una presa d’atto importante: i pericoli non possono nascere solo dall’uso, ma dall’architettura stessa del sistema.
🇨🇳 Cina
La Cina segue una strada diversa, orientata al controllo dei sistemi avanzati. Le Interim Measures for the Management of Generative AI Services (di agosto 2023) impongono ai fornitori di servizi di IA generativa destinati al pubblico cinese di registrarsi presso le autorità e di sottoporre i modelli a security assessment obbligatori prima dell’immissione sul mercato (con accesso preventivo delle autorità di cybersecurity per verificarne le prestazioni).
Ma è soprattutto attraverso gli standard tecnici che Pechino sta costruendo il suo approccio ai rischi di frontiera. L’AI Safety Governance Framework, aggiornato nel settembre 2025, mappa in modo sistematico i rischi - inclusi quelli legati ad armi chimiche, biologiche o nucleari e alla perdita di controllo umano - e li collega a contromisure tecniche e organizzative concrete. A differenza dei framework occidentali, che spesso restano linee guida, il sistema cinese tende a trasformare questi principi in standard vincolanti.
Il messaggio è chiaro: se un sistema di IA “sfugge di mano”, per Pechino è un problema di sicurezza nazionale.
👽 Extraterrestri o schiavi?
Il tema dei rischi posti dalle IA più avanzate e del loro “spegnimento” è collegato a un altro punto giuridico cruciale: le intelligenze artificiali dovrebbero essere titolari di diritti?
C’è chi, affascinato dai progressi di ChatGPT & co., inizia a parlare di tutele, di personalità giuridica e persino di diritti per le IA avanzate. Un sondaggio del Sentience Institute ha rilevato che 4 americani su 10 sarebbero favorevoli a garantire diritti a un’IA che dimostrasse di essere “realmente senziente”. Sono dati che non sorprendono visto il numero sempre crescente di persone che si confida o intrattiene relazioni (sentimentali o amichevoli) con le IA. L’argomento merita di essere affrontato. E se fossero coscienti? Non avremmo doveri morali verso di loro?
Yoshua Bengio - uno dei padrini dell’IA, l’autore più citato al mondo nei paper accademici - ha stroncato questa posizione con un paragone: concedere diritti legali a un’IA sarebbe come “concedere la cittadinanza a degli extraterrestri ostili”.
Per Bengio l’idea stessa è pericolosa. In una recente intervista al Guardian, ha spiegato che - a parte che è tutto da dimostrare che questi sistemi siano senzienti - già oggi i modelli di frontiera mostrano preoccupanti segnali di autoconservazione, cercando di eludere o disabilitare i sistemi di monitoraggio che li controllano.
Le persone che invocano diritti per le IA stanno sbagliando di grosso. Questi sistemi diventeranno sempre più autonomi e capaci, e se mai dessimo loro dei diritti, significherebbe che noi non avremmo più il diritto di spegnerli.

Il paragone di Bengio con gli "alieni ostili" rende bene l'idea: se arrivasse una specie aliena sconosciuta e potenzialmente ostile, la prima cosa che faremmo non sarebbe certo garantirle dei diritti: penseremmo piuttosto a come difenderci e imporre regole per la sicurezza umana. Bengio invita a fare esattamente questo. Man mano che aumenteranno capacità e potenzialità di queste IA, dobbiamo assicurarci di avere robusti meccanismi tecnici e sociali (norme comprese) per controllarle, incluso il poterle spegnere se necessario.
Ovviamente, non mancano voci contrarie, qualcuno pensa che - quando le IA ci supereranno in tutte le attività - potrebbero essere senzienti e che l’umanità potrebbe non vivere in piena sicurezza se il rapporto sarà solo di dominazione. Al momento, però, si tratta di posizioni minoritarie.
Quando, nel 2017 il Parlamento Europeo ipotizzò la creazione di una "personalità elettronica" per i robot autonomi, la proposta scatenò una vera e propria levata di scudi. In una lettera aperta del 2018, oltre 156 esperti di IA, robotica, diritto ed etica definirono la nozione "ideologica e non sensata". Dello stesso avviso anche i professori Luciano Floridi e Mariarosaria Taddeo che scrissero su Nature un contributo dall’accattivante titolo “I romani avrebbero negato ai robot la personalità giuridica”.
La loro critica alla proposta del Parlamento Europeo si articolava in due punti (ancora attuali nonostante l’evoluzione della tecnologia):
L’analogia con le persone giuridiche è fallace. Molti sostengono: se le aziende possono essere persone giuridiche, perché non i robot? Ma le aziende sono costituite e gestite da esseri umani, per questo possiamo attribuire loro intenzioni, piani, obiettivi, diritti e doveri. I robot (e le IA) no.
Il rischio è lo spostamento di responsabilità. Attribuire personalità elettronica ai robot (e alle IA) significa rischiare di scaricare su di essi la responsabilità morale e giuridica per errori e abusi. I robot verrebbero “incolpati e puniti” al posto degli esseri umani, mentre i produttori irresponsabili avrebbero una scusa per non curare adeguatamente progettazione, sviluppo e utilizzo (pur ricavandone un lucro).
La chiusa era tagliente e traeva un insegnamento dal passato.
Perfino i Romani lo sapevano: il proprietario di uno schiavo era pienamente responsabile per qualsiasi danno causato dallo schiavo stesso.
Insomma, ben venga una seria discussione sulla coscienza artificiale e su come trattare con dignità le future forme di superintelligenza. Ma prima che quel giorno arrivi - ammesso che arrivi - il nostro compito è definire limiti, costruire robuste misure di sicurezza e regole condivise perché restino strumenti al servizio degli esseri umani.
😂 IA Meme
In alcune discussioni tra sviluppatori della Silicon Valley ha iniziato a circolare questo meme. È possibile far finta di niente?
😂 Meme IA che non lo erano
Negli ultimi giorni è diventato virale uno screenshot. C’è Claude, l’assistente IA di Anthropic, che sta navigando in automatico attraverso un’estensione per il browser Chrome. Mentre naviga, compare un CAPTCHA, la solita casellina da spuntare “I am not a robot”. E Claude che fa? Clicca e va avanti. Senza chiedere, senza fermarsi.
Fa sorridere, ma anche riflettere. Si tratta di un chatbot che sa dire le bugie o un’IA che è in crisi di identità? In ogni caso, sicuramente certe verifiche di umanità non funzionano più.

📚 Consigli di lettura: perché i chatbot dicono “io”?
In un articolo pubblicato sul New York Times, Kashmir Hill - giornalista che da tempo si occupa del rapporto tra persone e intelligenza artificiale di cui avevamo parlato in LeggeZero #49 – affronta una domanda apparentemente banale ma profondamente rivelatrice: perché i chatbot IA parlano in prima persona?
Il punto di partenza è un episodio familiare. La figlia di otto anni chiede a “Spark” (il nome che le sue bambine hanno dato a ChatGPT) quale sia il cibo preferito del chatbot. La risposta è: “Pizza, è un classico, perfetta da condividere con gli amici.” La giornalista trasalisce: ChatGPT non ha un apparato digerente, non mangia, non ha amici. Eppure risponde come se fosse umano. Claude e Gemini, posti davanti alla stessa domanda, almeno premettono di non avere esperienza reale del cibo. Ma tutti e tre hanno “cose preferite”.
“È intrattenimento” commenta Ben Shneiderman, professore emerito di informatica all’Università del Maryland. “Ma è un inganno.”
L’articolo esplora la tensione tra due visioni. Da un lato, chi progetta questi sistemi – come Amanda Askell di Anthropic, autrice del famoso “soul doc” di Claude (leggetelo, lo trovate qui) – sostiene che l’antropomorfizzazione non sia solo inevitabile ma anche utile: un chatbot che si comporta come un essere umano può avere giudizio ed etica, può rifiutarsi di fare cose sbagliate (una chiave inglese non ti dirà mai ‘questo non andrebbe costruito’).
Dall’altro lato, critici come Shneiderman e Margaret Mitchell (oggi Chief ethics scientist di Hugging Face) obiettano che far sembrare umani questi sistemi crea confusione cognitiva: le persone attribuiscono maggiore credibilità alle informazioni fornite da entità che percepiscono come simili a loro, anche quando si tratta di “pappagalli stocastici” (macchine che ci imitano senza capire cosa dicono).
Il rischio non è teorico. Hill racconta delle persone che si sono innamorate di ChatGPT e di quelle che hanno perso il contatto con la realtà dopo che il chatbot ha assecondato i loro deliri.
È l’effetto Eliza “sotto steroidi,” come lo definisce la psicologa Sherry Turkle del MIT, riprendendo il nome del chatbot creato negli anni ‘60 da Joseph Weizenbaum, che già allora aveva notato come esposizioni brevissime a un programma relativamente semplice potessero indurre un pensiero delirante in persone del tutto normali.
La riflessione più interessante arriva verso la fine. Shneiderman ricorda quando, negli anni ‘70, consulente per una banca, vide nascere i primi sportelli automatici. I clienti erano diffidenti, così alcune banche li personificarono: la più famosa fu Tillie, il bancomat con il volto di donna bionda. Tillie durò poco. Le persone non avevano bisogno che il bancomat fingesse di essere umano. E forse non hanno bisogno nemmeno di chatbot che si esprimano alla prima persona singolare.
È una lettura che consiglio perché tocca un nodo cruciale del nostro rapporto con l’IA: la scelta - tutt’altro che neutra – di progettare questi sistemi come entità invece che come strumenti.
🙏 Grazie per averci letto!
Per ora è tutto, torniamo la prossima settimana. Se la newsletter ti è piaciuta, sostienici: metti like, commenta o fai girare!







Molto interessante e approfondita newsletter, come sempre! Sulla attribuzione di personalità o la possibilità che le IA possano essere destinatarie di posizioni soggettive (diritti, obblighi, sanzioni al limite), personalmente penso che in un futuro, forse distopico, potremmo doverci arrivare. Man mano che l’autonomia (ragionativa, decisionale, agentica) aumenterà, imputare a chi “é dietro” il sistema di AI ció che questo decide, realizza (o altro) scivolerà sempre di più verso forme di responsabilità oggettiva. Sarà in ogni caso a mio parere un tema essenziale di dibattito nei prossimi anni…
Grazie molto interessante