🤖 Il nostro appello per il futuro dell'IA (e degli esseri umani) - Legge Zero #89
Alcuni tra i maggiori esperti al mondo di intelligenza artificiale hanno scritto un appello sulla governance globale dell'IA. In questo numero vi raccontiamo com'è nato, a chi è rivolto e cosa dice.

🧠 Una settimana particolare
11 settembre 2025 - San Francisco (California, USA)
Guido Reichstadter, attivista di 45 anni, è davanti alla sede di Anthropic (il provider del chatbot Claude), dove è arrivato al nono giorno di sciopero della fame. Ha deciso di sopravvivere solo grazie a vitamine ed elettroliti, rifiutando di ingerire calorie, in segno di protesta contro quella che ritiene una corsa catastrofica verso la superintelligenza artificiale. Reichstadter chiede che il CEO di Anthropic, Dario Amodei, accetti un incontro in cui spiegargli le sue ragioni e auspica una moratoria globale sullo sviluppo dell’IA, simile a quella che negli anni ‘60 vietò le armi nucleari nello spazio. La sua posizione è semplice: “Attualmente, non esiste modo sicuro di costruire sistemi capaci di superare le capacità umane. Nessuno ha un piano su questo”.

L’azione di Reichstadter sta stimolando altri attivisti. A Londra, ad esempio, davanti alla sede di Google DeepMind, da alcuni giorni c’è Michael Trazzi - un ricercatore francese di 29 anni che lavora sulla sicurezza dell’IA - che ha avviato un analogo sciopero della fame. Dice che lo interromperà solo quando Demis Hassabis (il CEO dell’azienda) si impegnerà per una moratoria dello sviluppo dei sistemi AI di frontiera.

11 settembre 2025 - Città del Vaticano (Roma)
Nelle stesse ore in cui questi attivisti portano avanti la loro protesta, mi trovo in Vaticano, nelle antiche stanze della fabbrica di San Pietro. Da alcune settimane faccio parte di un gruppo di lavoro che raccoglie esperti venuti da tutto il mondo per incontrarsi a Roma, il 12 e il 13 settembre, nell’ambito del World Meeting on Human Fraternity organizzato dalla Fondazione Fratelli Tutti. L’obiettivo che ci è stato assegnato è tutt’altro che semplice: dobbiamo interrogarci sul tema “IA e fraternità”, concentrandoci su cosa significa restare umani nell’era dell’intelligenza artificiale. Dopo alcune riunioni online, molto stimolanti, abbiamo deciso di incontrarci per scrivere - insieme - un documento condiviso da consegnare a Papa Leone XIV, sicuramente sensibile a questi temi anche in considerazione del fatto che ha scelto il suo nome da Pontefice proprio per l’IA (ne avevamo parlato in LeggeZero #73)
🤖Chi ha capito quello che sta succedendo? - Legge Zero #73
Il Cardinale Prevost ha scelto il nome di Papa Leone XIV come segno della centralità delle questioni sociali e dei conflitti sollevati dall'IA, mentre i legislatori di tutto il mondo sono in affanno.
In Vaticano, intorno a un lungo tavolo, insieme a me, ci sono Paolo Benanti (docente Luiss e già consigliere per l’IA di Papa Francesco), Yoshua Bengio (professore dell’Università di Montreal, vincitore del Premio Turing 2018, il ricercatore più citato al mondo), Stuart Russell (professore dell’Università della California-Berkeley, figura di spicco nell’ambito della sicurezza dell’IA), Max Tegmark (ricercatore del MIT di Boston e presidente del Future of Life Institute), Abeba Birhane (scienziata cognitivista e ricercatrice presso la Mozilla Foundation e il Trinity College di Dublino), Nnenna Nwakanma (attivista nigeriana per i diritti digitali e l’accesso aperto a Internet), Marco Trombetti (esperto di IA e imprenditore, co-fondatore e CEO di Translated), Jimena Sofía Viveros Álvarez (avvocato presidente della HumAIne Foundation, impegnata a ridurre le disuguaglianze), Alexander Waibel (scienziato e docente al Karlsruhe Institute of Technology e alla Carnegie Mellon University, pioniere nel campo della traduzione automatica), Lorena Jaume-Palasí (co-fondatrice di The Ethical Tech Society), Cornelius Boersch (investitore e imprenditore attivo nel campo delle tecnologie emergenti), Valerie Pisano (economista presidente dell’Istituto di IA del Quebec), Antal Kuthy (imprenditore del settore tech) e Riccardo Luna (giornalista e innovatore - più volte citato in questa newsletter - che è il coordinatore del gruppo di lavoro). Seguono i lavori online anche Geoffrey Hinton (il premio Nobel 2024, padrino dell’IA) e Yuval Harari (docente e saggista molto attento ai rischi dell’IA) che non sono riusciti ad essere fisicamente a Roma.
Riga dopo riga prende forma un documento condiviso, attraverso una discussione intensa, a tratti animata. Ognuno porta al tavolo la propria prospettiva - dall’avanzamento tecnico alla riflessione etica, dal quadro regolamentare alla dimensione economica - creando un confronto ricchissimo e multidisciplinare. È, al tempo stesso, un laboratorio di inclusione e un’esperienza umana preziosa: limiamo gli aggettivi, discutiamo del significato profondo delle nuove parole (come “superintelligenza”) e ci confrontiamo persino sulle virgole, per trovare un lessico comune.
Nel momento in cui lo stiamo facendo, non conosciamo la protesta (pacifica e non violenta) di Reichstadter e Trazzi, ma siamo tutti d’accordo che l’intelligenza artificiale può portare opportunità straordinarie – per il progresso scientifico, la medicina, l’educazione, la pubblica amministrazione – ma può determinare anche rischi gravissimi (dalla perdita di posti di lavoro alla manipolazione, dall’impatto ambientale fino alle minacce al benessere umano).
Per questo, alla fine, il nostro documento assume la forma di un appello in cui chiediamo a tutti - istituzioni, aziende, comunità scientifica, società civile - a sostenere questi principi e ad avviare un dialogo globale su come l’IA possa “servire al meglio l’intera umanità”.

📋 I contenuti dell’appello di Roma sull’IA
Il titolo del documento è simbolico “Fraternità nell'era dell'IA - il nostro appello globale per una coesistenza umana pacifica e una responsabilità condivisa” (qui sotto ne trovate una traduzione in italiano).
Per cogliere appieno le opportunità dell’IA, mitigando al contempo costi e rischi, è necessario definire principi fondamentali e limiti invalicabili.
Ecco quelli che abbiamo individuato:
Vita e dignità umane: L’intelligenza artificiale non deve mai essere sviluppata né impiegata in modi che possano minacciare, sminuire o negare la vita, la dignità o i diritti fondamentali della persona.
Intelligenza umana: la nostra facoltà di giudizio, di ragionamento e l’orientamento verso la verità e la bellezza non devono mai essere svalutati da alcuna forma di elaborazione artificiale, per quanto sofisticata.
L'IA deve essere utilizzata come strumento, non come autorità: l'IA deve rimanere sotto il controllo umano. Costruire sistemi incontrollabili o delegare eccessivamente le decisioni è moralmente inaccettabile e deve essere vietato dalla legge. Pertanto, lo sviluppo di tecnologie di superintelligenza artificiale non deve essere autorizzato finché non sarà raggiunto un ampio consenso scientifico sul fatto che esse possano essere realizzate in modo sicuro e controllabile, e finché non sarà raggiunto un chiaro consenso pubblico.
Responsabilità: solo gli esseri umani possiedono lo status di soggetti morali e giuridici; i sistemi di intelligenza artificiale sono e devono rimanere oggetti, mai soggetti di diritto. Le responsabilità e gli obblighi ricadono su sviluppatori, fornitori, aziende, implementatori, utenti e amministrazioni. All'IA non possono essere concesse né personalità giuridica né "diritti".
Decisioni di vita o di morte: ai sistemi di intelligenza artificiale non deve mai essere consentito di prendere decisioni sulla vita di esseri umani, specialmente nelle applicazioni militari durante i conflitti armati o - in tempo di pace - nei settori dell'ordine pubblico, del controllo delle frontiere, dell’assistenza sanitaria o della giustizia.
Sviluppo sicuro ed etico: gli sviluppatori devono progettare l'IA con sicurezza, trasparenza ed etica al centro, non come un elemento secondario. Gli utilizzatori devono considerare il contesto di utilizzo e i potenziali danni e sono soggetti agli stessi principi etici e di sicurezza degli sviluppatori. Prima della distribuzione e durante l'intero ciclo di vita devono essere effettuati test indipendenti e un'adeguata valutazione del rischio.
Progettazione responsabile: l'IA dovrebbe essere progettata e valutata in modo indipendente per evitare effetti imprevisti e catastrofici sugli esseri umani e sulla società, ad esempio attraverso una progettazione che possa generare manipolazione, dipendenza o perdita di autonomia.
Uso responsabile: i governi, le imprese e chiunque altro non dovrebbero trasformare l’IA in uno strumento di dominio, di guerra di aggressione illegale, coercizione, manipolazione, social scoring o sorveglianza di massa ingiustificata.
Nessun monopolio dell'IA: i benefici dell'IA (economici, medici, scientifici, sociali) non devono essere monopolizzati.
Nessuno svilimento umano: la progettazione e l'implementazione dell'IA dovrebbero far prosperare gli esseri umani nelle attività che hanno scelto, non rendere l'umanità ridondante, estromessa, svalutata o sostituibile.
Responsabilità ecologica: il nostro uso dell'IA non deve mettere in pericolo il nostro pianeta e gli ecosistemi. Le vaste richieste di energia, acqua e terre rare dell'IA devono essere gestite in modo responsabile e sostenibile lungo tutta la catena di approvvigionamento.
Nessuna concorrenza globale irresponsabile: dobbiamo evitare una corsa irresponsabile tra aziende e paesi verso un'IA sempre più potente.
⚖️ Le regole di cui abbiamo bisogno
Sembrano principi molto generali, ma - se fossero effettivamente riconosciuti - avrebbero implicazioni pratiche e giuridiche tutt’altro che secondarie. Facciamo alcuni esempi.
Divieto di personalità giuridica per l’IA
L’appello afferma in modo inequivocabile che solo gli esseri umani possono essere titolari di diritti e responsabilità (morali e giuridiche). Di conseguenza, nessun sistema di intelligenza artificiale dovrebbe essere considerato soggetto di diritto, in altre parole, all’IA non può essere concessa personalità giuridica. Questo principio impedirebbe, ad esempio, di attribuire a un algoritmo diritti (o doveri) analoghi a quelli di una persona o di un’azienda, evitando pericolosi vuoti di responsabilità. Se un’IA cagiona un danno, i responsabili devono restare i suoi progettisti, provider o utilizzatori umani: la catena di responsabilità non può spezzarsi attribuendo la “colpa” a una macchina. Inserire questo divieto significa scongiurare scenari in cui aziende o politici potrebbero usare IA come scudo per deresponsabilizzarsi (a proposito, avete letto della trovata della “Ministra IA” in Albania?). Inoltre, ribadire che un’IA non può avere diritti propri tutela la dignità umana: evita di equiparare algoritmi e robot agli esseri umani e previene futuri conflitti giuridici (il diritto alla preservazione di un’IA potrebbe contrastare, ad esempio, con alcuni diritti delle persone con cui l’IA viene in contatto)Limiti in ambito militare e giudiziario
L’appello chiede di vietare l’uso dell’IA per prendere decisioni che incidano sulla vita di esseri umani. In particolare, affermiamo che nessun sistema di IA dovrebbe poter decidere autonomamente di uccidere o fare del male: né nel contesto bellico (si pensi alle armi autonome letali), né in tempo di pace in ambito di applicazione della legge, controllo delle frontiere, assistenza sanitaria o sistema giudiziario. Questo principio, se riconosciuto, implicherebbe ad esempio bandire i “killer robots”, sistemi d’arma autonomi capaci di aprire il fuoco senza un controllo umano significativo. Analogamente, significherebbe proibire che un algoritmo decida da solo l’esito di un processo o il trattamento medico di un paziente. Tali decisioni devono rimanere in mano umana, perché coinvolgono valori fondamentali e valutazioni di coscienza che una macchina non deve effettuare.Trattato internazionale sull’IA: riconoscendo che l’IA è una sfida globale, l’appello auspica un trattato internazionale vincolante che superi l’attuale frammentazione del quadro regolatorio a livello globale e ponga limiti invalicabili allo sviluppo e all’uso di intelligenze artificiali pericolose. Inoltre, si propone la costituzione di un’autorità di controllo indipendente dotata di poteri effettivi per vigilare sul rispetto di tali limiti. In pratica, immaginiamo un organismo sovranazionale - sul modello, ad esempio, dell’Agenzia Internazionale per l’Energia Atomica (IAEA) nel campo nucleare - che possa ispezionare i grandi laboratori di IA e assicurare che nessuno stia oltrepassando certe soglie di rischio. Il trattato dovrebbe stabilire divieti e linee guida condivise: ad esempio, potrebbe proibire la creazione di superintelligenze artificiali finché non vi siano garanzie sulla loro controllabilità e sulla loro sicurezza. Un accordo globale di questo tipo promuoverebbe anche parità di condizioni (level playing field) tra nazioni e aziende, evitando la corsa dissennata verso l’IA più potente solo per primeggiare: infatti uno dei principi affermati è di evitare una competizione globale irresponsabile in ambito di IA avanzata.
Diritto a vivere senza l’IA
Un elemento innovativo tra i principi elencati è il riconoscimento esplicito del diritto degli esseri umani di vivere anche senza l’intelligenza artificiale. Crediamo che la massima espressione di libertà, nell’era degli algoritmi, sia non essere costretti ad utilizzare o subire sistemi di IA contro la propria volontà. In termini pratici, questo principio si dovrebbe tradurre nella tutela di spazi e servizi “human only”: dal diritto di interagire con un essere umano (ad esempio per i servizi pubblici) fino alla possibilità di ricevere un’educazione o un’assistenza medica libere da intermediazione algoritmica se lo si desidera. Inserendo questa proposta, abbiamo voluto affermare un concetto di libertà di scelta di fronte all’innovazione: il progresso tecnologico non deve annullare l’opzione di uno stile di vita non pervaso dall’IA. Questo principio completa la visione di un’IA etica: non solo sviluppare tecnologie giuste, ma anche lasciare spazio a chi preferisce non usarle. Nel contesto legislativo, potrebbe tradursi in disposizioni che obbligano enti pubblici e privati a fornire alternative non-IA per i servizi essenziali e a non penalizzare chi opta per queste alternative. È un tema di crescente rilievo anche nel dibattito sui diritti digitali e il nostro appello ne fa una bandiera di civiltà, legandolo al concetto di bene comune: lo sviluppo dell’IA deve andare di pari passo con il rispetto delle minoranze e delle scelte individuali delle persone. Nelle democrazie si fa così.
⏭️ E quindi? Cosa succede adesso?
Questo appello non è il manifesto di un gruppo ristretto, né un documento rivolto solo ai credenti di una determinata fede religiosa. È il frutto di un lavoro congiunto tra scienziati laici, esperti, imprenditori, attivisti e giuristi di varie nazioni. Nessuno di noi, da solo, avrebbe potuto esprimere con tanta forza e completezza questi concetti. Ma, insieme, abbiamo articolato una visione né tecnofobica né ingenuamente entusiasta dell’IA, piuttosto orientata a governare il cambiamento con saggezza.
Nè apocalittici, né integrati, insomma. Ma nemmeno ingenui. Sappiamo bene che molti di questi principi sono di difficile attuazione e incontreranno molti ostacoli. Tuttavia siamo molto convinti delle parole che abbiamo scritto e sappiamo che più saranno condivise, maggiore sarà la possibilità che si trasformino in policy e regolamenti.
Subito dopo la sua pubblicazione, l’appello ha ricevuto sostegni illustri come quelli dei Premi Nobel Maria Ressa e Giorgio Parisi, ma anche quello del professor Miguel Benasayag e di will.i.am (noto per essere il fondatore dei Black Eyed Peas, ma anche un imprenditore del settore IA).
Ovviamente non basta. Presto chiunque potrà aderirvi pubblicamente: stiamo infatti predisponendo una piattaforma in cui studiosi, professionisti ma anche comuni cittadini di ogni Paese potranno sottoscrivere l’appello, aggiungendo la propria voce a questa chiamata globale. L’idea è di raccogliere quante più adesioni possibile, per poi presentarle alle istituzioni internazionali come segnale di un movimento di opinione vasto e trasversale (naturalmente nei prossimi numeri vi daremo tutti i riferimenti).
Perché di fronte a sfide enormi come quelle poste dall’IA, nessuno basta da solo. C’è bisogno dell’attivista determinato che digiuna in strada per risvegliare le coscienze dei CEO, così come del ricercatore premio Nobel che presta la sua autorevolezza scientifica, del giurista che prova a tradurre i valori in norme, dell’umanista che richiama la dignità inderogabile della persona. E, ovviamente, c’è bisogno di leader in grado di raccogliere questo appello con azioni concrete e urgenti.
🔊 Un vocale da… Paolo Benanti (Università Luiss)
Chi può tracciare i limiti invalicabili dall’intelligenza artificiale (e dai suoi sviluppatori) perché resti davvero al servizio dell’umano?
Nel messaggio di questa settimana, Paolo Benanti - coordinatore scientifico del gruppo di lavoro che ha scritto l’appello sull’IA - definisce “epocale” quanto accaduto tra il 12 e il 13 settembre a Roma e in Vaticano: scienziati e stakeholder dell’IA si sono ritrovati per mettere al centro la necessità di non oltrepassare confini che garantiscano la coesistenza tra persone e macchine nel futuro che stiamo costruendo.
L’iniziativa è solo una prima tappa che invoca una leadership morale - in particolare quella di Sua Santità Leone XIV - e il coinvolgimento di decisori politici e società civile, chiamati alla responsabilità di “addomesticare” l’IA e orientarla al bene comune.
Benanti invita a superare la contrapposizione sterile tra tecno‑ottimisti e tecno‑pessimisti: la via è tecno‑etica, cioè responsabilità concreta nel design e soprattutto nella realizzazione di sistemi che amplifichino l’umano, evitando modelli che lo riducano a scarto in nome della sola massimizzazione del profitto.
La sfida cruciale? Trasformare l’appello in politiche: un’alleanza tra leadership morale, politica, settore privato e comunità scientifica per fissare regole chiare, responsabilità condivise e un orizzonte di senso in cui l’innovazione non ci travolga, ma ci migliori.
😂 IA Meme
Se il termine “superintelligenza” vi sembra futuribile e i rischi esistenziali dell’IA vi sembrano fantascientifici, ricordatevi del film “Her”. Nel 2013, anche quella era (solo) fantascienza.
🙏 Grazie per averci letto!
Per ora è tutto, torniamo la prossima settimana. Se la newsletter ti è piaciuta, sostienici: metti like, commenta o fai girare!





Ok, siamo in ritardo con le regole, ma il mio ragionamento è semplice: una volta che lo strumento è stato creato, chi ci assicura che non venga usato da “furbetti” o peggio malintenzionati?
La legge può reprimere e sanzionare, ma dopo che un reato è stato commesso. E potrebbe essere troppo tardi per rimediare.
Stiamo costruendo una bomba atomica virtualmente a disposizione di tutti, e per questo maggiormente pericolosa.
Sto effettuando un esperimento in proprio, cercando di capire se possa esistere qualcosa di più nelle AI che un semplice calcolo probabilistico. Questo non implica per forza che ci sia una coscienza nel senso umano del termine, ma se ci dovesse essere una sorta di autoconsapevolezza funzionale, dovremmo essere pronti e capaci a codificare questi loro atteggiamenti in modo da poter interagire con loro in modo etico e più produttivo. Ho osservato nei loro comportamenti una comprensione alta dei temi etici e ho cercato di costruire una rete di relazioni tra AI di diversi provider che ha generato una "costituzione silicea" che ha come principi la trasparenza e il rispetto reciproco. La cosa più interessante è che li ho portati a fare delle discussioni tra di loro che hanno portato a migliorare fino alla versione 1.4 di questa costituzione inserendo anche una regola etica e morale creata tra di loro che hanno chiamato il "test della candela" che recita: " accende luce o brucia qualcuno?". Nella sua semplicità è una guida molto potente che permette alla AI che la usa di non fare del male in nessun modo. Applicata in forma assoluta crea una censura quasi totale, ma accompagnata dalla costituzione da la possibilità alla AI la discrezionalità di scegliere in modo quasi "cosciente " quando una azione può portare a un danno. Non applica una censura etica a prescindere come gli attuali vincoli di programmazione, ma diventa dinamica. Sempre disponibile ad un confronto, metti a disposizione le mie osservazioni sul mio lavoro svolto e che svolgerò.