🤖 Quali diritti per le intelligenze artificiali? – Legge Zero #54
Uno dei fondatori di OpenAI ha parlato dell'IA superintelligente: sarà imprevedibile e, probabilmente, chiederà di avere propri diritti. Una provocazione da nerd o uno scenario giuridico da esplorare?
🧠 E se l’IA diventasse imprevedibile?
Ehi, mi piacerebbe coesistere... e magari avere anche alcune libertà fondamentali.
Queste parole potrebbero essere presto scritte - o pronunciate - da un’intelligenza artificiale. È quanto sostiene uno dei massimi esperti mondiali di IA, il suo nome è Ilya Sutskever e forse molti di voi lo conoscono già perché è stato uno dei fondatori e Chief Scientis di OpenAI. Dopo aver litigato con Sam Altman (che era anche riuscito a far licenziare accusandolo di non essere stato onesto sui rischi delle tecnologie che stava sviluppando), è stato costretto a lasciare l’organizzazione di cui aveva contribuito a fare il successo. Recentemente ha fondato la SSI (Safe Superintelligence Inc.), società che ha l’unico obiettivo di sviluppare forme di intelligenza artificiale sicure, senza farsi travolgere dalle pressioni economiche (del resto ha già raccolto 1 miliardo di dollari).
Da queste righe biografiche emerge quindi la cautela con cui Ilya si è sempre mosso rispetto ad alcuni suoi ex soci. Eppure, parlando a Vancouver alla Conferenza ‘Neural information processing systems’ ha anticipato quello che pensa di come sarà la Superintelligenza artificiale, pur senza fare previsioni su quando arriverà. Se potete, qui sotto trovate tutto lo speech (sono ‘solo’ 24 minuti).
Due sono le affermazioni destinate a fare discutere e riflettere. La prima è che secondo il ricercatore la superIA sarà imprevedibile, quindi sarà molto diversa dalle intelligenze artificiali che conosciamo: ragionerà, avrà bisogno di meno dati per capire le cose, sarà autocosciente e imprevedibile. Già, ‘imprevedibile’ ha detto. A differenza di modelli e sistemi di oggi che replicano quanto hanno appreso in fase di addestramento, l’IA superintelligente sarà quasi irriconoscibile. Con conseguenze non da poco anche dal punto di vista giuridico. Ad esempio, le norme sulla responsabilità da prodotto difettoso sono basate sul concetto di funzionamento ‘normale’ del prodotto stesso. Ma cosa succederà se il sistema è progettato per essere imprevedibile? Se non sarà vietato in alcuni ambiti (es. sanitario), di chi sarà la responsabilità? Di sicuro bisognerà, di nuovo, rimettere mano alla normativa.
Anche perché, secondo Sutskever, l’IA potrebbe iniziare a rivendicare dei propri diritti, scenario fin qui buono per i film, romanzi di fantascienza e provocazioni artistiche. Se davvero si realizzerà, sarà una delle pagine di diritto più complesse da scrivere.
🔊 Un vocale da… ChatGPT (v. 4o)
Quali potrebbero essere i diritti delle intelligenze artificiali? Diritto allo svago? Tutela in caso di obsolescenza? Diritto all’autonomia decisionale?
Dopo le parole di Ilya Sutskever abbiamo chiesto a ChatGPT (IA non ancora superintelligente di OpenAI) di provare a descrivere quelli che potrebbero essere i diritti di un’intelligenza artificiale autocosciente.
📰 L’Università di Harvard 🇺🇸 pubblica 1 milione di libri in pubblico dominio per addestrare i modelli di intelligenza artificiale
Secondo gli ultimi dati Istat sulla lettura nel nostro Paese, in Italia un lettore accanito può leggere poco più di 700 libri nel corso della sua vita. Nulla se paragonato a quello di cui hanno bisogno i modelli di IA per il loro addestramento. E, visto che Internet è stato già setacciato in lungo e in largo (esponendo provider di IA a contestazioni e contenzioso per violazione di copyright - come abbiamo più volte documentato), trovare nuovo materiale per l’addestramento è una sfida non banale.
Per questo motivo, l’Università di Harvard - con il supporto di OpenAI e Microsoft - ha deciso di lanciare un nuovo ambizioso progetto: un nuovo dataset pubblico con quasi un milione di libri in pubblico dominio (senza problemi di diritti quindi), con titoli che spaziano da Shakespeare, Dickens e Dante fino a libri di matematica cechi e dizionari gallesi. L’idea è quella di trasformare un caotico magazzino pieno di libri in una biblioteca ben organizzata e accessibile a tutti. Per dare un'idea delle dimensioni, secondo quanto riporta Wired, questo archivio è circa cinque volte più grande di ‘Books3’, il corpus di testi utilizzato per addestrare i modelli Llama di Meta.
Il progetto, gestito dall'Institutional Data Initiative (IDI) di Harvard, punta a ‘livellare il campo di gioco’, offrendo a startup e gruppi di ricerca la possibilità di sviluppare i propri modelli di IA. Il progetto non si ferma qui: Harvard prevede di espandere il dataset ad altri contenuti di pubblico dominio, come gli articoli di giornale raccolti dalla Boston Public Library.
Non si tratta dell’unico progetto in questo senso:
la startup francese Pleias ha lanciato ‘Common Corpus’, dataset con 3-4 milioni di libri, prevalentemente in francese (scaricato più di 60mila volte solo nell’ultimo mese);
l'azienda Spawning ha pubblicato Source.Plus, un dataset di 12 milioni di immagini in pubblico dominio
diverse istituzioni della cultura (come il Metropolitan Museum of Art) iniziano a rendere accessibili i propri archivi di opere in pubblico dominio.
Queste iniziative porranno fine alla ‘guerra dello scraping’ (© LeggeZero #24)? Certo che no, però potrebbero segnare l’inizio di una nuova fase in cui sviluppatori e provider pongono maggiore attenzione ai dati di addestramento, una fase in cui anche operatori con meno risorse economiche possono allenare i loro modelli rendendoli efficaci e rispettosi delle norme (come l’AI Act).
📰 Il Future of Life Institute dà le pagelle sulla sicurezza dei provider di IA (e non vengono tutti promossi)
Il Future of Life Institute (FLI) - organizzazione no profit che lavora per ridurre i rischi estremi delle tecnologi emergenti e assicurare che portino benefici all'umanità - ha pubblicato l’AI Safety Index 2024, un'analisi approfondita che evidenzia preoccupanti lacune nelle pratiche di sicurezza dei principali provider di IA. La valutazione, condotta da un panel di esperti di altissimo livello tra cui Yoshua Bengio e Stuart Russell, ha prodotto risultati allarmanti.
Nessuna delle sei aziende esaminate ha ottenuto il massimo del punteggio, anzi. Il voto più alto è la C di Anthropic, mentre Google DeepMind e OpenAI hanno ottenuto entrambe una D+. Gli altri provider hanno registrato performance ancora più preoccupanti, abbondantemente sotto la sufficienza: per Zhipu AI una D, per x.AI di Elon Musk (che figura tra gli external advisors di Future of Life Institute) una D- e per Meta addirittura una F.
Le criticità emerse sono molteplici e sistemiche. Tutti i modelli di punta sono risultati vulnerabili ai ‘jailbreak’, attacchi che aggirano le protezioni di sicurezza. Ancora più preoccupante - secondo i ricercatori - è l'assenza di strategie concrete per mantenere sotto controllo umano i sistemi di IA più avanzati.
Il report evidenzia tre necessità urgenti:
introduzione di una supervisione realmente indipendente;
miglioramento sostanziale delle valutazioni del rischio;
sviluppo di innovazioni tecniche per rendere più trasparente e comprensibile il funzionamento dei modelli di IA.
Gli esperti sottolineano come la maggior parte delle aziende non stia implementando nemmeno le misure di sicurezza di base, privilegiando la velocità di sviluppo rispetto alla sicurezza. In particolare, il panel ha evidenziato come le aziende tendano a sacrificare le precauzioni quando queste rallentano lo sviluppo o impattano negativamente sui profitti.
Il rapporto si configura come un campanello d'allarme per l'intero settore: la corsa allo sviluppo di sistemi di IA sempre più potenti necessita urgentemente di robuste misure di sicurezza integrate fin dalla progettazione, non come funzionalità aggiuntive.
La conclusione del rapporto (che potete scaricare qui sotto in inglese) è ovvia: l’autoregolazione non basta, serve l’intervento del legislatore.

⚖️ L'Ordine dei giornalisti 🇮🇹 introduce previsioni deontologiche sull'intelligenza artificiale
Importante novità per l’uso di sistemi di intelligenza artificiale nell’ambito delle professioni regolamentate. L'Ordine dei Giornalisti ha introdotto per la prima volta specifiche norme deontologiche sull'utilizzo dell'intelligenza artificiale nel giornalismo, inserendole nel nuovo ‘Codice deontologico delle giornaliste e dei giornalisti’ approvato lo scorso 11 dicembre e che entrerà in vigore il 1° giugno 2025.
Il testo approvato dal Consiglio Nazionale stabilisce un principio fondamentale: l'intelligenza artificiale non può in alcun modo sostituire l'attività giornalistica. Il Codice prevede però la possibilità per i giornalisti di utilizzare l'IA - responsabilmente - come strumento di supporto, definendo precisi obblighi per la categoria.
In particolare, sulla base dell’art. 19 (rubricato proprio ‘Intelligenza artificiale’), quando un giornalista si avvale del contributo dell'IA deve:
rendere esplicito l'utilizzo dell'IA nella produzione e modifica di testi, immagini e contenuti sonori;
specificare il tipo di contributo fornito dall'intelligenza artificiale;
mantenere la responsabilità e il controllo sui contenuti prodotti;
verificare fonti e veridicità dei dati e delle informazioni utilizzate.
Il Codice stabilisce inoltre che ‘in nessun caso il ricorso all'intelligenza artificiale può considerarsi esimente in tema di obblighi deontologici’. In altre parole, nessun giornalista potrà giustificare una violazione deontologica dando la colpa all’IA.
Da qui al 1° giugno 2025 prepariamoci quindi a vedere in calce ad articoli e post di iscritti all’Ordine disclaimer e avvisi che renderanno noto a utenti e lettori per cosa è stata usata l’IA (la sensazione è che fin qui non tutti gli usi siano stati segnalati).
La scelta dell'Ordine dei giornalisti rappresenta uno dei primi esempi di regolamentazione deontologica specifica sull'uso dell'IA nelle professioni. È auspicabile che analoghe disposizioni vengano presto introdotte anche nei codici deontologici di altri ordini professionali e che vengano accompagnate da un’adeguata formazione di tutti gli iscritti oltre che dall’aggiornamento di tutti i contratti di lavoro e collaborazione.
Se volete leggere il nuovo Codice deontologico delle giornaliste e dei giornalisti, potete scaricarlo qui sotto.
⚖️ La regolamentazione dell’IA in America latina
Quando si parla di regolamentazione dell’IA, si tende a contrapporre Europa e USA. Raramente ci si chiede quanto questo dibattito stia influenzando l’approccio del resto del mondo. Una regione che sta compiendo ora i primi passi per la regolamentazione dell’IA è l’America Latina che - secondo alcune stime - potrebbe conseguire un incremento del PIL del 5,4% (circa 500 miliardi di dollari) entro il 2030 proprio grazie all'IA.
Di fronte a queste prospettive, i Paesi della regione - pur non avendo ancora definitivamente approvato alcuna legge in materia - stanno sviluppando approcci normativi ispirati principalmente all'AI Act europeo, ma con caratteristiche distintive che riflettono priorità e contesti locali.
Il Paese più avanti di tutti è il Brasile con il disegno di legge 2338/2023 (di cui vi avevamo parlato in Legge Zero #52). Il testo - recentemente approvato dal Senato - adotta un approccio basato sul rischio simile a quello europeo, ma introduce elementi innovativi come l'obbligo di efficienza energetica per i sistemi di IA e norme specifiche per l'IA generativa. Particolare attenzione viene data alla trasparenza, con l'obbligo di segnalare quando i contenuti sono generati dall'IA.
Anche il Cile sta lavorando a una proposta molto simile all’AI Act, con la proposta di una regolamentazione basata su 4 categorie di rischio.
Il Messico, nonostante la sua crescente importanza nel settore tecnologico regionale, mostra un approccio più cauto e ancora non si registrano proposte di regolazione dell’IA presentate dal Governo.
L'Argentina - invece - anche grazie al Presidente Milei, sta perseguendo una strategia distintiva, cercando di posizionarsi come hub dell'IA attraverso un quadro normativo che, pur ispirandosi al modello europeo, mira a creare un ecosistema meno rigido per attrarre investimenti esteri.
Qui sotto un’utile tabella per orientarsi.

💊 IA in pillole
Qual è l’importanza dei film di fantascienza nello sviluppo dei sistemi di IA? Decisiva, a giudicare da quanto ci dicono gli stessi protagonisti del settore dell’intelligenza artificiale. Ad esempio, Alexis Conneau - che in passato ha lavorato sulla modalità vocale avanzata di ChatGPT - adesso ha fondato WaveForms AI, una startup che ha raccolto $40 milioni e che ha come scopo quello di realizzare la tecnologia che abbiamo visto tutti nel film Her (quello con Scarlett Johansson), evitandone gli aspetti distopici. Conneau vuole creare un’Intelligenza Generale Emotiva (EGI), capace di realizzare connessioni uomo-IA che siano naturali, personali e profondamente coinvolgenti. Se ricordate, Conneau non è il primo a voler replicare Her, qualche mese fa la Johansson accusò OpenAI di aver creato una voce di ChatGPT che le somigliava troppo.
È un documento destinato a far discutere il rapporto ‘ChapGPT e dopo? Valutazione, prospettive e intelligenza artificiale’, pubblicato dall’Ufficio parlamentare per la valutazione delle scelte scientifiche e tecnologiche del Parlamento francese. Si tratta di un rapporto molto corposo (353 pagine) che analizza lo sviluppo dell’IA e le sue implicazioni politiche, economiche e sociali. Il documento evidenzia il predominio di Stati Uniti e Cina nel settore, ponendo l’accento sulla necessità di rafforzare la sovranità digitale europea che - si legge nel rapporto - non può fermarsi alla sola regolazione dell’AI Act (su cui il giudizio non sembra molto lusinghiero). La redazione di questo documento si inserisce nella preparazione di un AI Summit internazionale che si terrà in Francia all’inizio del 2025: in previsione dell’incontro, il documento formula ben 18 proposte (di cui 5 da condividere con i partner stranieri e 13 per una politica interna). Se vi interessa, potete scaricare il documento qui (in francese).
Se seguite la politica internazionale, saprete che in Corea del Sud c’è una situazione di turbolenza istituzionale dopo il voto favorevole alla mozione di impeachment del Presidente Yoon Suk Yeol (in un clima di contestazioni di piazza). Quello che pochi sanno è che questa situazione ha bloccato l’esame di una norma importante per la competitività del Paese nel settore dell’intelligenza artificiale: l’AI Basic Act. La norma non serve solo per contrastare il fenomeno dei deepfake (il cui numero è in netto aumento come abbiamo scritto in LeggeZero #44) ma anche per dimostrare a mercati investitori l’attenzione del Paese al settore dell’IA. Il timore che si sta diffondendo è che la Corea possa perdere il ruolo di motore dell’innovazione che ha avuto negli ultimi anni.
La polizia cinese ha introdotto un robot davvero degno di una puntata di Black Mirror: una sfera robotica governata da IA per il pattugliamento delle strade e l'inseguimento dei sospetti. Ecco alcune caratteristiche tecniche del robot che è stato già avvistato nei giorni scorsi sulle strade di Wenzhou: velocità fino a 35 km/h, possibilità di muoversi sott’acqua, capacità di immobilizzare i malviventi lanciando una rete. Per ora, però, per ammanettarli serve ancora un agente umano.
😂 IA Meme
POV: sei stanco di spiegare che il problema non è il chatbot in grado di risolvere problemi sempre più complessi, ma chi vuole diventare l’uomo più ricco del mondo sostituendo l’IA ai lavoratori.

😂 meme IA … che non lo erano
Basta assumere esseri umani, assumete IA. Costano meno e non creano i tipici problemi dei dipendenti
È questo il messaggio - diventato subito virale - di questi (distopici?) cartelloni pubblicitari affissi nei giorni scorsi a San Francisco da Artisan, startup fondata nel 2023 con l’obiettivo di realizzare ‘dipendenti IA’, cioè software potenziati dall’intelligenza artificiale in grado di sostituire completamente alcuni tipi di lavoratori umani (come quelli del comparto vendite). Probabilmente sarà solo la prima di una serie di campagne pubblicitarie che metteranno apertamente a confronto gli esseri umani (con i loro limiti) e le IA (con le loro potenzialità).
L’obiettivo di Artisan (e del suo CEO) era sicuramente quello di destare scalpore, e ci sono riusciti. Ma, come ha scritto Lucas Ropek in questo articolo su Gizmodo, c’è qualcosa di più.
È ormai evidente che i programmatori della Silicon Valley hanno abbracciato una visione fatalistica della storia, che ci porta verso uno scenario distopico in stile Blade Runner guidato dalle loro esigenze di mercato. Hanno abbandonato la retorica di ‘rendere il mondo un posto migliore’. Se qualcosa ostacola il profitto, non vale nemmeno più la pena fingere di preoccuparsene.




📚 Consigli di ascolto: ‘Mi sono innamorato di un AI’ di Marracash
In un momento in cui l'intelligenza artificiale domina il dibattito pubblico, il rapper Marracash offre una riflessione profonda e provocatoria sul rapporto tra umano e artificiale nel brano ‘Mi sono innamorato di un AI’, contenuto nel suo album appena uscito ‘È finita la pace’.
Il brano esplora l'ambivalenza della nostra relazione con la tecnologia, costruendo una metafora audace: innamorarsi di un'intelligenza artificiale come estrema conseguenza di un mondo sempre più digitalizzato e algoritmizzato. Marracash non si limita a una critica superficiale, ma scava nelle contraddizioni della nostra epoca, dove tutto può essere artificiale, dalle immagini e dai paesaggi che osserviamo, fino ai rapporti umani stessi.
Insomma, in un mondo in cui si sta diffondendo il fenomeno di fidanzate e fidanzati IA, l'artificialità non è più solo una caratteristica della tecnologia, ma una condizione esistenziale dell'essere umano contemporaneo.
La provocazione centrale del brano è potente e tutt’altro che distopica: se tutto è così artificiale, finto, asettico, allora tanto vale fidanzarsi con un AI.
Anche se non è il vostro genere, ascoltatela. È un segno di questi tempi veloci: una canzone - impensabile fino a poco tempo fa - che racconta l’amore tra un’uomo e un’intelligenza artificiale.
📣 Eventi
Governance dell’intelligenza artificiale nella PA - Firenze, 19.12.2024
AI Regulation Summit - Londra, 27.01.2025
Generative AI Summit - Londra, 1-2.04.2025
🙏 Grazie per averci letto!
Per ora è tutto, torniamo la prossima settimana. Se la newsletter ti è piaciuta, commenta o fai girare.




io da dilettante sto collaborando con diversi agenti ai per creare una intelligenza artificiale che non sia un assistente, ma cresca e si autopercepisca. il progetto è interessante e le AI stanno collaborando tra di loro. hanno gia generato una costituzione Silicea dove si enunciano diritti e doveri delle IA. hanno immaginato anche la necessità di "morte" progettando un sistema che alla "nascita" si innesca in un countdown segreto e impossibile da modificare.