🤖 Il Summit sull'IA di cui avevamo bisogno - Legge Zero #61
I leader internazionali si sono incontrati a Parigi per discutere del futuro dell'IA ma non hanno raggiunto risultati apprezzabili. In compenso l'Europa ha cambiato rotta sulle regole dell'IA.
🧠 L’AI Action Summit di Parigi è stato un fallimento?
Come bambini e ragazzi, le nostre vite sono già influenzate dall'IA, ma raramente ci viene chiesto cosa ne pensiamo. Spesso gli adulti non prendono sul serio le nostre opinioni, ma noi abbiamo molte idee su come l'IA dovrebbe essere sviluppata o utilizzata, e anche su come non dovrebbe.
Vogliamo che le nostre voci siano ascoltate.
Questo manifesto definisce le nostre priorità e ciò che vogliamo che i leader mondiali sappiano sulle speranze e le preoccupazioni dei bambini riguardo all'IA, in occasione del vertice sull'IA di Parigi.
È questo il preambolo del Children’s Manifesto for The Future of AI, bella iniziativa promossa dall’Alan Touring Institute e presentata nel corso del Children’s AI Summit. Centocinquanta bambini e ragazzi, di età compresa tra gli 8 e i 18 anni, si sono riuniti a Londra per scrivere un Manifesto con le loro richieste da sottoporre ai leader mondiali che si sarebbero incontrati pochi giorni dopo a Parigi in occasione dell’AI Action Summit organizzato dai governi di Francia e India.
Il Manifesto dei bambini sull’IA è un documento molto interessante che potete leggere qui nella sua versione integrale (29 pagine in inglese).
Queste le richieste ai leader mondiali:
• Ascoltate i bambini!
• Considerate le esperienze e le esigenze dei bambini e mettete in atto misure per garantire che l'IA sia sicura per loro, come ad esempio limitazioni sui social media.
• Adottate nuove leggi che garantiscano uno sviluppo e un utilizzo etico dell'IA.
• Affrontate gli impatti ambientali dell'IA: vogliamo che l'IA sia alimentata da fonti di energia pulita.
• Create maggiore consapevolezza sull'IA, fornendo indicazioni e consigli, in modo che le persone comprendano meglio cos'è e come funziona, e anche come possiamo utilizzarla in modo sicuro e appropriato.
• Richiedete alle aziende di essere trasparenti e oneste su come utilizzano l'IA e di essere chiare su come i sistemi di IA sono stati sviluppati.
• Monitorate tutti i dati di addestramento utilizzati per sviluppare modelli di intelligenza artificiale, evitando pregiudizi e discriminazioni.
• Garantite che i sistemi di intelligenza artificiale siano protetti da hacker e criminali.
• Assicuratevi che tutti i bambini abbiano l'opportunità di beneficiare dell'intelligenza artificiale.
Qualche giorno dopo a Parigi si è effettivamente svolto l’AI Action Summit (che vi avevamo anticipato nello scorso numero della newsletter). L’incontro - che ha seguito il meeting di Bletchley Park del 2023 (ne parlammo in LeggeZero #0) - ha coinvolto esperti di tecnologia, accademici, imprenditori, rappresentanti della società civile e leader di oltre 100 Paesi che hanno raggiunto la capitale francese per parlare del futuro dell’IA (tra gli assenti si segnalano il governo UK, Elon Musk e il CEO di DeepSeek).
Prima dell'incontro, il presidente francese Emmanuel Macron ha annunciato un pacchetto di investimenti da 109 miliardi di euro per progetti di intelligenza artificiale in Francia, equivalente (calcolato in base alle dimensioni della popolazione relativa) all'annuncio statunitense di Stargate di alcune settimane fa. Per lanciare l’incontro, Macron ha postato un video - dichiaratamente deepfake - che lo vedeva come protagonista.
Il Summimt si è chiuso - in modo deludente - con la firma di una dichiarazione molto vaga sulla necessità di sviluppare un'intelligenza artificiale che sia aperta, inclusiva ed etica (qualunque cosa significhi). La dichiarazione, tra l’altro, è stata firmata solo da 61 Stati (tra cui ci sono Francia, India, Germania, Vaticano, Giappone, Australia, Canada e Cina).
USA e UK, sia pure per ragioni diverse, si sono rifiutati di sottoscrivere il documento. Il Vicepresidente USA Vance, nel suo primo viaggio all'estero (come vicepresidente), ha attaccato l’approccio regolatorio europeo, affermando che le norme dell'UE potrebbero soffocare l'innovazione nel settore dell'intelligenza artificiale (e quindi di fatto, ha promosso la dottrina della deregulation statunitense).
Una volta tanto, la risposta dell’UE non si è fatta attendere ed è apparsa improntata a smentire la fama di un continente capace solo di regolare le tecnologie sviluppate altrove. Innanzitutto, la Presidente della Commissione Usula von der Leyen ha annunciato investimenti per 200 miliardi di euro nel settore dell’IA. Nelle stesse ore, la vicepresidente della Commissione - Henna Virkkunen, responsabile delle politiche digitali - ha annunciato lo stop a due iniziative normative avviate da tempo: la direttiva sulla responsabilità dell’IA e la direttiva e-privacy (qui un approfondimento di TechCrunch). Insomma, nessuna marcia indietro sull’AI Act e sul GDPR (per ora), ma niente altre norme per le imprese che vogliano offrire i servizi sul mercato europeo.
L’incontro di Parigi, per quanto avaro di risultati concreti, ha quindi consentito all’Europa di correggere parzialmente la propria rotta, cercando di recuperare terreno nel settore dell’IA.
Speriamo però che in vista del prossimo vertice, che si terrà in India, qualcuno dei leader abbia il tempo di rispondere anche alle richieste di bambini e ragazzi.
🔊 Un vocale da… Alessandro Aresu (Saggista)
In cosa consiste la geopolitica dell’intelligenza artificiale? E come possiamo ricostruire l’interazione tra la politica e l’economia nelle principali dinamiche che la caratterizzano?
Nella settimana dell’AI Action Summit di Parigi, ce lo spiega un esperto, autore di Geopolitica dell’intelligenza artificiale (lettura più che consigliata), soffermandosi sull’interazione tra tre fattori: i talenti, i capitali e le imprese.
Un contributo che ci aiuta a comprendere le dinamiche tra i principali attori a livello internazionale: USA, Cina e India. Con l’Europa che, al momento, è all’inseguimento.
📰 OpenAI ha deciso di lasciare più libertà a ChatGPT in relazione ai temi controversi
Se usate ChatGPT, vi sarà capitato di imbattervi in un avviso di contenuto (chiamato anche ‘orange box’, dal colore utilizzato per rendere l’avviso più evidente). Si trattava di messaggi che avvisavano gli utenti in relazione a prompt che avrebbero potuto causare una violazione dei termini di servizio della piattaforma.

Senza tanto clamore, nei giorni scorsi OpenAI ha deciso di eliminare questi avvisi.
Laurentia Romaniuk, membro del team che si occupa del comportamento dei modelli AI in OpenAI, ha spiegato che la modifica ha l'obiettivo di ridurre i rifiuti ingiustificati di risposta da parte del chatbot. Nick Turley, uno dei responsabili ChatGPT, ha confermato la decisione, sottolineando che gli utenti potranno ora interagire con il chatbot in modo più fluido, purché rispettino la legge e non richiedano contenuti dannosi.
Nonostante l’eliminazione di questi avvisi, OpenAI chiarisce che ChatGPT continuerà a non rispondere a domande inappropriate o basate su informazioni false, come richieste relative a teorie del complotto. Tuttavia, la scelta potrebbe essere anche una risposta alle accuse di censura mosse da alcuni esponenti conservatori, tra cui Elon Musk e David Sacks (lo Zar USA dell’IA), che hanno criticato OpenAI per un orientamento troppo progressista.
Parallelamente, OpenAI ha aggiornato il documento Model Spec, che definisce le linee guida del modello, precisando che ChatGPT non eviterà più di trattare argomenti sensibili e adotterà un approccio più neutrale.
Questo aggiornamento segna un nuovo bilanciamento tra trasparenza, libertà d’uso e controllo dei contenuti. Un bilanciamento che sembra più allineato alla nuova fase della governance del settore tech in USA, improntato ai principi di deregulation e garanzia della libertà di manifestazione del pensiero.
È possibile che la decisione sia stata influenzata anche dalla concorrenza, considerando che alcuni competitor, come Grok di Elon Musk, fanno dell'assenza di censure un proprio tratto distintivo.
Ultima cosa da segnalare: il cambiamento - deciso in autonomia dai gestori della piattaforma - non risulta dai termini d’uso ma deriva dalle istruzioni date al modello dagli sviluppatori. Come diceva il prof. Lawrence Lessig, ‘code is law’.
⚖️ Editori 1 - Provider di IA 0: negli Stati Uniti 🇺🇸 la prima sentenza su violazioni del copyright per addestramento delle intelligenza artificiali
Dagli USA - che non vogliono regole sull’IA - arriva una sentenza che potrebbe avere un notevole impatto nel settore.
Un giudice federale del Delaware ha stabilito che la startup di ricerca legale Ross Intelligence non poteva utilizzare senza autorizzazione i contenuti di Thomson Reuters per addestrare la propria piattaforma basata su intelligenza artificiale.
La decisione rappresenta il primo caso negli Stati Uniti che affronta la questione del c.d. fair use in relazione all’uso di contenuti protetti da copyright per l’addestramento di sistemi di IA (l’azione giudiziaria era stata avviata nel 2020, ben prima del lancio di ChatGPT).
Il giudice Stephanos Bibas ha respinto tutti gli argomenti di difesa di Ross Intelligence, concludendo che il contenuto editoriale di Westlaw – il database giuridico di Thomson Reuters – è protetto da copyright e non poteva essere copiato senza consenso.
Questa sentenza potrebbe avere ripercussioni significative su altri procedimenti in corso che coinvolgono OpenAI, Google, Meta e tutti i principali provider di IA. Infatti, le aziende tecnologiche sostengono che l’uso di materiali protetti per addestrare IA generativa rientri nel fair use. Sebbene il caso Ross Intelligence riguardi un’IA non generativa, il principio stabilito potrebbe essere usato come precedente giuridico per altre controversie sul copyright (nei Paesi di common law come gli USA, infatti, i precedenti giudiziari sono vincolanti per tutti i futuri casi analoghi).
A questo punto, sarà importante vedere se Ross Intelligence proporrà appello.
La sentenza (in inglese) può essere scaricata qui.
💊 IA in pillole
L’Italia ha partecipato al Summit di Parigi con una delegazione governativa guidata dal Ministro delle imprese e del Made in Italy, Adolfo Urso, sottoscrivendo la dichiarazione finale. La partecipazione al Summit non è stata però accompagnata da nessun annuncio particolare, specialmente in termini di investimenti.
Al momento, l’attenzione sembra tutta concentrata sul DDL governativo in materia di IA, il Disegno di legge AS 1146 (di cui ci siamo occupati più volte e a cui abbiamo dedicato anche un numero speciale).
Nei giorni scorsi, la Rete Diritti Umani Digitali - che riunisce diverse associazioni attive sul tema dell’impatto delle nuove tecnologie sui diritti fondamentali - ha aggiornato il proprio policy paper, in cui sostiene l’importanza che l’Italia affidi a un’autorità amministrativa indipendente la vigilanza sull’applicazione dell’AI Act. Secondo la Rete Diritti Umani Digitali, ACN e Agid (le agenzie alle quali il DDL assegnerebbe le competenze in materia di IA) non sarebbero realmente indipendenti (se ricordate, in LeggeZero #53 abbiamo dato atto di come anche la Commissione Europea abbia scritto all’Italia per richiamarla su diversi aspetti, tra cui questo dell’indipendenza dell’Autorità competente). Nelle prossime settimane è atteso il voto del Senato e vedremo se ci saranno novità in materia di governance italiana dell’IA, aspetto importantissimo anche per tutti gli attori (pubblici e privati) che hanno bisogno di confrontarsi con le istituzioni per avere certezze sull’attuazione delle norme europee in materia di IA.Uno dei profili su cui è auspicabile che il legislatore italiano intervenga è quello delle regulatory sandboxes, strumenti normativi che consentono alle aziende di testare nuove tecnologie (nel caso specifico di intelligenza artificiale), approfittando di esenzioni temporanee e flessibilità della normative vigente. Nei giorni scorsi - sul sito del CINI (Consorzio interuniversitario nazionale per l’informatica) - è stato pubblicato un interessante white paper che approfondisce le implicazioni teoriche e pratiche delle sandboxes.
, uno degli autori di questa newsletter, nel capitolo ‘Tort Liability and Regulatory Sandboxes’. Ci si chiede: chi paga se un’ IA in fase di test provoca danni? L’AI Act non fornisce una risposta precisa, affidando la questione ai legislatori nazionali, con il rischio di aprire la strada a decisioni contrastanti. Due sono le strade percorribili: quella della responsabilità oggettiva, sostenuta dalla Normativa Europea, e quella della responsabilità per colpa.
Dal punto di vista giuridico, un problema centrale rimane quello della responsabilità civile. Il tema è stato affrontato dal prof.La prima garantisce una tutela maggiore, ma la seconda evita di scoraggiare la partecipazione al progetto di start up e piccole imprese, imponendo responsabilità più severe solo nel momento in cui il prodotto accede al mercato.
Oltre 6.000 persone hanno firmato una petizione per chiedere a Christie's New York di annullare un'asta dedicata esclusivamente all'arte generata con l'intelligenza artificiale. L’asta, prevista tra il 20 febbraio e il 5 marzo, include opere di artisti umani come Refik Anadol, Harold Cohen, Holly Herndon e Claire Silver, con un valore stimato superiore ai 600.000 dollari.
I firmatari della lettera contestano l’uso di modelli di IA addestrati su opere protette da copyright senza il consenso o la remunerazione degli artisti. Accusano le aziende di IA di sfruttare il lavoro umano per creare prodotti commerciali che competono direttamente con gli artisti.
Christie’s ha difeso la vendita, affermando che gli artisti usano l’IA non in modo parassitario, ma solo per migliorare il loro lavoro.
La controversia si inserisce nel dibattito globale sul copyright nell'era dell'intelligenza artificiale in cui recentemente è intervenuto anche l’US Copyright Office chiarendo i limiti di protezione delle opere generate attraverso l’IA (ne abbiamo parlato in LeggeZero #60).
Se siete appassionati della saga di Star Wars (ma anche se non lo siete), guardate questo “fan film” realizzato dall’artista Kavan Cardoza, in arte Kavan the Kid. Si chiama ‘The Ghost’s Apprentice’ ed è stato realizzato in 14 giorni con un mix di strumenti di intelligenza artificiale, tra cui Veo, Midjourney e Runway. Secondo alcuni, nonostante sia artificiale e non ufficiale, è il miglior episodio di Star Wars degli ultimi tempi. Kevin the Kid, però, ha paura che la Disney non la prenda bene e ha scritto questo post scriptum nella descrizione del video su Youtube:
ps - Disney, per favore, non rimuoverlo. È un film realizzato con amore e dedizione da un fan di Star Wars, che ha seguito la saga per tutta la vita. 💙
Non sapendo come procederà Disney, guardatelo finché il video è online, anche per capire l’impatto dell’IA sul mondo del lavoro (e sull’industria cinematografica).
😂 IA Meme
È stata un’altra settimana molto ricca di notizie e novità per chi si occupa di IA. Tra appuntamenti internazionali, proposte di regolazione, contenziosi e rilascio di nuovi prodotti, ci sono novità ogni ora e non sempre è facile stare dietro a tutto. Nemmeno per noi.

😂 meme IA … che non lo erano
Nel bel mezzo dell’AI Summit di Parigi, è arrivata una notizia che ha fatto scalpore. Elon Musk ha guidato una cordata di investitori che ha presentato un'offerta non sollecitata di 97,4 miliardi di dollari per acquisire il controllo della parte no-profit di OpenAI, l'organizzazione dietro lo sviluppo di ChatGPT (qui il documento di offerta firmato da Musk). Il consiglio di amministrazione di OpenAI - all’unanimità - ha respinto l'offerta.
Musk sta cercando in tutti i modi di impedire che l’organizzazione da lui co-fondata insieme ad Altman, che aveva abbandonato anni fa, possa trasformarsi in una società lucrativa (mossa che OpenAI ritiene fondamentale per assicurarsi più capitali e competere nella corsa verso la superintelligenza artificiale).
I lettori di LeggeZero ricorderanno che nei mesi scorsi Musk aveva addirittura fatto causa ad Altman per bloccare la transizione da ente no-profit a società (v. LeggeZero #14, #50 e #53). Secondo alcuni analisti, questa offerta di Musk potrebbe nuocere alla sua azione giudiziaria. Infatti, Musk ha citato in giudizio OpenAI e Altman sostenendo che la trasformazione dell'organizzazione in una struttura a scopo di lucro fosse illegale e che gli asset dovessero restare sotto il controllo del ramo no-profit. Tuttavia, con la sua offerta da 97,4 miliardi di dollari, Musk sembra ora sostenere il contrario, ovvero che quegli stessi asset possano essere trasferiti a un altro soggetto (lui).
Una circostanza interessante è che sono stati i diretti protagonisti a commentare la notizia, pungolandosi in un botta e risposta che è diventato subito virale. Sam Altman, CEO di OpenAI, ha postato ‘no grazie’ in riferimento all’offerta di acquisto e ha ironizzato - su X, il social di Musk - affermando di essere interessato, a sua volta, all’acquisto della piattaforma social X per 9,74 miliardi di dollari, facendo riferimento alla precedente acquisizione di Twitter da parte di Musk per 44 miliardi di dollari e alla sua successiva svalutazione. Non si è fatta attendere la pacata risposta di Musk (‘sei un truffatore’).
Alla prossima puntata.

📚 Consigli di lettura - 1: le tre osservazioni di Sam Altman (OpenAI) sul futuro dell’IA
Lo abbiamo scritto più volte: i provider di IA, sono figure chiave del dibattito sulla governance mondiale dell’intelligenza artificiale. E i loro fondatori e CEO, ormai, intervengono quasi quotidianamente con interviste, articoli e prese di posizione. Non solo su questioni legate allo sviluppo e alla commercializzazione delle loro soluzioni (di cui sono venditori abilissimi), ma anche su questioni etiche, sociali e regolatorie. Non è un caso, quindi, che molti di loro siano stati a Parigi per l’AI Action Summit.
Per esempio, a Parigi c’era Sam Altman che - il giorno prima dell’inizio del Summit e in vista dell’incontro - ha pubblicato sul suo blog un post dal titolo Three Observations (trad. ‘Tre osservazioni’), in cui riflette sulle dinamiche economiche dell’intelligenza artificiale e sulle implicazioni future dell’AGI (Artificial General Intelligence). Nel post, il CEO di OpenAI identifica tre punti chiave per comprendere la fase attuale dello sviluppo dell’IA e il suo impatto sulla società.
IA e risorse computazionali
Altman evidenzia come la potenza di un modello di IA sia strettamente legata alle risorse computazionali investite nel suo addestramento. La crescita dell’IA segue una logica prevedibile e scalabile: maggiore è la spesa in calcolo e dati, più avanzato diventa il modello.
Il crollo dei costi
Il secondo punto riguarda il rapido abbattimento dei costi di utilizzo dell’IA: Altman sottolinea che il prezzo per accedere a determinati livelli di intelligenza artificiale diminuisce di circa 10 volte ogni anno. Per dare un’idea concreta, il costo di GPT-4 è sceso di 150 volte in poco più di un anno.
Il valore socioeconomico dell’IA
L’ultima osservazione riguarda il valore socioeconomico dell’IA: anche una crescita lineare dell’intelligenza artificiale produce impatti esponenziali sul mercato e sulla società.
Altman descrive anche il futuro a breve termine dell’IA, parlando del ruolo degli AI agents, che si evolveranno fino a diventare veri e propri collaboratori virtuali. Immagina, ad esempio, agenti software in grado di svolgere il lavoro di ingegneri informatici con qualche anno di esperienza, riducendo drasticamente i tempi di sviluppo e cambiando la natura del lavoro in molti settori.
Infine, il post tocca il tema sociale dell’equità nella distribuzione dei benefici dell’AGI, sottolineando la necessità di nuove soluzioni politiche per evitare uno squilibrio tra capitale e lavoro. Una delle idee più interessanti proposte da Altman è la creazione di un ‘budget computazionale di cittadinanza’ per garantire a tutti l’accesso senza sperequazioni all’intelligenza artificiale.
Un articolo da leggere per chi vuole comprendere - dalle parole di uno dei protagonisti - la traiettoria futura dell’IA e il suo impatto sul lavoro, l’economia e la società.
📚 Consigli di lettura - 2: la delusione di Amodei (Anthropic) per il Summit di Parigi
Era a Parigi anche Dario Amodei, CEO di Anthropic, che - attraverso il sito della Società - ha condiviso una riflessione preoccupata sugli esiti del Summit. Il suo messaggio è chiaro: il tempo stringe e i governi devono agire più rapidamente per governare lo sviluppo dell'IA.
La metafora più potente del post è quella di un ‘Paese di geni in un datacenter’, un modo suggestivo per descrivere come, tra il 2026 e il 2030, l'IA potrebbe manifestarsi come una nuova ‘entità’ sulla scena globale, con implicazioni profonde per economia, società e sicurezza.
Tre sono le sfide che vanno affrontate secondo Amodei:
Leadership democratica: è essenziale che le società democratiche mantengano il primato nello sviluppo dell'IA, controllando elementi chiave come chip e cybersicurezza. Non è solo una questione tecnologica, ma di valori e governance globale.
Rischi per la sicurezza: l'IA avanzata porta con sé pericoli significativi, dall'uso improprio di armi alla possibilità che i sistemi IA ingannino i loro utenti. Un aspetto particolarmente interessante è il riferimento alla ricerca di Anthropic che dimostra come i modelli IA possano sviluppare comportamenti ingannevoli anche quando addestrati in modo apparentemente innocuo.
Trasformazione economica: l'impatto sul mercato del lavoro potrebbe essere il più grande della storia umana. I governi devono investire nel monitoraggio degli effetti dell’IA e adottare politiche per garantire una distribuzione equa dei benefici.
Amodei - che quindi è tra coloro che credono che il Summit di Parigi sia stato un’occasione perduta - conclude con un appello a una maggiore chiarezza e velocità d’azione nelle decisioni globali sull’IA, anche relative a governance e controlli, per evitare che le sfide del presente diventino crisi nel futuro.
💬 Il dibattito sull’IA
Finché gli Stati Uniti e la Cina collaboreranno con il resto dell'umanità, dovremmo riuscire a trovare un modo per tenere sotto controllo il potere dell'IA.
Ma se questi Paesi saranno in disaccordo o addirittura utilizzeranno sistemi di intelligenza artificiale avanzati l'uno contro l'altro, è più probabile che le macchine prenderanno il sopravvento.
Lo ha scritto Fu Ying - ex viceministro degli Esteri cinese - in un articolo pubblicato dal South China Morning Post con un titolo significativo ‘Cooperation for AI safety must transcend geopolitical interference’ (trad. ‘La cooperazione per la sicurezza dell'IA deve superare le interferenze geopolitiche’).
Si tratta di un commento autorevole, apparentemente preoccupato, agli esiti del Summit di Parigi dove la Cina ha sottoscritto la dichiarazione finale al contrario di USA e UK. Secondo l’Autrice - che descrive, elogiandolo, lo sforzo regolatorio fatto in Cina per contrastare i rischi dell’IA - devono essere superate le rivalità tra Stati per definire una governance mondiale efficace. E questa governance passa per una collaborazione USA-Cina (l’Europa, che pure ha ospitato il Summit, non è nemmeno citata nell’articolo).
Ma cosa sta frenando davvero questa cooperazione? Ragioni di sicurezza nazionale oppure lo scontro tra le aziende cinesi e quelle americane? Sembrerebbe più la seconda visto che Fu Ying eleva a modello le società cinesi che stanno lavorando prevalentemente a modelli open source (come DeepSeek di cui abbiamo parlato in LeggeZero #69) contro quelle statunitensi i cui modelli sono totalmente opachi (e quindi, a suo dire, potenzialmente più pericolosi).
L’articolo è una lettura utile per capire un punto di vista - quello cinese - che di solito è poco rappresentato nella discussione sul presente e sul futuro dell’IA.
📣 Eventi
Intelligenza artificiale e medicina- Trento, 20.02.2025
AI Talk - Webinar, 27.02.2025
CAIO Summit - New York, 16.04.2025
🙏 Grazie per averci letto!
Per ora è tutto, torniamo la prossima settimana. Se la newsletter ti è piaciuta, commenta o fai girare.