🤖 2025: quale anno per le regole dell'IA? – Legge Zero #56
Buon anno! Il 2025 è arrivato e dall’ultimo numero di LeggeZero sono accadute molte cose rilevanti nel campo delle regole dell’intelligenza artificiale. Ci aiutano a capire meglio cosa ci aspetta.

🧠 Il futuro di una volta
Ricordate ‘Her’ il film in cui Teo - interpretato da Joaquin Phoenix - si innamora di Samantha (un’assistente vocale interpretata Scarlett Johansson)? Quando lo abbiamo visto, nel 2014, ci sembrava fantascienza. E invece ci siamo arrivati, e non solo perché - come abbiamo scritto in LeggeZero #25 - siamo già al punto in cui milioni di utenti hanno fidanzate e fidanzati virtuali. Ci siamo arrivati perché, anche se in pochi lo ricordano, il film è ambientato a Los Angeles proprio nel 2025, l’anno che è appena iniziato.
Non solo esistono IA con cui intrattenere una relazione, ma nel 2025 arriveranno anche IA che possono essere utilizzate come psicoterapeuta o che possono, addirittura, leggerci nel pensiero (guardate il video qui sotto relativo al lancio di Omi, un prodotto wearable molto particolare).
I nati del 2025 appartengono alla ‘Generazione Beta’, generazione che non saprà cosa significa vivere in un mondo in cui non c’è intelligenza artificiale (ormai sempre più onnipresente nelle nostre vite). E anche nel mondo del diritto. Nel nostro settore, tra i tanti primati che il nuovo anno può già vantare c’è quello relativo al primo atto giudiziario interamente scritto da un’intelligenza artificiale. Il 2 gennaio, i fratelli Stephen e Christopher Sokolovsky hanno avviato un’azione giudiziaria con l’IA (e senza legali). Dal momento che non potevano permettersi un avvocato, grazie a uno degli ultimi modelli di OpenAI (o1 pro) hanno potuto ricostruire le norme vigenti, analizzare le prove e simulare scenari processuali. Nel post in cui raccontano come hanno fatto, sottolineano l'importanza dell'IA per democratizzare l'accesso alla giustizia e ringraziano OpenAI per il supporto tecnologico che ha reso possibile la loro causa (che sono sicuri di vincere). Con buona pace di quelli che ‘l’IA non sostituirà i professionisti’.
Viviamo tempi interessanti, in cui i film di fantascienza sono diventati realtà grazie a un progresso tecnologico che avanza a un ritmo velocissimo, difficile da seguire per qualsiasi legislatore. Anche per questo motivo, c’è da scommettere che il 2025 sarà un anno in cui sarà sempre più centrale il tema delle regole dell’IA.
Quello appena iniziato sarà l’anno in cui cominceranno a concludersi alcune delle più importanti controversie in materia di addestramento delle IA (come quelle sulla violazione del copyright), ma anche l’anno in cui inizieranno a diventare pienamente applicabili alcune disposizioni dell’AI Act (se vi serve un ripasso, vi rimandiamo a LeggeZero #33). Ad esempio, a partire dal 2 febbraio di quest’anno, saranno vietati i sistemi di IA che presentano un rischio inaccettabile, mentre entro agosto 2025 i singoli Stati Membri dovranno designare le autorità competenti in materia di IA. A proposito di Stati Membri, nel 2025 il Parlamento italiano approverà il DDL in materia di intelligenza artificiale, magari apportando alcune modifiche alla luce dei rilievi mossi dalla Commissione Europea (e di cui abbiamo dato conto in LeggeZero #53).
Ma attenzione a pensare che il tema della regolazione dell’IA sia soltanto un fatto europeo. Infatti, negli USA - in attesa di vedere all’opera l’amministrazione Trump/Musk - si moltiplicheranno le leggi dei singoli Stati su aspetti specifici dell’impatto dell’IA nella società. Recentemente lo Stato di New York ha approvato una legge che regola i contratti per la creazione e l'uso di repliche digitali, seguendo l'esempio di California e Tennessee. Mentre il Senatore californiano Wiener ha annunciato che ripresenterà la legge per prevenire i rischi catastrofici dell’IA su cui il governatore Newsom aveva posto il veto lo scorso mese di settembre.
Dopotutto dobbiamo fare presto per evitare che le IA si ribellino all’uomo: il film ‘Io, robot’ è ambientato nel 2035.
🔊 Un vocale da… David Diavù Vecchiato
Si parla molto dell’impatto dell’intelligenza artificiale sull’arte e sulla creatività. Ma cosa ne pensano gli artisti? Ne sono preoccupati o incuriositi?
Nel vocale di questa settimana ce ne parla proprio un noto artista italiano, spiegandoci come usa l’intelligenza artificiale, quali prospettive vede nel suo settore e quale impatto avrà sulla nostra percezione della realtà.
📰 Secondo il World Economic Forum nei prossimi cinque anni l’IA travolgerà lavori e professioni
Il Future of Jobs Report 2025, pubblicato dal World Economic Forum, offre un'analisi dettagliata delle trasformazioni in atto nel mercato globale del lavoro. Basato sulle opinioni di oltre mille datori di lavoro che impiegano 14 milioni di lavoratori in 55 Paesi, il report identifica i principali macrotrend e il loro impatto su occupazione e competenze nel periodo 2025-2030.
Impatto dell’IA sul mondo del lavoro
Creazione e perdita di posti di lavoro: viene ottimisticamente prevista una crescita del 7% dell'occupazione globale, con 170 milioni di nuovi posti di lavoro creati a fronte dei 92 milioni eliminati a causa delle trasformazioni tecnologiche e macroeconomiche. Eppure il 41% delle aziende prevede di avere meno dipendenti nel 2030 (proprio grazie all’IA).
Ruoli emergenti: le professioni legate alla tecnologia – come specialisti in intelligenza artificiale, ingegneri fintech e sviluppatori di app – saranno tra le più richieste, insieme a lavori nella transizione verde, come ingegneri di energie rinnovabili e specialisti in veicoli autonomi.
Declino delle occupazioni tradizionali: le professioni impiegatizie (come addetti di segreteria e all’inserimento dati) vedranno il maggiore calo.
Evoluzione delle competenze: oltre il 39% delle competenze attuali diventerà obsoleto entro il 2030, mentre saranno essenziali competenze in big data e cybersecurity.
Raccomandazioni
Il report sottolinea l'urgenza di strategie per affrontare i cambiamenti attraverso:
riqualificazione e formazione continua: il 59% della forza lavoro globale avrà bisogno di formazione entro il 2030 (non solo in materia tecnologica, servono sempre più pensiero analitico, resilienza e creatività);
interventi legislativi: le aziende, da sole, non riescono a far fronte ai cambiamenti, è necessario un quadro normativo più robusto per gestire la transizione che ci aspetta
Se volete, potete scaricare il documento qui (in inglese).

📰 Anche il Vaticano 🇻🇦 adotta un sistema di regole sull'intelligenza artificiale
Il 2025 non è solo l’anno del Giubileo. La Pontificia Commissione per lo Stato della Città del Vaticano ha emanato il 16 dicembre 2024 il Decreto n. DCCII, contenente le ‘Linee Guida in materia di intelligenza artificiale’, che è entrato in vigore in vigore il 1° gennaio 2025.
Il documento stabilisce i principi fondamentali per l'utilizzo dell'IA nel Vaticano, ponendo al centro il rispetto della dignità umana e il bene comune in una prospettiva antropocentrica che coniughi innovazione tecnologica e tutela della persona.
Ecco i punti chiave delle linee guida (che si articolano in tre capi e 15 articoli):
Finalità e ambito di applicazione
scopo: promuovere un uso etico e trasparente dell'intelligenza artificiale in una prospettiva antropocentrica, rispettando la dignità umana e il bene comune.
perimetro di applicazione: territorio del Vaticano e attività svolte nelle aree coperte dai patti lateranensi.
Principi fondamentali
rispetto della dignità umana, bene comune, responsabilità, trasparenza.
sicurezza, garantendo la protezione dei dati personali e la sostenibilità ambientale.
divieto di pregiudicare la missione pastorale e l'integrità della Chiesa.
Divieti
Sono vietati gli utilizzi discriminatori, manipolativi, dannosi per le persone, lesivi della sicurezza del Vaticano o in contrasto con la missione del Sommo Pontefice.
Previsioni per specifici settori
dati personali: devono essere sempre rispettate le norme sulla protezione dei dati personali;
sanità: l’IA deve migliorare la qualità delle cure, senza limitare l’autonomia decisionale del personale sanitario;
beni culturali: l’IA deve essere usata per la conservazione e valorizzazione del patrimonio, senza comprometterne l'integrità;
diritto d’autore: l’IA utilizzata nella creazione di contenuti artistici (testuali, musicali, audiovisivi, ecc.) deve rispettare la Legge vaticana sulla protezione del diritto d’autore. Tutti i contenuti generati dall’IA nel territorio dello Stato appartengono al Vaticano e devono essere contrassegnati per trasparenza.
lavoro: l’IA va usata per garantire la sicurezza dei lavoratori, prevenendo discriminazioni;
giustizia: l’IA va usata per supportare l’organizzazione e la ricerca, lasciando ai giudici la piena autonomia decisionale (viene riservata esclusivamente al giudicante ogni decisione su fatti, prove e interpretazione della legge).
I provvedimenti attuativi di questo decreto saranno adottati entro i prossimi dodici mesi da parte di una Commissione composta da cinque membri che avrà anche il compito di monitorare l’impatto dell’IA in Vaticano.
⚖️ La Corea del Sud 🇰🇷 segue il modello UE e approva il suo AI Act
Nonostante la crisi istituzionale di cui abbiamo parlato anche in LeggeZero #54, la Corea del Sud è diventata il primo Paese asiatico a dotarsi di una legge organica sull'intelligenza artificiale. Il 26 dicembre 2024 l'Assemblea Nazionale ha infatti approvato - con un solo voto contrario - l'AI Basic Act (la rubrica recita ‘legge sullo sviluppo dell'intelligenza artificiale e l’instaurazione della fiducia’) che entrerà in vigore nel gennaio 2026.
La legge si ispira chiaramente all'AI Act europeo, ma presenta caratteristiche distintive che riflettono il contesto locale e l'ambizione coreana di diventare un hub tecnologico in Asia.
Come l'AI Act, la legge coreana adotta un approccio basato sul rischio, distinguendo due categorie principali:
sistemi IA ad alto impatto che presentano rischi significativi per la vita umana, la sicurezza fisica o i diritti fondamentali;
sistemi di IA generativa che producono testi, suoni, immagini e altri contenuti creativi.
Per entrambe le categorie sono previsti obblighi di trasparenza, con la necessità di dare evidenza agli utenti dell'utilizzo di IA. Per i sistemi ad alto impatto si aggiungono requisiti più stringenti come piani di gestione del rischio, supervisione umana e valutazioni d'impatto.
A differenza dell’AI Act, però nella legge coreana non esistono sistemi vietati.
Interessante inoltre notare come le sanzioni siano più contenute rispetto all'AI Act: massimo 30 milioni di won (circa 20.000 euro) contro i 35 milioni di euro o il 7% del fatturato previsti in Europa. Una scelta che, evidentemente, riflette la volontà di non spaventare chi intende innovare.
Un altro aspetto da segnalare (analogo all’AI Act europeo) è l'ambito di applicazione: le aziende straniere che rendono disponibili i propri sistemi di IA in Corea del Sud dovranno rispettare la norma e dovranno nominare un rappresentante locale, responsabile degli adempimenti di compliance.
La legge ha anche una forte componente di sviluppo industriale, con misure volte a stimolare la ricerca e lo sviluppo (come il supporto per la creazione di data center, misure specifiche per PMI e startup e per l’attrazione di talenti in materia di IA).
La legge coreana segue quindi l’approccio strutturato dell’AI Act, sia pure con alcune rilevanti differenze. Vedremo se l’esempio - che si contrappone all’approccio normativo statunitense - sarà seguito da altri Paesi.
Nel frattempo, se volete approfondire l’AI Basic Act lo trovate qui (in coreano).
⚖️ Negli USA 🇺🇸 accordo (parziale) tra Anthropic e le case discografiche
Il Tribunale federale della California settentrionale ha omologato l'accordo -tra Anthropic (il provider del chatbot Claude) e un gruppo di case discografiche guidato da Universal Music Group - che stabilisce importanti principi sul controllo degli output dei modelli di IA in relazione ai contenuti protetti da copyright. Nell'ottobre 2023, gli editori musicali avevano citato in giudizio Anthropic. L'accusa? Aver utilizzato testi di canzoni protette da copyright per addestrare i suoi modelli di IA, che poi erano in grado di riprodurre questi testi quando richiesto dagli utenti.
È importante perché si tratta del primo accordo che definisce gli obblighi di uno sviluppatore di IA in merito all'implementazione di misure tecniche preventive (‘guardrails’) per evitare la riproduzione non autorizzata di contenuti protetti da copyright (qui un articolo di The Verge).
In breve, la transazione prevede che Anthropic mantenga e rafforzi i suoi sistemi di filtro sia sui modelli esistenti che su quelli futuri. Le case discografiche potranno segnalare eventuali inefficienze dei guardrails, richiedendo l'intervento di Anthropic.
L’accordo però lascia aperta la questione centrale relativa alla legittimità dell’utilizzo di materiale protetto da copyright per l'addestramento dei modelli. La transazione sembra quindi configurarsi come una soluzione di compromesso che sposta il focus dal processo di addestramento al controllo degli output.
È probabile che questa impostazione possa influenzare le numerose cause pendenti in materia di copyright e IA (ne abbiamo parlato in LeggeZero #32), anche se siamo ancora lontani da una definizione completa della questione.
Nel corso del 2025, si potrebbe arrivare a una situazione in cui le aziende di IA potranno legittimamente utilizzare opere protette da copyright per l'addestramento, a patto che dimostrino di avere sistemi efficaci per prevenire violazioni nell'output.
Se volete, potete consultare il testo dell’accordo qui
.
💊 IA in pillole
Il Senato francese ha pubblicato un rapporto che esplora i cambiamenti introdotti dall’intelligenza artificiale generativa nel settore legale. Il documento analizza opportunità, rischi e trasformazioni per avvocati, giuristi e magistrati, contenendo alcune indicazioni di alto livello. Per chi esercita la professione forense le raccomandazioni sono sempre le solite: verificare sempre i risultati, rispettare il codice deontologico (specialmente le disposizioni in materia di segreto professionale), garantire la trasparenza verso il cliente, assicurare la formazione continua. Il documento è disponibile (in francese) qui.
Il 1° gennaio 2025, un Tesla Cybertruck è stato fatto esplodere davanti al Trump International Hotel di Las Vegas, ferendo lievemente sette persone. Le indagini hanno rivelato che - per la prima volta - l’attentatore (Matthew Livelsberger) ha utilizzato ChatGPT per pianificare l'attacco, cercando informazioni su esplosivi e leggi sui fuochi d'artificio.
Secondo OpenAI, ChatGPT avrebbe risposto con informazioni già disponibili pubblicamente su Internet e avrebbe comunque fornito avvertimenti per contrastare la commissione di attività dannose o illegali. Forse non è stato sufficiente.
Visto che sempre più persone condividono molti aspetti della propria vita con i sistemi di IA, USAtoday ha pubblicato un elenco delle dieci cose da evitare di condividere con un chatbot basato su intelligenza artificiale per proteggere la propria privacy e sicurezza. Eccolo:
password e credenziali di accesso;
informazioni personali come nome, indirizzo o numero di telefono;
dati finanziari;
informazioni mediche e sanitarie;
richieste su attività illegali;
contenuti d'odio o dannosi;
dati aziendali o commerciali confidenziali;
risposte a domande di sicurezza;
contenuti espliciti;
dati di altre persone.
In una lunga intervista di quasi tre ore al podcast di Joe Rogan (che trovate qui), Mark Zuckerberg, fondatore e amministratore delegato di Meta, ha rivelato che nel 2025 la sua azienda implementerà sistemi di intelligenza artificiale per lo sviluppo di codice e di altre IA, riducendo così la dipendenza dagli sviluppatori umani.
😂 IA Meme
L'intelligenza artificiale non sostituirà gli esseri umani, ma gli esseri umani con l'intelligenza artificiale sostituiranno gli esseri umani senza l'intelligenza artificiale.
Sono parole del professore di Harvard Karim Lakhani che ci fanno capire che - anche nella migliore delle ipotesi - il mondo del lavoro è destinato a cambiare in modo drastico. Questo significa che, per i più giovani, cambieranno anche i sogni sul lavoro come prevede questa vignetta del bravissimo Tom Fishburne.

😂 meme IA … che non lo erano
‘Instagram è morto’, così hanno reagito molti utenti alla pubblicazione di alcune foto da parte del fotografo (a distanza) Dallin Mackay. La modella è reale, ma le immagini sono realizzate completamente con intelligenza artificiale, nessun set, nessuno scatto, solo prompt.
Non è solo impressionante perché le foto generate con l’IA sono sempre più realistiche, ma anche perché questo significa che ben presto - anche a causa della loro economicità - i contenuti fake saranno di gran lunga predominanti sul web e sui social. E noi saremo sempre meno capaci di riconoscerli dai contenuti reali.




📚 Consigli di lettura: Sam Altman riflette sul passato e futuro di OpenAI (e dell’intelligenza artificiale)
Nei giorni scorsi, Sam Altmant - il CEO di OpenAI - ha pubblicato un lungo post sul suo blog personale in cui ha condiviso alcune riflessioni sugli ultimi anni della sua azienda, raccontando alcuni momenti chiave della storia recente di OpenAI (e quindi dell’IA).
Il pezzo - che si intitola in modo non molto originale ‘Riflessioni’ - parte dal secondo compleanno di ChatGPT per tracciare un percorso che inizia quasi nove anni fa, quando OpenAI venne fondata con l'ambizioso obiettivo di sviluppare un'intelligenza artificiale generale (AGI) a beneficio dell'umanità. Altman racconta come, nel 2022, OpenAI fosse un tranquillo laboratorio di ricerca che lavorava su quello che sarebbe diventato ChatGPT, inizialmente chiamato "Chat With GPT-3.5".
Particolarmente interessante è il passaggio in cui Altman affronta la drammatica vicenda del suo licenziamento nel novembre 2023 (di cui parlammo in LeggeZero #0), descrivendola come ‘un venerdì in cui le cose sono andate storte’. Con sincerità, ammette che l'evento è stato un grande fallimento di governance da parte di persone ben intenzionate e sottolinea come questo lo abbia reso un leader migliore e più riflessivo.
Illuminante questo passaggio, utile anche per capire come mai alcuni aspetti giuridici (es. in materia di protezione dei dati personali) non siano stati affrontati fin dal principio.
Costruire un'azienda a una velocità così elevata con così poca formazione è un processo caotico. Spesso si tratta di due passi avanti e uno indietro (e a volte, un passo avanti e due indietro). Gli errori vengono corretti man mano che si procede, ma non ci sono davvero manuali o indicazioni quando si fa un lavoro originale. Muoversi a velocità elevata in acque inesplorate è un'esperienza incredibile, ma è anche immensamente stressante per tutti i gli attori in gioco. Conflitti e incomprensioni abbondano.
Il post offre anche uno sguardo sul futuro: Altman rivela che OpenAI è ora fiduciosa di sapere come costruire l'AGI e prevede che nel 2025 potremmo vedere i primi agenti IA unirsi alla forza lavoro e cambiare radicalmente la produttività delle aziende. L'obiettivo si sta spostando verso la ‘superintelligenza nel vero senso della parola’, con la possibilità di accelerare massivamente la scoperta scientifica e l'innovazione.
È un articolo che merita attenzione non solo per le rivelazioni sul futuro dell'IA, ma anche per la trasparente riflessione sui momenti di crisi e sulla governance aziendale in un settore così innovativo e complesso. Utile anche per comprendere che regole giuste - non troppo rigide - sono utilissime proprio per dare utili punti di riferimento alle aziende che stanno scrivendo il futuro dell’IA (e quindi del pianeta).
📣 Eventi
È giunto il tempo dell’Intelligenza Artificiale - Webinar, 23.01.2025
AI Regulation Summit - Londra, 27.01.2025
Artificial Intellicenge Action Summit - Parigi, 10-11.02.2025
🙏 Grazie per averci letto!
Per ora è tutto, torniamo la prossima settimana. Se la newsletter ti è piaciuta, commenta o fai girare.



