🤖 Abbiamo una strategia? – Legge Zero #19
Grazie a un leak è online l'executive summary della strategia governativa italiana sull'IA. In attesa che sia reso noto il documento completo, leggiamolo per individuare le principali novità.
🧠 Cosa dirà la strategia italiana sull’IA
Nelle ultime ore ha iniziato a circolare un documento contenente l’executive summary della nuova strategia italiana sull’intelligenza artificiale. Lo ha pubblicato
nella sua newsletter e poi lo hanno ripreso in tanti sui social.Lo potete leggere scaricandolo qui.
[Inizio delle premesse]
Premessa uno. Il documento ha i loghi del Dipartimento per la trasformazione digitale della Presidenza del Consiglio dei Ministri e dell’Agenzia per l’Italia digitale. Ma sui siti istituzionali non v’è alcuna notizia o traccia della strategia. Sembrerebbe dunque un leak. Non sappiamo quindi se si tratti di una sintesi realizzata a uso interno o per la presentazione pubblica della strategia. Al momento, dopo più di 24 ore, nessuna fonte ufficiale ha smentito l’attendibilità del documento.
Premessa due. L’executive summary non ha una data, quindi non sappiamo quanto sia aggiornato (le proprietà del documento ci dicono “creato il 5 aprile 2024”).
Premessa tre. Il documento è solo un riassunto dei punti principali e quindi bisognerà aspettare la pubblicazione dell’intera strategia per analisi compiute. Tuttavia, pur consapevoli del fatto che il documento potrebbe ancora cambiare, può essere opportuno iniziare a capire quali dovrebbero essere le principali novità.
[Fine delle premesse]
Dopo gli annunci del Governo delle scorse settimane, c’è molta attesa per il testo della strategia che dovrebbe essere pubblicata insieme a un disegno di legge che conterrà anche misure sulla governance italiana dell’IA (ne abbiamo parlato in LeggeZero #18).
Quello a cui sta lavorando il Governo Meloni non sarà il primo documento strategico italiano sull’intelligenza artificiale. La prima strategia fu pubblicata nel 2020 dal Ministero dello sviluppo economico sulla base del lavoro di un gruppo di esperti.
Successivamente, la strategia fu aggiornata nel 2021 grazie al lavoro di un altro gruppo di esperti di comprovata esperienza.
Questo ambizioso programma triennale non è stato davvero completamente attuato e, nel novembre 2023, il Governo ha nominato un nuovo “comitato di coordinamento” per l’aggiornamento della strategia nazionale (quella che ancora non conosciamo ma il cui executive summary è stato diffuso nelle scorse ore).
Stando a quest’anticipazione, la strategia sarà composta da dieci punti e sarà articolata in quattro i pilastri:
ricerca scientifica
pubblica amministrazione
imprese
formazione
Per ogni pilastro sono articolate le azioni strategiche (in totale 24). Tra queste spicca quella che prevede
Sviluppare LMM italiani, in particolare 3 modelli fondazionali multimodali nazionali, che rispondano pienamente ai valori e alle regolamentazioni europee, eventualmente focalizzandosi su specifici domini applicativi in cui l’Italia detiene una forte riconoscibilità internazionali e un chiaro vantaggio competitivo nella definizione dei dataset di riferimento.
Altra novità importante è quella che riguarda la governance, attraverso la costituzione di una
Fondazione per l’Intelligenza Artificiale, nell’ambito della Presidenza del Consiglio dei Ministri, quale soggetto cui vada in capo la responsabilità delle iniziative sull’IA, e che gestirà un fondo adeguato a rendere la pianificazione sostenibile, configurarsi naturalmente come referente per il monitoraggio dell’andamento dell’implementazione delle strategie, nell’ottica di un sistema rivolto al miglioramento continuo.
Per il resto, il documento sembra porsi decisamente in continuità con quelli precedenti, aggiornando le azioni al contesto tecnologico successivo al boom dell’IA degli ultimi mesi (specialmente generativa).
La lettura dell’executive summary desta diverse domande la cui risposta, presumibilmente, sarà nel documento completo. Quali sono gli attori che saranno coinvolti nell’attuazione del Piano (sotto il coordinamento della Fondazione)? Quali e quanti fondi saranno utilizzati per l’attuazione della strategia (es. i tre LLM italiani)? Sono previsti tempi specifici per il completamento delle azioni? La strategia contempla interventi normativi per la sua piena realizzazione? L’adeguamento all’AI Act e l’adozione di alcuni documenti di soft law (linee guida) potrebbe infatti, non essere sufficiente.
Dalle risposte a queste domande dipenderà il reale impatto del documento strategico.
🔊 Un vocale da… Stefano da Empoli (I-Com): serve davvero una OpenAI italiana? quale sarebbe l’utilità di un LLM made in Italy? nel vocale di questa settimana il Presidente dell’Istituto per la competitività parla di uno dei punti più innovativi di quella che dovrebbe essere la strategia italiana sull’IA.
📰 OpenAI presenta Voice Engine: bastano 15 secondi per clonare una voce
OpenAI ha condiviso i risultati preliminari di un modello di IA generativa, chiamato Voice Engine, capace di generare discorsi naturali usando testo (inserito dall’utente) e un campione audio di 15 secondi.
I risultati sono davvero sorprendenti (potete ascoltarne un esempio nel video qui sotto) e consentono a Voice Engine di essere utilizzato in diversi ambiti (per finalità di accessibilità, in ambito medico oppure per tradurre contenuti).
Ovviamente, molti sono i rischi, specialmente legati ai deepfake. Al momento, OpenAI richiede a tutti i partner che stanno testando il modello di impegnarsi al rispetto delle proprie policy che vietano di impersonificare qualcuno. Ma è decisamente troppo poco. In futuro, la società ritiene che il rilascio dello strumento dovrebbe essere accompagnato da una robusta autenticazione degli utenti in modo da evitare i deepfake, cercando anche di prevenire che vengano clonate le voci di personaggi pubblici.
Staremo a vedere.
📰 UE 🇪🇺 e USA 🇺🇸 lavorano agli standard globali sull’IA (e a un glossario condiviso)
Il Consiglio per il commercio e la tecnologia (TTC) UE-USA, riunitosi il 4 e il 5 aprile, ha lavorato per rafforzare la collaborazione tra Europa e Stati Uniti in materia di intelligenza artificiale.
Questo lavoro comune mira a stabilire standard comuni per garantire lo sviluppo etico e sicuro dell'IA, mantenendo un equilibrio tra innovazione e protezione dei diritti delle persone.
Molto interessante lo sforzo di scrivere un elenco aggiornato delle parole chiave dell’IA, una specie di glossario condiviso, che potrà essere utilizzato da legislatori e Autorità di entrambi gli ordinamenti.
⚖️ In Germania 🇩🇪 anche i robot hanno il diritto al riposo domenicale
Una catena di supermercati tedesca (Tegut) ha perso la battaglia legale intrapresa per tenere aperti anche di domenica 40 negozi completamente automatizzati. Infatti, in Germania, il riposo domenicale è riconosciuto come diritto costituzionale e un sindacato dei lavoratori ha contestato che l’apertura di questi negozi, nonostante l'assenza di personale, fosse contraria alla norma.
Un tribunale tedesco - in una recente sentenza - ha dato torto alla catena di supermercati, affermando che anche i negozi automatizzati devono restare chiusi di domenica.
Quando, tra qualche anno, discuteremo dei diritti di robot e di intelligenze artificiali, ci ricorderemo di questa pronuncia.
⚖️ Il Garante privacy francese 🇫🇷 fornisce indicazioni su come garantire la sicurezza dei dati personali nell’utilizzo dei sistemi di IA
Il Garante privacy francese (CNIL) ha recentemente pubblicato una guida aggiornata che mette in evidenza l'importanza cruciale della sicurezza dei dati nell'era digitale. All’interno del documento c’è anche un focus relativo all’IA. E non poteva essere diversamente, visto che l’IA è il tema del momento e la CNIL molto probabilmente sarà l’Autorità francese competente in materia di IA.
Il Garante transalpino sottolinea il divieto di pratiche dannose per la tutela dei dati, come l'implementazione o l’uso di modelli senza una valutazione accurata dei sistemi e degli output. Valutazione impossibile senza la trasparenza da parte di sviluppatori e fornitori.
📚 Consigli di lettura: “The worlds I see” di Fei-Fei Li
Quello della prof.ssa Fei-Fei Li potrebbe non essere un nome conosciuto per molti di voi, ma da oltre vent'anni è una delle figure di spicco dietro il progresso dell'intelligenza artificiale (tra le tante cose che ha fatto ha fondato l’Human Centered AI Institute dell’Università di Stanford di cui parliamo spesso in questa NL).
Il suo libro, The Worlds I See: Curiosity, Exploration, and Discovery at the Dawn of AI, racconta la sua storia personale - una storia di immigrazione e di sacrifici - ma anche la storia dell’intelligenza artificiale. Si tratta di un testo molto ricco di aneddoti, di spiegazioni e di visioni (oltre 300 pagine).
Una lettura obbligata per chi vuole studiare l’IA e capire le sfide dei prossimi anni.
📚 Consigli di visione: l’indagine conoscitiva del Senato su IA e giustizia
La Commissione Giustizia del Senato della Repubblica ha avviato un’indagine conoscitiva sull’impatto dell’intelligenza artificiale nel settore giustizia.
Nell’ambito di tale indagine, il 3 aprile, è stato audito anche l’avvocato Ernesto Belisario che, nel corso del suo intervento, si è soffermato sui rischi dell’IA (scatola nera, pregiudizi) e sull’importanza della formazione.
Cliccando qui è possibile recuperare tutti i contributi degli altri auditi (tra cui prof. Paolo Benanti, il Presidente Giovanni Canzio e il dott. Antonio Balsamo).
💡 L’IA fa cose (che potrebbe sbagliare, facendo danni)
Non è la solita Tesla: l’IA alle prese con la guida di un’auto sulle strade cinesi
Non mettermi le mani addosso: in Cina un robot è stato addestrato a fare massaggi
😂 IA Meme
Severa, ma giusta questa vignetta di Tom Fishburne.
📣 Eventi
AI Act: istruzioni per l’uso - Webinar, 9.04.2024
AI WEEK - Rimini, 9-10.04.2024
Cyber Forensics IISFA Forum 2024 - Roma, 12.04.2024
Per ora è tutto, torniamo la prossima settimana. Se la newsletter ti è piaciuta, commenta o fai girare. Grazie!