đ¤ Abbiamo una strategia? â Legge Zero #19
Grazie a un leak è online l'executive summary della strategia governativa italiana sull'IA. In attesa che sia reso noto il documento completo, leggiamolo per individuare le principali novità .
đ§ Cosa dirĂ la strategia italiana sullâIA
Nelle ultime ore ha iniziato a circolare un documento contenente lâexecutive summary della nuova strategia italiana sullâintelligenza artificiale. Lo ha pubblicato Marco Bani nella sua newsletter e poi lo hanno ripreso in tanti sui social.
Lo potete leggere scaricandolo qui.
[Inizio delle premesse]
Premessa uno. Il documento ha i loghi del Dipartimento per la trasformazione digitale della Presidenza del Consiglio dei Ministri e dellâAgenzia per lâItalia digitale. Ma sui siti istituzionali non vâè alcuna notizia o traccia della strategia. Sembrerebbe dunque un leak. Non sappiamo quindi se si tratti di una sintesi realizzata a uso interno o per la presentazione pubblica della strategia. Al momento, dopo piĂš di 24 ore, nessuna fonte ufficiale ha smentito lâattendibilitĂ del documento.
Premessa due. Lâexecutive summary non ha una data, quindi non sappiamo quanto sia aggiornato (le proprietĂ del documento ci dicono âcreato il 5 aprile 2024â).
Premessa tre. Il documento è solo un riassunto dei punti principali e quindi bisognerĂ aspettare la pubblicazione dellâintera strategia per analisi compiute. Tuttavia, pur consapevoli del fatto che il documento potrebbe ancora cambiare, può essere opportuno iniziare a capire quali dovrebbero essere le principali novitĂ .
[Fine delle premesse]
Dopo gli annunci del Governo delle scorse settimane, câè molta attesa per il testo della strategia che dovrebbe essere pubblicata insieme a un disegno di legge che conterrĂ anche misure sulla governance italiana dellâIA (ne abbiamo parlato in LeggeZero #18).
Quello a cui sta lavorando il Governo Meloni non sarĂ il primo documento strategico italiano sullâintelligenza artificiale. La prima strategia fu pubblicata nel 2020 dal Ministero dello sviluppo economico sulla base del lavoro di un gruppo di esperti.
Successivamente, la strategia fu aggiornata nel 2021 grazie al lavoro di un altro gruppo di esperti di comprovata esperienza.
Questo ambizioso programma triennale non è stato davvero completamente attuato e, nel novembre 2023, il Governo ha nominato un nuovo âcomitato di coordinamentoâ per lâaggiornamento della strategia nazionale (quella che ancora non conosciamo ma il cui executive summary è stato diffuso nelle scorse ore).
Stando a questâanticipazione, la strategia sarĂ composta da dieci punti e sarĂ articolata in quattro i pilastri:
ricerca scientifica
pubblica amministrazione
imprese
formazione
Per ogni pilastro sono articolate le azioni strategiche (in totale 24). Tra queste spicca quella che prevede
Sviluppare LMM italiani, in particolare 3 modelli fondazionali multimodali nazionali, che rispondano pienamente ai valori e alle regolamentazioni europee, eventualmente focalizzandosi su specifici domini applicativi in cui lâItalia detiene una forte riconoscibilitĂ internazionali e un chiaro vantaggio competitivo nella definizione dei dataset di riferimento.Â
Altra novità importante è quella che riguarda la governance, attraverso la costituzione di una
Fondazione per lâIntelligenza Artificiale, nellâambito della Presidenza del Consiglio dei Ministri, quale soggetto cui vada in capo la responsabilitĂ delle iniziative sullâIA, e che gestirĂ un fondo adeguato a rendere la pianificazione sostenibile, configurarsi naturalmente come referente per il monitoraggio dellâandamento dellâimplementazione delle strategie, nellâottica di un sistema rivolto al miglioramento continuo.Â
Per il resto, il documento sembra porsi decisamente in continuitĂ con quelli precedenti, aggiornando le azioni al contesto tecnologico successivo al boom dellâIA degli ultimi mesi (specialmente generativa).
La lettura dellâexecutive summary desta diverse domande la cui risposta, presumibilmente, sarĂ nel documento completo. Quali sono gli attori che saranno coinvolti nellâattuazione del Piano (sotto il coordinamento della Fondazione)? Quali e quanti fondi saranno utilizzati per lâattuazione della strategia (es. i tre LLM italiani)? Sono previsti tempi specifici per il completamento delle azioni? La strategia contempla interventi normativi per la sua piena realizzazione? Lâadeguamento allâAI Act e lâadozione di alcuni documenti di soft law (linee guida) potrebbe infatti, non essere sufficiente.
Dalle risposte a queste domande dipenderĂ il reale impatto del documento strategico.

đ Un vocale daâŚÂ Stefano da Empoli (I-Com): serve davvero una OpenAI italiana? quale sarebbe lâutilitĂ di un LLM made in Italy? nel vocale di questa settimana il Presidente dellâIstituto per la competitivitĂ parla di uno dei punti piĂš innovativi di quella che dovrebbe essere la strategia italiana sullâIA.
đ° OpenAI presenta Voice Engine: bastano 15 secondi per clonare una voce
OpenAI ha condiviso i risultati preliminari di un modello di IA generativa, chiamato Voice Engine, capace di generare discorsi naturali usando testo (inserito dallâutente) e un campione audio di 15 secondi.
I risultati sono davvero sorprendenti (potete ascoltarne un esempio nel video qui sotto) e consentono a Voice Engine di essere utilizzato in diversi ambiti (per finalitĂ di accessibilitĂ , in ambito medico oppure per tradurre contenuti).
Ovviamente, molti sono i rischi, specialmente legati ai deepfake. Al momento, OpenAI richiede a tutti i partner che stanno testando il modello di impegnarsi al rispetto delle proprie policy che vietano di impersonificare qualcuno. Ma è decisamente troppo poco. In futuro, la società ritiene che il rilascio dello strumento dovrebbe essere accompagnato da una robusta autenticazione degli utenti in modo da evitare i deepfake, cercando anche di prevenire che vengano clonate le voci di personaggi pubblici.
Staremo a vedere.
đ°Â UE đŞđş e USA đşđ¸ lavorano agli standard globali sullâIA (e a un glossario condiviso)
Il Consiglio per il commercio e la tecnologia (TTC) UE-USA, riunitosi il 4 e il 5 aprile, ha lavorato per rafforzare la collaborazione tra Europa e Stati Uniti in materia di intelligenza artificiale.
Questo lavoro comune mira a stabilire standard comuni per garantire lo sviluppo etico e sicuro dell'IA, mantenendo un equilibrio tra innovazione e protezione dei diritti delle persone.
Molto interessante lo sforzo di scrivere un elenco aggiornato delle parole chiave dellâIA, una specie di glossario condiviso, che potrĂ essere utilizzato da legislatori e AutoritĂ di entrambi gli ordinamenti.
âď¸ In Germania đŠđŞ anche i robot hanno il diritto al riposo domenicale
Una catena di supermercati tedesca (Tegut) ha perso la battaglia legale intrapresa per tenere aperti anche di domenica 40 negozi completamente automatizzati. Infatti, in Germania, il riposo domenicale è riconosciuto come diritto costituzionale e un sindacato dei lavoratori ha contestato che lâapertura di questi negozi, nonostante l'assenza di personale, fosse contraria alla norma.
Un tribunale tedesco - in una recente sentenza - ha dato torto alla catena di supermercati, affermando che anche i negozi automatizzati devono restare chiusi di domenica.
Quando, tra qualche anno, discuteremo dei diritti di robot e di intelligenze artificiali, ci ricorderemo di questa pronuncia.
âď¸ Il Garante privacy francese đŤđˇ fornisce indicazioni su come garantire la sicurezza dei dati personali nellâutilizzo dei sistemi di IA
Il Garante privacy francese (CNIL) ha recentemente pubblicato una guida aggiornata che mette in evidenza l'importanza cruciale della sicurezza dei dati nell'era digitale. Allâinterno del documento câè anche un focus relativo allâIA. E non poteva essere diversamente, visto che lâIA è il tema del momento e la CNIL molto probabilmente sarĂ lâAutoritĂ francese competente in materia di IA.
Il Garante transalpino sottolinea il divieto di pratiche dannose per la tutela dei dati, come l'implementazione o lâuso di modelli senza una valutazione accurata dei sistemi e degli output. Valutazione impossibile senza la trasparenza da parte di sviluppatori e fornitori.
đ Consigli di lettura: âThe worlds I seeâ di Fei-Fei Li
Quello della prof.ssa Fei-Fei Li potrebbe non essere un nome conosciuto per molti di voi, ma da oltre vent'anni è una delle figure di spicco dietro il progresso dell'intelligenza artificiale (tra le tante cose che ha fatto ha fondato lâHuman Centered AI Institute dellâUniversitĂ di Stanford di cui parliamo spesso in questa NL).
Il suo libro, The Worlds I See: Curiosity, Exploration, and Discovery at the Dawn of AI, racconta la sua storia personale - una storia di immigrazione e di sacrifici - ma anche la storia dellâintelligenza artificiale. Si tratta di un testo molto ricco di aneddoti, di spiegazioni e di visioni (oltre 300 pagine).
Una lettura obbligata per chi vuole studiare lâIA e capire le sfide dei prossimi anni.
đ Consigli di visione: lâindagine conoscitiva del Senato su IA e giustizia
La Commissione Giustizia del Senato della Repubblica ha avviato unâindagine conoscitiva sullâimpatto dellâintelligenza artificiale nel settore giustizia.
Nellâambito di tale indagine, il 3 aprile, è stato audito anche lâavvocato Ernesto Belisario che, nel corso del suo intervento, si è soffermato sui rischi dellâIA (scatola nera, pregiudizi) e sullâimportanza della formazione.
Cliccando qui è possibile recuperare tutti i contributi degli altri auditi (tra cui prof. Paolo Benanti, il Presidente Giovanni Canzio e il dott. Antonio Balsamo).
đĄ LâIA fa cose (che potrebbe sbagliare, facendo danni)
Non è la solita Tesla: lâIA alle prese con la guida di unâauto sulle strade cinesi
Non mettermi le mani addosso: in Cina un robot è stato addestrato a fare massaggi
đ IA MemeÂ
Severa, ma giusta questa vignetta di Tom Fishburne.

đŁÂ EventiÂ
AI Act: istruzioni per lâuso - Webinar, 9.04.2024
AI WEEKÂ - Rimini, 9-10.04.2024
Cyber Forensics IISFA Forum 2024 - Roma, 12.04.2024
Per ora è tutto, torniamo la prossima settimana. Se la newsletter ti è piaciuta, commenta o fai girare. Grazie!






