🤖 Cosa c'è nella strategia italiana per l'IA? - Legge Zero #35
È stato finalmente pubblicato il documento contenente la strategia governativa in materia di intelligenza artificiale. Leggiamolo insieme per comprenderne novità e criticità di attuazione.
🧠 La via italiana 🇮🇹 all’intelligenza artificiale
Era l’inizio del mese di aprile 2024 quando, grazie a un leak, pubblicammo l’executive summary della strategia governativa sull’intelligenza artificiale (in LeggeZero #19). Pochi giorni fa, dopo tre mesi, è stato pubblicato il documento completo che conferma le indiscrezioni (del resto, nessuno dei soggetti coinvolti aveva mai smentito la veridicità di quelle informazioni).
La Strategia Italiana per l'Intelligenza Artificiale 2024-2026 è un documento di 38 pagine che rappresenta il frutto del lavoro di un gruppo di esperti di alto livello nominati dal Governo (ma non è corredato da nessuna introduzione istituzionale né da una sezione di credits).
L’obiettivo della strategia è - in continuità con i precedenti documenti strategici - consolidare e potenziare l'ecosistema nazionale dell'IA, indirizzando gli sforzi verso la ricerca, la pubblica amministrazione, le imprese e la formazione. L'obiettivo è massimizzare l'impatto positivo dell'IA sul sistema produttivo, educativo e sociale italiano, promuovendo soluzioni tecnologiche che rispettino i valori etici e i diritti fondamentali.
I pilastri della strategia sono quattro.
1. Ricerca: rafforzare l'ecosistema della ricerca nazionale, trattenere e attrarre talenti, sviluppare progetti interdisciplinari per il benessere sociale e migliorare le collaborazioni internazionali.
2. Pubblica Amministrazione: supportare l'efficienza amministrativa attraverso l'adozione di tecnologie IA, migliorare la qualità e la gestione dei dati, formare competenze specifiche e garantire trasparenza e sicurezza nei processi.
3. Imprese: intercettare i bisogni di innovazione delle imprese italiane, sostenere lo sviluppo e l'adozione di soluzioni IA, creare laboratori di sviluppo applicazioni IA e promuovere l'ecosistema delle startup.
4. Formazione: promuovere una formazione capillare sull'IA per tutte le categorie della popolazione.
Le azioni strategiche previste dal documento sono 24
Ricerca (6 azioni): consolidare l'ecosistema della ricerca, sviluppare Large Language Model (LLM) italiani, e promuovere progetti innovativi per il benessere sociale.
Pubblica amministrazione (6 azioni): sviluppare linee guida per l'adozione, l’approvvigionamento e la realizzazione di applicazioni dell'IA in ambito pubblico.
Imprese (5 azioni): definire un sistema di facilitatori per l'adozione dell'IA nelle PMI, sostenere startup innovative, e sviluppare laboratori per applicazioni industriali.
Formazione (7 azioni): introdurre corsi di IA nelle scuole e università, promuovere programmi di upskilling e reskilling, sensibilizzare l'opinione pubblica sulle opportunità offerte dall'IA.
La governance e la Fondazione per l'intelligenza artificiale
La strategia prevede la creazione di una Fondazione per l'Intelligenza Artificiale presso la Presidenza del Consiglio dei ministri. La costituenda fondazione dovrebbe avere compiti di:
1. coordinamento e attuazione delle iniziative strategiche;
2. monitoraggio continuo e valutazione dell’attuazione della strategia;
3. gestione delle risorse destinate a finanziare le azioni strategiche;
4. promozione della consapevolezza dell’importanza dell’IA.
I sei rischi della strategia
Gli estensori del documento hanno dedicato anche un’interessante (e lucida) sezione ai ‘rischi’ della strategia. Un monito per chi sarà chiamato alla sfida dell’attuazione delle azioni strategiche.
I rischi individuati sono:
Rischio del ‘non fare’: in un paese come l’Italia, storicamente refrattario alle tecnologie, approcci timidi al perseguimento degli obiettivi strategici rischiano di risolversi in uno spreco di risorse e in una ulteriore perdita di competitività.
Rischio dell’iper regolazione nazionale: dal momento che esiste già una robusta cornice normativa a livello europeo (a cominciare dall’AI Act), il legislatore nazionale dovrà evitare di costruire ulteriori sovrastrutture regolatorie, adoperandosi invece nella direzione di promuovere l’AI Act con linee guida e percorsi agili e a misura di impresa e di cittadino.
Rischio del digital divide: l'Italia è caratterizzata da un insufficiente livello di digitalizzazione e competenze digitali, con disomogeneità territoriali tra regioni e città. Un programma di innovazione sull'IA, se non ben guidato e indirizzato, potrebbe aumentare questi divari e disomogeneità.
Rischio dell'inefficacia: la strategia nazionale potrebbe mancare di efficacia nella sua attuazione a causa della complessità delle dinamiche dell'IA e della necessità di gestire molteplici linee di azione.
Rischio dell'omogeneizzazione culturale: la maggior parte dei sistemi di IA, oggi prodotti all'estero, potrebbero portare alla riproduzione di idee e valori sovente disomogenei rispetto al contesto sociale italiano ed europeo. Per questo si ritiene fondamentale sviluppare sistemi che rispettino i valori costituzionali e democratici.
Rischio per il mondo del lavoro: l'accelerazione dell’introduzione di sistemi di IA in ambito produttivo potrebbe accelerare la trasformazione del mercato del lavoro, richiedendo nuove competenze e professionalità (e determinando la crisi di alcune professionalità e figure).
Cosa manca nella strategia
La lettura documento non scioglie alcune domande che in tanti si erano posti all’indomani della pubblicazione dell’executive summary.
Quali sono gli attori che saranno coinvolti nell’attuazione del Piano (sotto il coordinamento della Fondazione)? Quanto tempo occorrerà per costituire e rendere operativa la Fondazione? Non sarebbe stato più veloce assegnare queste attività a un soggetto istituzionale già esistente? Perché il documento ha un orizzonte triennale? Sono previsti tempi specifici per il completamento delle azioni? Quali e quanti fondi saranno utilizzati per l’attuazione della strategia?
Probabilmente alcune risposte potrebbero essere fornite in sede di esame del Disegno di legge parlamentare sull’IA (che abbiamo analizzato in LeggeZero #22). Come è chiaro agli esperti che hanno scritto il documento e a tanti commentatori, tempi (veloci) e risorse (cospicue) sono le vere variabili da cui dipenderà il successo della strategia.
🔊 Un vocale da… Davide D’Amico (Ministero dell’Istruzione e del Merito)
Come vengono addestrati i sistemi di intelligenza artificiale? Cosa è cambiato con l’addestramento collettivo delle IA generative? Nel vocale di questa settimana, il Direttore Generale dei sistemi informativi del MIM ce lo spiega, facendoci capire perché è un tema importante anche per chi, semplicemente, usa i sistemi di IA.
📰 Kamala Harris Vs. Donald Trump: l’IA sempre più centrale nelle presidenziali USA 🇺🇸
Nel precedente numero di questa newsletter (LeggeZero #34) avevamo scritto dell’eredità di Joe Biden nella regolazione dell’intelligenza artificiale. Siamo stati quasi profetici. Poche ore dopo, come sapete tutti, il Presidente in carica ha annunciato la sua intenzione di non ricandidarsi e ha lanciato la sua Vice, Kamala Harris. In tanti si sono chiesti cosa cambierà per il settore dell’IA, visto che - come abbiamo detto anche noi - questo sarà un tema centrale della campagna elettorale, con esiti che non riguarderanno solo gli statunitensi (qui un interessante approfondimento pubblicato da Brookings).
Ma qual è la posizione di Kamala Harris sull’IA? In attesa di impegni elettorali più precisi, è facile ipotizzare che andrà in continuità con la strategia di Biden, un’azione di governo che la vede impegnata in prima persona. Questa settimana, ad esempio è stato pubblicato un importante report sull’attuazione dell’executive order presidenziale dello scorso ottobre e gli obiettivi raggiunti vengono rivendicati dall’amministrazione “Biden-Harris” (segno della volontà di assegnare i meriti anche alla neo-candidata). Tra i risultati raggiunti c’è l’adesione volontaria di Apple al programma di gestione dei rischi dell’IA promosso dalla Casa Bianca (al quale avevano precedentemente già aderito altre 15 importanti aziende tra cui Microsoft, OpenAI e Google). Del resto, Kamala Harris è stata procuratrice generale della California, lo Stato della Silicon Valley, e vanta una grande conoscenza delle aziende tecnologiche e delle loro esigenze (qui alcuni analisti prevedono quindi che, se eletta, la Harris concederà maggiore flessibilità alle aziende tecnologiche, pur nella continuità con l’azione di Biden).
In questo scenario, prosegue però l’attività del parlamento USA sulle regole dell’IA (qui sotto una figura molto interessante sul numero di proposte di legge in questo settore): è stato annunciato un disegno di legge bipartisan per definire metodologie per i controlli sui sistemi di IA. Questa proposta dimostra che, anche se ci sono idee diverse su come affrontarla, la preoccupazione sui rischi dell’IA è evidentemente condivisa tra democratici e repubblicani.
📰 Collaborazione tra USA 🇺🇸 e UE 🇪🇺 sulla governance dell’intelligenza artificiale
Lo scorso 11 luglio è stato avviato un importante dialogo tecnico tra l'European AI Office e l'US AI Safety Institute. Questo dialogo mira a rafforzare la collaborazione bilaterale nel campo dell'intelligenza artificiale e a promuovere lo scambio di informazioni scientifiche.
La discussione ha affrontato tre argomenti chiave:
1. Filigrana e autenticazione dei contenuti sintetici: esplorazione delle migliori pratiche per garantire la provenienza e l'integrità dei contenuti generati dall'IA (combattendo i deepfake).
2. Infrastruttura informatica governativa: individuazione delle infrastrutture necessarie per supportare lo sviluppo e l'implementazione sicura dell'IA a livello governativo.
3. IA per il bene della società: focus su come l'IA può contribuire alle sfide legate ai cambiamenti climatici (ad esempio prevedendo i disastri ambientali).
Vedremo se il dialogo USA-UE e la collaborazione per la costituzione di un blocco atlantico per la governance dell’IA sopravviveranno alle elezioni presidenziali statunitensi.
⚖️ AI Act: cosa farà l’AI Office UE 🇪🇺 ?
Tra pochi giorni l’AI Act entrerà in vigore, ma - come abbiamo scritto in LeggeZero #33 - sarà solo l’inizio di un lungo e complicato percorso.
Kai Zenner, consulente per le politiche digitali dell'eurodeputato Axel Voss, ha scritto un interessante post sul suo blog in cui ha pubblicato un documento in cui riassume (in 25 pagine) le 130 attività assegnate all'AI Office dall'AI Act. Queste attività vengono suddivise in quattro categorie principali:
Sistema di governance dell'IA: 39 attività finalizzate alla definizione di un sistema di governance dell'IA, da implementare entro il 2 agosto 2026.
Legislazione secondaria: adozione di 39 documenti, inclusi atti delegati, atti di esecuzione, linee guida, modelli, codici di condotta e atti di standardizzazione. Solo alcuni di questi atti hanno scadenze precise.
Attività di esecuzione: 34 diverse di attività di esecuzione del Regolamento, alcune delle quali a partire dal 2 febbraio 2025.
Valutazione ex post della legge: 18 compiti per la valutazione ex post della legge, da svolgere tra il 2025 e il 2031.
Insomma, un lavoro durissimo e una roadmap quasi proibitiva, non solo per chi dovrà rispettarla, ma anche per tutti gli addetti ai lavori (provider, utilizzatori, consulenti). Questo elenco dettagliato - che potete scaricare qui sotto - può essere utile a chi vuole sapere cosa manca per rendere il Regolamento europeo davvero operativo e a seguirne l’evoluzione.
⚖️ Per il Comitato europeo per la protezione dei dati 🇪🇺 i Garanti Privacy devono avere un ruolo centrale nell’attuazione dell’AI Act
Il Comitato Europeo per la Protezione dei Dati (EDPB) ha rilasciato una dichiarazione riguardante il ruolo delle Autorità europee di Protezione dei Dati nel contesto dell'Artificial Intelligence Act. Il documento sottolinea l'importanza dei diversi Garanti nell'assicurare che l'uso dell'IA rispetti le normative sulla protezione dei dati.
Nel documento (che trovate qui), l'EDPB raccomanda che:
i Garanti siano designati anche come autorità competenti in materia di IA;
siano definite procedure chiare per la cooperazione tra tutte le differenti autorità nazionali competenti in materia di IA;
sia promossa una cooperazione adeguata tra l’EDPB e l’AI Office della Commissione europea.
Come ricorderanno bene i più assidui lettori di LeggeZero, non è la prima volta che le autorità competenti in materia di data protection rivendicano un ruolo centrale non solo nell’attuazione del GDPR, ma anche in quella dell’AI Act. Indipendentemente da quanti saranno i Paesi che le seguiranno (l’Italia ha già deciso di fare scelte diverse), sarà importante per tutti che venga costituito un coordinamento efficace, anche per dare certezze ad amministrazioni e imprese. La sensazione è che saranno premiati - anche dal mercato - quei Paesi in cui sarà più efficace la collaborazione tra le diverse Autorità coinvolte (es. IA, protezione dei dati, comunicazioni, antitrust, cybersicurezza).
😂 IA Meme
Siete Batman o Robin?
😂 IA Meme che non lo erano
Alcuni utenti hanno chiesto a ChatGPT di disegnare un proprio autoritratto. In diversi casi, la risposta è stata quella che vedete qui sotto, molto somigliante ai robot umanoidi di certi vecchi film di fantascienza. Fa ridere, ma anche riflettere.
📚 Consigli di lettura: "Dobbiamo essere gentili con le IA?" di Z. Yin, H. Wang, K. Horio, D. Kawahara, S. Sekine
Se siete tra coloro che dicono ‘per favore’ e ‘grazie’ a ChatGPT e agli altri Chatbot di IA generativa, sappiate che siete in buona compagnia. Secondo questo sondaggio online di Ethan Mollick, professore dell’Università della Pennsylvania, quasi la metà delle persone ha dichiarato di essere educata con i LLM, mentre una minoranza (il 16%) ha riferito di usare solo forme imperative.
In tanti, a seguito del boom delle IA generative, hanno ironizzato dicendo che è meglio essere gentili con le IA, visto che queste domineranno il mondo. Eppure, scherzi a parte, pare che sia proprio così. Secondo uno studio di alcuni ricercatori giapponesi, dovremmo davvero essere gentili e rispettosi quando interagiamo con i Chatbot. Per almeno due ordini di ragioni:
Innanzitutto, pare che la qualità delle risposte generate da LLM è migliore se gli utenti sono gentili. Questo, probabilmente, perché la gentilezza guida il modello a scegliere il tipo di risposta (evitando, ad esempio fonti e dati provenienti da complottisti e cospiratori). Attenzione però: se usate una gentilezza eccessiva, potreste causare comunque un calo della qualità (e di affidabilità) delle risposte.
Le macchine non percepiscono la gentilezza così come non percepiscono la maleducazione. Le persone invece la percepiscono e ne sono condizionate. E questo è il motivo per cui - anche se interagiremo sempre di più con IA - non dobbiamo perdere l’abitudine di essere cortesi (con le IA e con le altre persone). È un’abitudine che eviterà un peggioramento della nostra vita digitale e, visto quanto questa ci condiziona, anche delle nostre relazioni ‘umane’ (ne parla anche un recente articolo pubblicato da Scientific American che trovate qui).
📚 Consigli di lettura e di visione: Altman e Zuckerberg sullo stato dell’IA
In questo particolare momento storico, per sapere quali sono i fronti aperti dell’IA, è utilissimo leggere e ascoltare le parole dei protagonisti di questa rivoluzione. Tra questi, figurano sicuramente i CEO delle più importanti aziende.
Questa settimana vi segnaliamo:
Il lungo editoriale scritto da Sam Altman (CEO di OpenAI) sul Washington Post dal titolo ‘Who will control the future of AI?’ (ovvero ‘ Chi controllerà il futuro dell’IA?’). Al centro dell’articolo c’è la necessità di garantire che il futuro dell'intelligenza artificiale sia guidato da principi democratici e non autoritari (in questo caso, il riferimento è a Russia e Cina). Altman sottolinea che il mondo è a un bivio e che è cruciale che gli Stati Uniti e le nazioni alleate lavorino insieme per assicurare che l'IA benefici il maggior numero possibile di persone. Se ve lo state chiedendo, l’Europa non viene mai citata, ma ci sono riferimenti a UK e Giappone.
L’intervista di Bloomberg a Mark Zuckerberg (CEO di Meta) in cui anche il fondatore di Facebook affronta le questioni geopolitiche legate alla governance dell’IA (e l’impegno affinché gli USA conservino una leadership in questo settore). Interessante la parte in cui Zuckerberg illustra le ragioni e i benefici dell’approccio open source all’IA scelto da Meta.
🙏 Grazie per averci letto!
Per ora è tutto, torniamo la prossima settimana. Se la newsletter ti è piaciuta, commenta o fai girare.