
🤖 La prima convenzione internazionale sull'IA – Legge Zero #25
Nella settimana in cui OpenAI ha presentato la nuova versione di ChatGPT (Her), il Consiglio d'Europa ha adottato il primo trattato internazionale su intelligenza artificiale e diritti umani.
Ho letto da qualche parte di un'antica maledizione cinese che recita: “che tu possa vivere in tempi interessanti”. In questa frase, che solo apparentemente è un bell’augurio, il termine “interessanti” significa inquietanti, conflittuali, difficili da gestire.
E si, a pensarci bene, viviamo in tempi molto interessanti. Solo pochi anni fa, era il 2014, al cinema, guardavamo “Her”, un film in cui un uomo si innamora di un’assistente vocale. E ci sembrava fantascienza, una realtà lontana. E invece, nei giorni scorsi, OpenAI ha presentato la nuova versione di ChatGPT (ChatGPT-4o), capace - tra le altre cose - di riconoscere le emozioni degli utenti e, al tempo stesso, di modulare la propria voce di conseguenza.

Quale sia il motivo per cui uno dei più importanti provider mondiali di IA abbia deciso di costruire un’assistente ispirata a un film è sicuramente “interessante”, ma forse forse secondario se ci sono regole che evitino gli scenari distopici del film. Anche perché sappiamo bene cosa significhi introdurre tecnologie senza limiti: è sufficiente guardare l’impatto delle piattaforme social sul dibattito pubblico e sulla salute dei minori, ad esempio.
Il problema è che scrivere regole per l’IA è tutto fuorché semplice e immediato. L’UE - dopo interventi di settore - sta approvando la prima disciplina organica dopo ben quattro anni di lavoro, mentre gli Stati Uniti - nonostante tante leggi nei singoli Stati - arriveranno a una norma federale solo dopo le presidenziali di novembre.

In questo scenario, è passata quasi inosservata la notizia dell’adozione - da parte del Consiglio d’Europa - del primo Trattato internazionale sull’intelligenza artificiale.
La convenzione è il risultato di due anni di lavoro svolto da un organismo intergovernativo, il Comitato sull’intelligenza artificiale (CAI), che ha riunito i 46 Stati membri del Consiglio d’Europa, l’Unione europea e 11 Stati non membri (Argentina, Australia, Canada, Costa Rica, Giappone, Israele, Messico, Perù, Santa Sede, Stati Uniti d’America e Uruguay), nonché rappresentanti del settore privato, della società civile e del mondo accademico, che hanno partecipato in qualità di osservatori.
Questi i punti principali:
Obiettivi e Scopo (Articolo 1): la Convenzione mira a garantire che le attività nell'intero ciclo di vita dei sistemi di IA rispettino i diritti umani, la democrazia e lo stato di diritto, adottando misure legislative e amministrative appropriate.
Definizione di Sistemi di IA (Articolo 2): un sistema di IA è definito come un sistema basato su macchine che, tramite input ricevuti, genera output come previsioni, raccomandazioni o decisioni che possono influenzare ambienti fisici o virtuali (si tratta della medesima definizione OCSE già presa a riferimento dall’AI Act).
Ambito di Applicazione (Articolo 3): la Convenzione si applica alle attività dei sistemi di IA che potrebbero interferire con i diritti umani, la democrazia e lo stato di diritto, condotte da autorità pubbliche (con l’eccezione della sicurezza nazionale). Saranno gli stati a decidere se, e in che limiti, applicare la convenzione anche ai privati.
Obblighi Generali (Articoli 4-5):
Devono essere adottate misure per assicurare:
la protezione dei diritti umani;
l’ntegrità dei Processi Democratici.
Principi Generali (Articoli 6-13):
Devono essere sempre garantiti i principi di:
Dignità umana e autonomia individuale;
trasparenza e supervisione;
responsabilità e affidabilità
Rimedi e Garanzie Procedurali (Articoli 14-15): ogni Stato Parte deve garantire rimedi accessibili ed efficaci per le violazioni dei diritti umani causate dalle attività dei sistemi di IA e assicurare garanzie procedurali appropriate.
Valutazione e Mitigazione dei Rischi (Articolo 16): dovranno essere adottate misure per identificare, valutare, prevenire e mitigare i rischi posti dai sistemi di IA ai diritti umani, alla democrazia e allo stato di diritto.
Consultazione Pubblica e Alfabetizzazione Digitale (Articoli 19-20): devono essere promosse la consultazione pubblica su questioni rilevanti e l'alfabetizzazione digitale per tutta la popolazione.
Chi è interessato ad un’analisi dettagliata della Convenzione, può consultare il rapporto esplicativo che si può scaricare qui sotto.
La Convenzione è un documento interessante ma molto generico e la cui reale portata dipenderà da come i singoli Stati - Italia in primis - decideranno di darvi attuazione. A parte la possibile sovrapposizione con l’AI Act - sicuramente più dettagliato in termini di prescrizioni - colpiscono le esclusioni. Sia le organizzazioni della società civile (come Algorithm Watch) sia l'Alto commissario delle Nazioni Unite per i diritti umani, Volker Türk, hanno criticato l’esclusione dal trattato degli usi degli IA in materia di sicurezza nazionale e il fatto che saranno gli Stati a decidere se e in che misura applicare la convenzione alle aziende oppure lasciarle libere.
Ma questi appelli sono caduti nel vuoto. Viviamo in tempi interessanti.
🔊 Un vocale da… Eleonora Faina (Anitec-Assinform): qual è il punto di equilibrio tra regolazione e innovazione? quali sono gli impatti delle nuove norme (come l’AI Act) sul mondo delle imprese? come fare per evitare che le regole siano un freno all’innovazione? Ne parliamo nel vocale di questa settimana con il direttore generale di una delle più importanti associazioni di categoria.
📰 Sony Music scrive a 700 provider di IA: non usate le nostre canzoni
Sony Music Group (SMG) ha scritto a 700 tra provider di IA e fornitori di servizi streaming, dichiarando ufficialmente di non voler consentire l'uso dei suoi brani per l'addestramento di modelli di intelligenza artificiale.
Secondo Sony Music, la pratica di utilizzare brani musicali per addestrare IA senza permesso viola il copyright e danneggia l'industria musicale (del rapporto tra IA e industria musicale abbiamo parlato in Legge Zero #21 e #24).
Inoltre, anche in previsione dell’ormai imminente AI Act europeo, Sony ha pubblicato una dichiarazione di optout sul proprio sito in cui afferma che è vietato l'utilizzo dei suoi contenuti - comprese le opere creative disponibili al pubblico - per addestrare i sistemi di IA artificiale.
Altre major seguiranno l’esempio?

📰 Rischi e sicurezza delle IA avanzate: pubblicato un rapporto scientifico internazionale
Ricordate l’AI Security Summit tenutosi a Bletchley Park nel novembre 2023? (per i meno attenti, ne parlammo in Legge Zero #0). Ebbene, gli oltre trenta Paesi - tra cui l’Italia - che si erano incontrati in UK hanno deciso di rivedersi nel corso di un nuovo Summit che si terrà dal 21 al 24 maggio a Seoul, in Corea del Sud.
In questi mesi il confronto internazionale è proseguito attraverso la creazione di un gruppo di 75 esperti di 30 Paesi che - con il coordinamento del prof. Yoshua Bengio (una vera autorità) - hanno contribuito a scrivere la prima bozza di un report di 132 pagine dal titolo "International Scientific Report on the Safety of Advanced AI".
Questo rapporto, la cui versione definitiva sarà presentata nel corso del prossimo Summit (in Francia nel 2025), ha l’obiettivo di creare una comprensione scientifica condivisa dei rischi legati alle IA generali, ovvero quelle capaci di svolgere una vasta gamma di compiti.
Ecco alcuni punti salienti:
Le IA generali possono essere utilizzate per promuovere l'interesse pubblico, portando a un maggiore benessere, prosperità e scoperte scientifiche.
Gli esperti non concordano sul ritmo previsto del progresso futuro delle capacità delle IA generali.
La comprensione delle capacità e del funzionamento interno delle IA generali è limitata. Migliorare questa comprensione dovrebbe essere una priorità.
Come tutte le tecnologie potenti, le IA generali attuali e future possono essere utilizzate per causare danni. Ad esempio, attori malevoli possono utilizzare l'IA per operazioni di disinformazione su larga scala, frodi e truffe.
I futuri progressi nelle IA generali potrebbero comportare rischi sistemici, inclusa la disgregazione del mercato del lavoro e le disuguaglianze di potere economico. Gli esperti hanno opinioni diverse sul rischio che l'umanità perda il controllo sull'IA in modo tale da provocare risultati catastrofici.
Diverse metodologie tecniche (inclusi benchmarking, red-teaming e audit dei dati di addestramento) possono aiutare a mitigare i rischi, sebbene tutti i metodi attuali presentino dei limiti.
Il futuro dell'IA è incerto, con una vasta gamma di scenari possibili. Gli esperti concordano che le decisioni dei legislatori e dei governi avranno un impatto significativo sul suo futuro.
⚖️ Da Microsoft un paper su IA e rispetto del GDPR
Microsoft ha pubblicato un white paper, in lingua inglese, pensato per aiutare le organizzazioni del settore pubblico a utilizzare le (sue) soluzioni di IA generativa nel rispetto dei requisiti del GDPR.
Il documento - oltre a illustrare in dettaglio gli obblighi del GDPR relativi a servizi Microsoft - è utile perché aiuta a comprendere che:
un’amministrazione deve valutare le implicazioni delle norme sulla protezione dei dati personali in caso (sempre più frequente) di uso della IA;
è fondamentale provvedere all’aggiornamento degli accordi e delle istruzioni da impartire ai fornitori.
⚖️ Il Senato USA 🇺🇸 pubblica una roadmap sulla politica dell'IA
In risposta ai rapidi sviluppi nel campo dell'intelligenza artificiale (IA), un gruppo di lavoro bipartisan del Senato statunitense, per un anno, ha studiato l’IA incontrando molti dei protagonisti del settore (come Sam Altman e Elon Musk). Al termine di questa prima fase di lavori, i Senatori hanno pubblicato un documento che vuole rappresentare un punto di partenza per le successive iniziative legislative.
Il documento - in cui si richiede uno stanziamento di 32 miliardi di dollari per ricerca e sviluppo - è stato però criticato perché vago e generico. Troppo poco e (forse) troppo tardi.
😂 IA Meme
Addestriamo le IA ad essere sempre più potenti e performanti. Inizieranno ad avere l’ansia da prestazione?

📚 Consigli di lettura: “AI and Epistemic Risk for Democracy: A Coming Crisis of Public Knowledge?” di John P. Wihbey
Che impatto ha l'intelligenza artificiale sulla democrazia e sulla conoscenza pubblica? Alcune risposte a questa domanda si trovano nel saggio "AI and Epistemic Risk for Democracy: A Coming Crisis of Public Knowledge?" di John P. Wihbey. Questo lavoro esplora come le tecnologie avanzate di intelligenza artificiale potrebbero influenzare profondamente le basi dell'informazione e della conoscenza su cui si fonda la vita democratica.
Wihbey analizza i rischi epistemici, ovvero i pericoli per la conoscenza pubblica e l'autonomia umana derivanti dall'integrazione sempre più pervasiva dell'IA nei domini informativi. L'autore mette in evidenza tre aree di rischio specifiche: giornalismo, moderazione dei contenuti sui social media e sondaggi d'opinione, mostrando come l'IA potrebbe alterare la percezione pubblica e la deliberazione democratica.
Il saggio invita a riflettere su come lavorare sulla consapevolezza delle persone e sui processi di acquisizione della conoscenza in un'epoca dominata dalle IA, promuovendo al tempo stesso modelli di IA che rispettino i limiti epistemici e l'incompletezza dei giudizi umani.
📚 Consigli di visione: “Lei” di Spike Jonze
Los Angeles, un futuro che è diventato presente. Theodore, un ragazzo solitario dal cuore spezzato che si guadagna da vivere scrivendo lettere "personali" per gli altri, acquista un sistema informatico di nuova generazione progettato per soddisfare tutte le esigenze dell'utente. Il nome della voce del sistema è Samantha, che si dimostra sensibile, profonda e divertente. Il rapporto di Theodore e Samantha cresce e l'amicizia si trasforma in amore ma...
Sappiamo che in tanti lo hanno già visto, ma dopo le ultime evoluzioni dei sistemi di IA (e la presentazione di ChatGPT-4o) crediamo che sia interessante riguardarlo come qualcosa di reale, un fenomeno da affrontare e regolare.
📣 Eventi
Mipro 2024 - Opatija (Croatia), 20-24.05.2024
Procedamus 2024 - Salerno, 23.05.2024
Intelligenza artificiale per le pubbliche amministrazioni: gli obblighi dell'AI Act e le implicazioni del DDL del Governo - Webinar, 07.06.2024
🙏 Grazie per averci letto!
Per ora è tutto, torniamo la prossima settimana. Se la newsletter ti è piaciuta, commenta o fai girare.