π€ La prima convenzione internazionale sull'IA β Legge Zero #25
Nella settimana in cui OpenAI ha presentato la nuova versione di ChatGPT (Her), il Consiglio d'Europa ha adottato il primo trattato internazionale su intelligenza artificiale e diritti umani.
Ho letto da qualche parte di un'antica maledizione cinese che recita: βche tu possa vivere in tempi interessantiβ. In questa frase, che solo apparentemente Γ¨ un bellβaugurio, il termine βinteressantiβ significa inquietanti, conflittuali, difficili da gestire.
E si, a pensarci bene, viviamo in tempi molto interessanti. Solo pochi anni fa, era il 2014, al cinema, guardavamo βHerβ, un film in cui un uomo si innamora di unβassistente vocale. E ci sembrava fantascienza, una realtΓ lontana. E invece, nei giorni scorsi, OpenAI ha presentato la nuova versione di ChatGPT (ChatGPT-4o), capace - tra le altre cose - di riconoscere le emozioni degli utenti e, al tempo stesso, di modulare la propria voce di conseguenza.
Quale sia il motivo per cui uno dei piΓΉ importanti provider mondiali di IA abbia deciso di costruire unβassistente ispirata a un film Γ¨ sicuramente βinteressanteβ, ma forse forse secondario se ci sono regole che evitino gli scenari distopici del film. Anche perchΓ© sappiamo bene cosa significhi introdurre tecnologie senza limiti: Γ¨ sufficiente guardare lβimpatto delle piattaforme social sul dibattito pubblico e sulla salute dei minori, ad esempio.
Il problema Γ¨ che scrivere regole per lβIA Γ¨ tutto fuorchΓ© semplice e immediato. LβUE - dopo interventi di settore - sta approvando la prima disciplina organica dopo ben quattro anni di lavoro, mentre gli Stati Uniti - nonostante tante leggi nei singoli Stati - arriveranno a una norma federale solo dopo le presidenziali di novembre.
In questo scenario, Γ¨ passata quasi inosservata la notizia dellβadozione - da parte del Consiglio dβEuropa - del primo Trattato internazionale sullβintelligenza artificiale.
La convenzione Γ¨ il risultato di due anni di lavoro svolto da un organismo intergovernativo, il Comitato sullβintelligenza artificiale (CAI), che ha riunito i 46 Stati membri del Consiglio dβEuropa, lβUnione europea e 11Β Stati non membri (Argentina, Australia, Canada, Costa Rica, Giappone, Israele, Messico, PerΓΉ, Santa Sede, Stati Uniti dβAmerica e Uruguay), nonchΓ© rappresentanti del settore privato, della societΓ civile e del mondo accademico, che hanno partecipato in qualitΓ di osservatori.
Questi i punti principali:
Obiettivi e Scopo (Articolo 1): la Convenzione mira a garantire che le attivitΓ nell'intero ciclo di vita dei sistemi di IA rispettino i diritti umani, la democrazia e lo stato di diritto, adottando misure legislative e amministrative appropriate.
Definizione di Sistemi di IA (Articolo 2): un sistema di IA Γ¨ definito come un sistema basato su macchine che, tramite input ricevuti, genera output come previsioni, raccomandazioni o decisioni che possono influenzare ambienti fisici o virtuali (si tratta della medesima definizione OCSE giΓ presa a riferimento dallβAI Act).
Ambito di Applicazione (Articolo 3): la Convenzione si applica alle attivitΓ dei sistemi di IA che potrebbero interferire con i diritti umani, la democrazia e lo stato di diritto, condotte da autoritΓ pubbliche (con lβeccezione della sicurezza nazionale). Saranno gli stati a decidere se, e in che limiti, applicare la convenzione anche ai privati.
Obblighi Generali (Articoli 4-5):
Devono essere adottate misure per assicurare:
la protezione dei diritti umani;
lβntegritΓ dei Processi Democratici.
Principi Generali (Articoli 6-13):
Devono essere sempre garantiti i principi di:
DignitΓ umana e autonomia individuale;
trasparenza e supervisione;
responsabilitΓ e affidabilitΓ
Rimedi e Garanzie Procedurali (Articoli 14-15): ogni Stato Parte deve garantire rimedi accessibili ed efficaci per le violazioni dei diritti umani causate dalle attivitΓ dei sistemi di IA e assicurare garanzie procedurali appropriate.
Valutazione e Mitigazione dei Rischi (Articolo 16): dovranno essere adottate misure per identificare, valutare, prevenire e mitigare i rischi posti dai sistemi di IA ai diritti umani, alla democrazia e allo stato di diritto.
Consultazione Pubblica e Alfabetizzazione Digitale (Articoli 19-20): devono essere promosse la consultazione pubblica su questioni rilevanti e l'alfabetizzazione digitale per tutta la popolazione.
Chi Γ¨ interessato ad unβanalisi dettagliata della Convenzione, puΓ² consultare il rapporto esplicativo che si puΓ² scaricare qui sotto.
La Convenzione Γ¨ un documento interessante ma molto generico e la cui reale portata dipenderΓ da come i singoli Stati - Italia in primis - decideranno di darvi attuazione. A parte la possibile sovrapposizione con lβAI Act - sicuramente piΓΉ dettagliato in termini di prescrizioni - colpiscono le esclusioni. Sia le organizzazioni della societΓ civile (come Algorithm Watch) sia l'Alto commissario delle Nazioni Unite per i diritti umani, Volker TΓΌrk, hanno criticato lβesclusione dal trattato degli usi degli IA in materia di sicurezza nazionale e il fatto che saranno gli Stati a decidere se e in che misura applicare la convenzione alle aziende oppure lasciarle libere.
Ma questi appelli sono caduti nel vuoto. Viviamo in tempi interessanti.
πΒ Un vocale daβ¦Β Eleonora Faina (Anitec-Assinform):Β qual Γ¨ il punto di equilibrio tra regolazione e innovazione? quali sono gli impatti delle nuove norme (come lβAI Act) sul mondo delle imprese? come fare per evitare che le regole siano un freno allβinnovazione? Ne parliamo nel vocale di questa settimana con il direttore generale di una delle piΓΉ importanti associazioni di categoria.
π° Sony Music scrive a 700 provider di IA: non usate le nostre canzoni
Sony Music Group (SMG) ha scritto a 700 tra provider di IA e fornitori di servizi streaming, dichiarando ufficialmente di non voler consentire l'uso dei suoi brani per l'addestramento di modelli di intelligenza artificiale.
Secondo Sony Music, la pratica di utilizzare brani musicali per addestrare IA senza permesso viola il copyright e danneggia l'industria musicale (del rapporto tra IA e industria musicale abbiamo parlato in Legge Zero #21 e #24).
Inoltre, anche in previsione dellβormai imminente AI Act europeo, Sony ha pubblicato una dichiarazione di optout sul proprio sito in cui afferma che Γ¨ vietato l'utilizzo dei suoi contenuti - comprese le opere creative disponibili al pubblico - per addestrare i sistemi di IA artificiale.
Altre major seguiranno lβesempio?
π° Rischi e sicurezza delle IA avanzate: pubblicato un rapporto scientifico internazionale
Ricordate lβAI Security Summit tenutosi a Bletchley Park nel novembre 2023? (per i meno attenti, ne parlammo in Legge Zero #0). Ebbene, gli oltre trenta Paesi - tra cui lβItalia - che si erano incontrati in UK hanno deciso di rivedersi nel corso di un nuovo Summit che si terrΓ dal 21 al 24 maggio a Seoul, in Corea del Sud.
In questi mesi il confronto internazionale Γ¨ proseguito attraverso la creazione di un gruppo di 75 esperti di 30 Paesi che - con il coordinamento del prof. Yoshua Bengio (una vera autoritΓ ) - hanno contribuito a scrivere la prima bozza di un report di 132 pagine dal titolo "International Scientific Report on the Safety of Advanced AI".
Questo rapporto, la cui versione definitiva sarΓ presentata nel corso del prossimo Summit (in Francia nel 2025), ha lβobiettivo di creare una comprensione scientifica condivisa dei rischi legati alle IA generali, ovvero quelle capaci di svolgere una vasta gamma di compiti.
Ecco alcuni punti salienti:
Le IA generali possono essere utilizzate per promuovere l'interesse pubblico, portando a un maggiore benessere, prosperitΓ e scoperte scientifiche.
Gli esperti non concordano sul ritmo previsto del progresso futuro delle capacitΓ delle IA generali.
La comprensione delle capacitΓ e del funzionamento interno delle IA generali Γ¨ limitata. Migliorare questa comprensione dovrebbe essere una prioritΓ .
Come tutte le tecnologie potenti, le IA generali attuali e future possono essere utilizzate per causare danni. Ad esempio, attori malevoli possono utilizzare l'IA per operazioni di disinformazione su larga scala, frodi e truffe.
I futuri progressi nelle IA generali potrebbero comportare rischi sistemici, inclusa la disgregazione del mercato del lavoro e le disuguaglianze di potere economico. Gli esperti hanno opinioni diverse sul rischio che l'umanitΓ perda il controllo sull'IA in modo tale da provocare risultati catastrofici.
Diverse metodologie tecniche (inclusi benchmarking, red-teaming e audit dei dati di addestramento) possono aiutare a mitigare i rischi, sebbene tutti i metodi attuali presentino dei limiti.
Il futuro dell'IA Γ¨ incerto, con una vasta gamma di scenari possibili. Gli esperti concordano che le decisioni dei legislatori e dei governi avranno un impatto significativo sul suo futuro.
βοΈΒ Da Microsoft un paper su IA e rispetto del GDPR
Microsoft ha pubblicato un white paper, in lingua inglese, pensato per aiutare le organizzazioni del settore pubblico a utilizzare le (sue) soluzioni di IA generativa nel rispetto dei requisiti del GDPR.
Il documento - oltre a illustrare in dettaglio gli obblighi del GDPR relativi a servizi Microsoft - Γ¨ utile perchΓ© aiuta a comprendere che:
unβamministrazione deve valutare le implicazioni delle norme sulla protezione dei dati personali in caso (sempre piΓΉ frequente) di uso della IA;
Γ¨ fondamentale provvedere allβaggiornamento degli accordi e delle istruzioni da impartire ai fornitori.
βοΈΒ Il Senato USA πΊπΈ pubblica una roadmap sulla politica dell'IA
In risposta ai rapidi sviluppi nel campo dell'intelligenza artificiale (IA), un gruppo di lavoro bipartisan del Senato statunitense, per un anno, ha studiato lβIA incontrando molti dei protagonisti del settore (come Sam Altman e Elon Musk). Al termine di questa prima fase di lavori, i Senatori hanno pubblicato un documento che vuole rappresentare un punto di partenza per le successive iniziative legislative.
Il documento - in cui si richiede uno stanziamento di 32 miliardi di dollari per ricerca e sviluppo - Γ¨ stato perΓ² criticato perchΓ© vago e generico. Troppo poco e (forse) troppo tardi.
πΒ IA MemeΒ
Addestriamo le IA ad essere sempre piΓΉ potenti e performanti. Inizieranno ad avere lβansia da prestazione?
π Consigli di lettura: βAI and Epistemic Risk for Democracy: A Coming Crisis of Public Knowledge?β di John P. Wihbey
Che impatto ha l'intelligenza artificiale sulla democrazia e sulla conoscenza pubblica? Alcune risposte a questa domanda si trovano nel saggio "AI and Epistemic Risk for Democracy: A Coming Crisis of Public Knowledge?" di John P. Wihbey. Questo lavoro esplora come le tecnologie avanzate di intelligenza artificiale potrebbero influenzare profondamente le basi dell'informazione e della conoscenza su cui si fonda la vita democratica.
Wihbey analizza i rischi epistemici, ovvero i pericoli per la conoscenza pubblica e l'autonomia umana derivanti dall'integrazione sempre piΓΉ pervasiva dell'IA nei domini informativi. L'autore mette in evidenza tre aree di rischio specifiche: giornalismo, moderazione dei contenuti sui social media e sondaggi d'opinione, mostrando come l'IA potrebbe alterare la percezione pubblica e la deliberazione democratica.
Il saggio invita a riflettere su come lavorare sulla consapevolezza delle persone e sui processi di acquisizione della conoscenza in un'epoca dominata dalle IA, promuovendo al tempo stesso modelli di IA che rispettino i limiti epistemici e l'incompletezza dei giudizi umani.
π Consigli di visione: βLeiβ di Spike Jonze
Los Angeles, un futuro che Γ¨ diventato presente. Theodore, un ragazzo solitario dal cuore spezzato che si guadagna da vivere scrivendo lettere "personali" per gli altri, acquista un sistema informatico di nuova generazione progettato per soddisfare tutte le esigenze dell'utente. Il nome della voce del sistema Γ¨ Samantha, che si dimostra sensibile, profonda e divertente. Il rapporto di Theodore e Samantha cresce e l'amicizia si trasforma in amore ma...
Sappiamo che in tanti lo hanno giΓ visto, ma dopo le ultime evoluzioni dei sistemi di IA (e la presentazione di ChatGPT-4o) crediamo che sia interessante riguardarlo come qualcosa di reale, un fenomeno da affrontare e regolare.
π£Β EventiΒ
Mipro 2024 - Opatija (Croatia), 20-24.05.2024
Procedamus 2024Β - Salerno, 23.05.2024
Intelligenza artificiale per le pubbliche amministrazioni: gli obblighi dell'AI Act e le implicazioni del DDL del GovernoΒ - Webinar, 07.06.2024
π Grazie per averci letto!
Per ora Γ¨ tutto, torniamo la prossima settimana. Se la newsletter ti Γ¨ piaciuta, commenta o fai girare.Β