π€ La California approva una legge sull'IA β Legge Zero #39
Il Senato della California ha finalmente approvato una legge che previene i rischi catastrofici legati all'IA. Ora, tra molte pressioni, il Governatore dello Stato deve decidere se approvarla.
π§ Quando Γ¨ giusto regolare una tecnologia?
Siamo alla vigilia di lunedì 2 settembre, il lunedì per eccellenza, quello in cui tutto riprende. Tuttavia, anche se pensate che il vostro rientro sarà traumatico, credo che non invidierete comunque quello che attende il Governatore della California, Gavin Newsom, a partire dal 3 settembre (negli USA il primo lunedì di settembre si celebra il Labour Day, la festa dei lavoratori, ed è festa nazionale).
Per una consolidata consuetudine legislativa, infatti, il mese di settembre Γ¨ quello in cui il Governatore della California Γ¨ chiamato ad esaminare le leggi approvate dal locale parlamento nella sessione di agosto. Negli ultimi anni, la media supera le mille leggi ratificate in questa sessione e lβufficio del governatore ha un bel da fare per decidere se ratificarle oppure porre il veto sulle leggi. Tra lβaltro, nel caso in cui il Governatore non adottasse alcun provvedimento su una singola proposta entro il 30 settembre, la stessa si intenderebbe tacitamente ratificata.
Tra le tante leggi su cui Newsom deve esprimersi ce ne sono anche in materia di uso dellβintelligenza artificiale nei diversi settori della societΓ (piΓΉ di dieci). Tra queste, perΓ², una in particolare ha infiammato il dibattito pubblico.
Si tratta del βSafe and Secure Innovation for Frontier Artificial Intelligence Models Actβ ( letteralmente βLegge per l'innovazione sicura e dei modelli di intelligenza artificiale di frontieraβ) proposto dal Senatore democratico Scott Wiener (rappresentante del distretto di San Francisco).
Lβidea del disegno di legge (noto anche come proposta SB 1047) venne al Senatore nella prima metΓ del 2023 quando - lo ricorderete - molti dei protagonisti dellβIA firmarono un appello per chiedere un blocco di sei mesi nello sviluppo dei sistemi (era una provocazione, nessun blocco era attuabile).
Wiener ha progressivamente affinato la proposta, parlando con tutti i protagonisti del settore tecnologico, in considerazione del rilievo della norma anche al di fuori dei confini dello Stato (la California, infatti, Γ¨ la casa della Silicon Valley). Lβobiettivo della legge Γ¨ chiaro e molto specifico: evitare che lβIA possa provocare disastri nel mondo reale (omicidi di massa, catastrofi ambientali o nucleari, attacchi informatici che producono danni per oltre 500 milioni di dollari, consentire lo sviluppo di armi batteriologiche).
Il testo approvato alla fine di agosto dal Senato della California ad ampia maggioranza (favorevoli 48- contrari 16) si applicherebbe solo ai modelli IA piΓΉ grandi al mondo (che costano almeno 100 milioni di dollari), anche open source (in questo caso la legge prevede la responsabilitΓ del primo sviluppatore a meno che il modello derivato non sia costato piΓΉ di 10 milioni di dollari).
Questi i punti principali:
1. Sicurezza e standard
Prima di iniziare l'addestramento di un modello di IA avanzato, lo sviluppatore deve implementare misure di sicurezza organizzative, tecniche e fisiche per prevenire accessi non autorizzati e usi impropri. Γ obbligatorio adottare un protocollo di sicurezza documentato che deve essere rivisto annualmente e mantenuto per almeno cinque anni dopo la messa a disposizione del modello.Se si verifica un incidente di sicurezza, il provider deve notificarlo entro 72 ore allβAutoritΓ competente.
2.Sorveglianza
Dal 1Β° gennaio 2026, gli sviluppatori devono sottoporre loro modelli a una revisione annuale da parte di un soggetto terzo per verificare la conformitΓ normativa. I risultati dell'audit devono essere comunicati al Procuratore Generale dello Stato e mantenuti riservati (per motivi di sicurezza pubblica e segreti commerciali).3. Whistleblowing
La legge prevede protezione per i dipendenti (dei provider di IA) che segnalano violazioni della sicurezza o altri rischi associati ai modelli di intelligenza artificiale. I datori di lavoro non possono impedire ai dipendenti di fare segnalazioni al Procuratore Generale o mettere in atto ritorsioni contro di loro.4. Poteri del Procuratore Generale
Lβattuazione della legge sarΓ supervisionata dal βBoard of frontier modelsβ che adotterΓ linee guida e supporterΓ il Procuratore generale della California. Il Procuratore Generale avrΓ il potere di avviare azioni legali contro gli sviluppatori che non rispettano la legge, con possibili sanzioni pecuniarie.
Su questa legge si Γ¨ aperto un dibattito molto animato con prese di posizione (pubbliche) talvolta soprendenti.
Da un lato i sostenitori, come Geoffrey Hinton e Yoshua Bengio (due degli esperti piΓΉ autorevoli al mondo), Lawrence Lessig (il noto professore padre delle licenze Creative Commons che ne ha scritto qui) e - oltre ad attivisti per i diritti e le libertΓ digitali - il CEO di Anthropic (che ha sostenuto che i benefici della proposta di legge superano gli svantaggi) ed Elon Musk (che ha sostenuto come lβIA vada regolata come qualsiasi altro prodotto/tecnologia).
Una delle principali argomentazioni dei sostenitori Γ¨ che la norma rappresenta il minimo sindacale in quanto non fa altro che rendere obbligatorio quello che i provider dicono di fare giΓ per la sicurezza dei loro modelli. Inoltre, secondo i fautori della legge - anche se i rischi catastrofici sembrano distopici - bisogna evitare di adottare le regole troppo tardi, quando i danni si sono giΓ verificati (come accaduto con i social media).
Su posizioni opposte troviamo gli oppositori, i contrari. Innanzitutto, molti dei provider di IA (OpenAI, Google, Apple, Meta, Amazon), la la societΓ di Venture Capital Andreessen Horowitz (il cui capo degli affari legali ha scritto la sua posizione in una lettera di 14 pagine indirizzata a Wiener in cui sostiene che la legge avrΓ effetti catastrofici sullβecosistema delle startup di IA), il professore Yann LeCun (Chief AI Scientis di Meta), la professoressa Fei-Fei Li (che ha scritto un articolo su Fortune) e persino la democratica ex speaker della Camera Nancy Pelosi.
Secondo gli oppositori, Γ¨ inutile e controproducente (per lβintero ecosistema californiano) dettare una norma che ha lβobiettivo di prevenire rischi non ancora verificatisi e che, addirittura, nessuno ha certezza che si verificheranno mai.
Vi potrebbe sembrare strano che la legge, peraltro di frontiera, di un singolo stato USA possa fare così parlare. Ma ricordate: la California non è uno Stato qualsiasi, non solo perché è lì che hanno sede alcuni dei principali provider mondiali ma anche perché spesso le norme di quello Stato hanno tracciato la strada che poi è stata seguita dal legislatore federale.
Insomma, le pressioni sul Governatore Newsom non mancano, tenuto conto che il dibattito Γ¨ uscito fuori dalla cerchia degli addetti ai lavori. Secondo un recente sondaggio, il 70% dei californiani Γ¨ favorevole alla legge e il 65% degli elettori - nellβipotesi di veto - attribuirebbe a Newsom una responsabilitΓ (politica) nel caso in cui si verificasse una catastrofe a causa dellβIA.
La decisione del Governatore della California - che contribuirΓ a scrivere comunque un pezzo di storia della regolamentazione dellβIA - passerΓ per una risposta a queste domande: quando Γ¨ il momento giusto per regolamentare una tecnologia emergente? Qual Γ¨ il giusto equilibrio per incoraggiare l'innovazione proteggendo al contempo il pubblico che deve convivere con i suoi effetti?
Di sicuro, indipendentemente da quale sarΓ la decisione di Newsom, il tema delle regole dellβIA continuerΓ ad essere centrale nel prossimo futuro. E noi continueremo a scriverne.
πΒ Un vocale daβ¦Β Gianluigi Greco (UniversitΓ della Calabria)
Quali sono le finalitΓ della strategia italiana in materia di intelligenza artificiale pubblicata alcune settimane fa? (LeggeZero #35) Quali sono le direttrici lungo le quali si sviluppa la strategia? Nel vocale di questa settimana, risponde a queste domande il coordinatore del Comitato di esperti che ha elaborato la strategia, illustrandoci le riflessioni che stanno alla base del documento.
π° Le norme (e il dibattito sulle regole) hanno un impatto sui modelli di IA?
Una delle argomentazioni piΓΉ ricorrenti nel dibattito sulle regole dellβIA Γ¨ che le norme - e piΓΉ in generale lβattivitΓ delle istituzioni - non avrebbero un impatto sullβevoluzione della tecnologia.
Nel corso degli ultimi giorni, invece, ci sono stati tre annunci che sembrano dimostrare proprio il contrario.
Aleph Alpha - la startup tedesca tra i (pochi) protagonisti UE in materia di IA - ha rilasciato la sua ultima generazione di LLM, dichiarando la loro conformitΓ allβAI Act. Infatti la societΓ ha pubblicato in modo trasparente alcune specifiche dei modelli e ha specificato che lβaddestramento Γ¨ avvenuto βsu dati attentamente curati in conformitΓ con le normative UE e nazionali applicabili, comprese le leggi sul copyright e sulla privacy dei datiβ.
Anthropic - provider che ambisce ad essere il piΓΉ etico e trasparente - ha pubblicato i promtp di sistema degli ultimi modelli di Claude (i suoi LLM). Secondo quanto scritto su X da Alex Albert (Capo delle Develop Relations) non si tratta di unβiniziativa sporadica, ma seguiranno regolari aggiornamenti. Nei prompt cβΓ¨ scritto cosa viene detto a Claude di non fare (es. aprire URL o video, effettuare riconoscimento facciale, iniziare le risposte con βcertamenteβ o βassolutamenteβ) oppure come gli viene richiesto di comportarsi (es. trattare gli argomenti controversi con imparzialitΓ ). Leggendo i prompt si ha la sensazione del grande potere (e quindi della grande responsabilitΓ ) di chi sviluppa e rende disponibili questi modelli.
OpenAI e Anthropic - due delle principali aziende mondiali nel settore dellβIA - hanno sottoscritto, su base volontaria, un protocollo dβintesa con lβIstituto USA per la sicurezza dellβIA. Questi accordi permetteranno all'Istituto di accedere a nuovi modelli di IA prima del loro rilascio pubblico, facilitando la valutazione dei rischi e lo sviluppo di metodi per mitigarli.
OpenAI ha pubblicato sul proprio sito una βguida introduttivaβ allβAI Act dellβUE. Si tratta di una pagina utile non solo perchΓ© la societΓ dichiara di impegnarsi a rispettare pienamente il Regolamento, collaborando attivamente con lβAI Office della Commissione Europea. Allβinterno della guida anche alcune indicazioni per le altre organizzazioni che vogliono capire quali sono gli adempimenti da rispettare. Una di queste Γ¨ particolarmente condivisibile: βconsulta un avvocato se hai dubbiβ (sottinteso: non ricorrete a ChatGPT).
π° In Venezuela π»πͺ i giornalisti si affidano allβIA per evitare di essere arrestati
In un contesto di crescente repressione post-elettorale in Venezuela, i giornalisti hanno iniziato a utilizzare avatar creati dall'intelligenza artificiale per continuare a informare il pubblico senza rischiare la propria libertΓ . Infatti, a seguito delle contestate elezioni delle scorse settimane, il presidente NicolΓ‘s Maduro ha intensificato le azioni contro oppositori, attivisti e media (si conta lβarresto di almeno nove giornalisti).
Carlos Eduardo Huertas, direttore di Connectas, una piattaforma giornalistica con sede in Colombia che coordina questa iniziativa, ha spiegato che in Venezuela "essere inquadrati dalle telecamere non è più così sicuro". Attualmente, circa 20 organi di informazione e fact-checking venezuelani stanno collaborando a questo progetto, coinvolgendo circa 100 giornalisti che creano contenuti per i bollettini quotidiani, diffusi tramite avatar digitali.
Insomma, i deepfake e lβanonimato possono essere utilizzati - a fin di bene - nellβesercizio di diritti fondamentali. Ricordiamocelo quando sarΓ il momento di scrivere le norme, in modo che non siano inutilmente repressive.
βοΈ Negli USAπΊπΈ, una societΓ di telecomunicazioni pagherΓ una multa di 1 milione di dollari per le finte telefonate di Biden
Ricordate i deepfake audio di Joe Biden che erano stati diffusi con telefonate agli elettori del New Hampshire per dissuaderli dal votare alle primarie? (ne abbiamo scritto in LeggeZero #9).
Lingo Telecom, la societΓ di telecomunicazioni che ha trasmesso le chiamate ingannevoli, ha accettato di pagare una multa di 1 milione di dollari, secondo quanto riferito dalla Federal Communications Commission (FCC).
Invece, deve ancora concludersi il procedimento a carico di Steve Kramer, il consulente politico che ha commissionato le telefonate. Deve difendersi da una richiesta di sanzione amministrativa per 6 milioni di dollari e la contestazione di reati elettorali (tra cui impersonificazione di un candidato). Kramer ha affermato che il suo obiettivo non era influenzare le elezioni, ma piuttosto sensibilizzare sui pericoli dell'IA.
Staremo a vedere se questa tesi difensiva pagherΓ . Nel frattempo, lβattivitΓ della FCC Γ¨ stata lodata da gruppi di difesa dei consumatori, che hanno sottolineato l'importanza di garantire che i cittadini siano informati quando sono esposti a contenuti generati dall'intelligenza artificiale (negli USA non esiste ancora una norma federale contro i deepfake).
πΒ IA MemeΒ
Dalle lavatrici agli spazzolini da denti, passando per i software: lβIA Γ¨ ormai ovunque. In questa scena - tratta dal film βThe Wolf of Wall Streetβ - Leonardo Di Caprio mette alla prova le abilitΓ di vendita del suo interlocutore. In questo meme, viene cambiata la risposta: βΓ¨ potenziata dall'IAβ.
Fa ridere, ma anche riflettere. Indipendentemente dal fatto che l'IA sia effettivamente rilevante o meno per il prodotto in questione, il mercato sta abusando di questa parola magica per attrarre attenzione, clienti e investimenti.
π¬Β Il dibattito sullβIAΒ
Le piΓΉ grandi aziende costruite sullo smartphone (come DoorDash, Instacart, Uber) sono state fondate diversi anni dopo l'iPhone.
Se il boom dell'IA funziona nello stesso modo, le migliori aziende di intelligenza artificiale non sono ancora state fondate.
Sono decisamente interessanti queste parole di Jared Friedman, imprenditore e angel investor molto noto in Silicon Valley. Ci fanno riflettere sul fatto che non siamo ancora in condizione di capire appieno le implicazioni giuridiche di questa rivoluzione. Ricordate Uber e le criticitΓ legali che ha sollevato?
π Consigli di lettura: βRegulating under uncertainty: governance options for Generative AIβ di Florence G'sell
Il tema della regolamentazione dellβIA generativa Γ¨ tanto dibattuto quanto complesso. Per evitare stereotipi e luoghi comuni, Γ¨ necessario studiare e approfondire. In questo senso, una lettura obbligata Γ¨ βRegulating under Uncertainty: Governance Options for Generative AIβ, paper di 531 pagine pubblicato da Florence G'sell del Cyber Policy Center della Stanford University.
Il titolo di questo rapporto, "Regolamentazione in condizioni di incertezza: opzioni di governance per l'intelligenza artificiale generativa", cerca di trasmettere la condizione senza precedenti dei governi mentre affrontano le sfide normative poste dall'intelligenza artificiale. La regolamentazione Γ¨ sia urgentemente necessaria che imprevedibile. Potrebbe anche essere controproducente, se non ben congegnata. Tuttavia, i governi non possono permettersi di aspettare di avere informazioni perfette e complete prima di agire, perchΓ© in questo modo potrebbero non riuscire a garantire che la traiettoria dello sviluppo tecnologico non porti a rischi inaccettabili. L'obiettivo di questo rapporto Γ¨ presentare tutte le opzioni che sono sul tavolo con la speranza che tutte le parti interessate possano iniziare a stabilire le migliori pratiche attraverso una condivisione completa delle informazioni in loro possesso. I rischi e i benefici dell'intelligenza artificiale si faranno sentire in tutto il mondo. Γ fondamentale che le diverse proposte di regolazione vengano riunite in un unico luogo in modo che i sostenitori delle politiche possano imparare gli uni dagli altri e andare avanti in modo cooperativo.
Il rapporto, infatti, evidenzia come la rapida evoluzione dell'IA generativa richieda un approccio regolatorio che equilibri l'innovazione con la mitigazione dei rischi. Vengono analizzate diverse strategie di governance, dalla regolamentazione leggera (self-regulation) alla co-regulation e alla regolamentazione statale tradizionale, con un focus particolare sull'AI Act dell'Unione Europea (la norma di riferimento a livello globale) e le iniziative di vari paesi, tra cui Stati Uniti e Cina.
Potete scaricare il paper qui.
π£Β EventiΒ
ComunicherAI: AI act e copyrightΒ - Webinar, 11.09.2024
Il tempo delle donneΒ - Milano, 13/15-09.2024
DreamforceΒ - San Francisco (USA) - 17/19.09.2024
π Grazie per averci letto!
Per ora Γ¨ tutto, torniamo la prossima settimana. Se la newsletter ti Γ¨ piaciuta, commenta o fai girare.Β