🤖 L'AI Act è in vigore: chi è pronto ad attuarlo? – Legge Zero #36
Il 1° agosto è entrato in vigore il Regolamento 2024/1689 che sarà pienamente applicabile nei prossimi due anni. La Commissione Europea prova ad anticipare i tempi con un nuovo approccio: l'AI Pact.
🧠 Dall’AI Act all’AI Pact
L’era dell’AI Act è iniziata ufficialmente il 1° agosto 2024. È questa la data in cui è entrato in vigore il Regolamento Europeo n. 2024/1689. Da questo momento, sono scattate le scadenze che ci porteranno ad una piena applicazione della norma nei prossimi due anni (se volete un riepilogo di tutte le principali novità e tempistiche, le trovate nel nostro speciale 👇).
Con l’entrata in vigore del Regolamento, è inizia la fase dell’attuazione. Una sfida che sarà globale visto l’ambito di applicazione dell’AI Act (qui un riepilogo di CNBC sulle principali implicazioni per le società statunitensi che vogliono fornire i propri servizi nel mercato europeo) e che rischia di essere molto complessa, troppo complessa, per piccole imprese e piccole amministrazioni (secondo alcune stime, un’impresa con 50 dipendenti potrebbe spendere cifre a sei zeri per la conformità).
Sarà una sfida anche per le istituzioni. Non solo perché nei prossimi mesi saranno necessari decine di provvedimenti di attuazione (sono 130 le incombenze dell’AI Office), ma anche perché le istituzioni incaricate della governance - a livello europeo e a livello nazionale - dovranno dimostrare che l’approccio di tutela dei diritti non soffocherà l’innovazione (qui un editoriale pubblicato dal Financial Times in cui si esprimono forti perplessità sul fatto che il Regolamento non avrà effetti distorsivi).
L’esito di queste sfide non è scontato, e dipenderà dall’impegno e dal buon senso di tutti (gli esseri umani coinvolti).
Un buon punto di partenza è l’iniziativa AI Pact promossa dalla Commissione Europea (qui la pagina ufficiale).
Cos’è l’AI Pact?
L'AI Pact è un'iniziativa della Commissione Europea volta a promuovere l'adozione anticipata delle misure previste dal Regolamento Europeo.
A chi si rivolge l’AI Pact?
A tutte le organizzazioni che sono tenute ad applicare le disposizioni dell’AI Act, specialmente quelle destinatarie delle previsioni per i sistemi ad alto rischio.
Come funziona l’AI Pact?
L’obiettivo dell’iniziativa è quello di accompagnare le organizzazioni partecipanti ad attrezzarsi per tempo, evitando i frettolosi e costosi adeguamenti dell’ultimo minuto.
L’AI Pact è costituito da due pilastri:
il primo pilastro consiste nella creazione di una community (AI Pact network) a cui si aderisce su base volontaria (qui il form) e in cui, anche attraverso webinar, sarà facilitata la condivisione di esperienze e buone prassi;
il secondo pilastro consiste nella condivisione proattiva, da parte dei partecipanti alla community, dei processi e delle azioni che stanno ponendo in essere per adeguarsi alla normativa.
Nei giorni scorsi la Commissione Europea ha già pubblicato una bozza degli impegni che i partecipanti alla community saranno chiamati ad assumere (la potete scaricare qui).
Ecco una sintesi.
Impegni principali
1. Strategia di governance dell'IA:
- Adottare una strategia di governance per promuovere l'adozione dell'IA nell'organizzazione e lavorare per la futura conformità con l'AI Act.
2. Mappatura dei sistemi IA ad alto rischio:
- Effettuare una mappatura dei sistemi AI sviluppati o utilizzati in aree che potrebbero essere considerate ad alto rischio secondo l'AI Act.
3. Promozione della consapevolezza e alfabetizzazione IA:
- Promuovere la consapevolezza e l'alfabetizzazione IA tra il personale e altre persone coinvolte nell'implementazione dei sistemi IA, considerando il loro livello di conoscenza tecnica, esperienza, educazione e contesto d'uso.
Impegni Supplementari
Per gli sviluppatori di sistemi IA:
- Identificare i possibili rischi per la salute, la sicurezza e i diritti fondamentali derivanti dall'uso dei sistemi IA.
- Garantire la qualità dei dati di addestramento, validazione e test per i sistemi IA.
- Implementare funzionalità di logging per garantire la tracciabilità dei sistemi IA.
- Informare i distributori sull'uso appropriato dei sistemi IA, comprese capacità, limitazioni e potenziali rischi.
- Assicurare la supervisione umana sulle decisioni raccomandate o prese dai sistemi IA.
- Progettare e sviluppare sistemi IA che interagiscono direttamente con gli individui in modo che questi siano informati che stanno interagendo con un sistema IA.
- Progettare sistemi di IA generativa in modo che i contenuti generati siano marcati con soluzioni tecniche come watermark e metadati identificativi.
- Etichettare chiaramente e distinguibilmente i contenuti generati dall'IA, come immagini, audio o video deep fakes e testi pubblicati per informare il pubblico su questioni di interesse pubblico.
Per le organizzazioni che implementano sistemi IA:
- Mappare i possibili rischi per i diritti fondamentali delle persone e dei gruppi di individui che possono essere influenzati dall'uso dei sistemi IA.
- Assicurare la supervisione umana sulle decisioni raccomandate o prese dai sistemi IA.
- Informare chiaramente gli individui quando interagiscono direttamente con un sistema IA.
- Fornire spiegazioni chiare e significative agli individui quando una decisione su di loro è preparata, raccomandata o presa dai sistemi IA.
- Informare i rappresentanti dei lavoratori e i lavoratori interessati quando si implementano sistemi IA sul posto di lavoro.
Al momento sono già oltre 700 le aziende che hanno aderito all’iniziativa, uno strumento che potrebbe davvero segnare l’inizio di un nuovo approccio culturale alla regolazione: non solo sanzioni, ma anche strumenti per comprendere e adeguarsi in modo più sostenibile alle nuove norme.
Inutile dire che seguiremo questo progetto e, sicuramente, ne riparleremo nei prossimi mesi.
🔊 Un vocale da… Stefano Aterno: partendo dal caso della tentata truffa ai danni della Ferrari, uno degli autori di LeggeZero, espone a quali condizioni potranno funzionare davvero le disposizioni contenute nell’AI Act. Spoiler: serve formazione e consapevolezza.
📰 Arriva ‘Friend’, l’IA che vuole essere nostra amica
Guardate questo video. Non è l’anteprima della nuova serie di ‘Black Mirror’, ma il video promozionale di un nuovo tool di IA che si chiama ‘Friend’.
È un ciondolo che usa l’IA di Claude 3.5 semplicemente per accompagnarci durante le nostre giornate. Non ha l’obiettivo di aumentare la nostra produttività - come altri device presentati nei mesi scorsi - ma quello di tenerci compagnia.
‘Friend’, che sarà disponibile a partire da gennaio 2025 ma può essere già ordinato per 99 $, ascolterà tutto quello che accadrà nelle nostre giornate e non si limiterà a rispondere alle domande che gli porremo, ma potrà anche scriverci autonomamente (ad esempio se avrà ascoltato una lite che ci ha coinvolti, oppure per congratularsi della promozione che abbiamo appena ricevuto).
Le implicazioni etiche e giuridiche di un simile dispositivo sono assai inquietanti. Il fondatore, in un’intervista a Wired, ha affermato che le informazioni degli utenti non saranno conservate, ma risulta difficile crederlo e, in ogni caso, bisognerà verificare che sarà davvero così (al momento non sono disponibili termini d’uso e informativa privacy).
Infine è forte la preoccupazione che simili strumenti, invece di risolvere il problema della solitudine delle persone, possano aggravarla solo per finalità di business.
📰 Collaborazione tra USA 🇺🇸, UE 🇪🇺 e UK 🇬🇧 per la concorrenza nel settore della IA generativa
Le Autorità per la concorrenza dell'Unione Europea, del Regno Unito e degli Stati Uniti hanno sottoscritto una dichiarazione congiunta riguardante i modelli di base dell'intelligenza artificiale generativa. La dichiarazione è stata firmata da Margrethe Vestager (Vicepresidente esecutivo e Commissario per la concorrenza della Commissione Europea), Sarah Cardell (Presidente dell'Autorità per la concorrenza e il mercato del Regno Unito), Jonathan Kanter (Assistente Procuratore generale del Dipartimento di Giustizia degli Stati Uniti) e Lina M. Khan (Presidente della Commissione federale per il commercio degli Stati Uniti).
L'obiettivo principale dell’impegno congiunto è garantire mercati aperti, equi e competitivi, riconoscendo il potenziale trasformativo dell'IA generativa per promuovere l'innovazione e la crescita economica. Tuttavia, sono evidenziati vari rischi per la concorrenza, come il controllo concentrato in settori chiave, l'estensione del potere di mercato in settori correlati all'IA e le collaborazioni tra aziende che potrebbero minare la concorrenza.
La dichiarazione sottolinea la necessità di vigilanza continua per proteggere i consumatori e i mercati dalla potenziale condotta anticoncorrenziale delle aziende che sviluppano e implementano tecnologie di IA. Tra i principi fondamentali per salvaguardare la concorrenza è citata l'interoperabilità tra prodotti e servizi di IA.
È possibile scaricare il documento qui.
⚖️ Negli USA 🇺🇸 una proposta di legge bipartisan per evitare un nuovo caso ‘Scarlett Johansson’
Ricordate il caso di Scarlett Johansson che, alcuni mesi fa, accusò OpenAI di aver utilizzato per ChatGPT-4o una voce che la imitava? Ebbene, negli USA una proposta di legge bipartisan presentata al Senato (No Fakes Act) è stata recentemente aggiornata proprio per prevenire l’uso non autorizzato di voci e immagini replicate con l’IA (qui l’illustrazione delle ragioni delle modifiche al testo originario).
Il disegno di legge riconosce alle persone un diritto federale di autorizzare qualsiasi uso della loro voce o immagine, con conseguenze legali per chi crea o distribuisce repliche non autorizzate. Il testo include anche una clausola di ‘safe harbor’ che protegge le piattaforme digitali da responsabilità se rimuovono prontamente le repliche non autorizzate, in modo simile a quanto avviene per le violazioni del copyright.
Nonostante il sostegno di importanti gruppi di rappresentanza di attori e musicisti - come la Motion Picture Association e SAG-AFTRA (uno dei principali sindacati degli artisti) - il disegno di legge ha suscitato preoccupazioni tra gli attivisti per i diritti digitali, come la Electronic Frontier Foundation, che temono limitazioni alla libertà di espressione (qui un’interessante ricostruzione del dibattito pubblicata dal Washington Post).
I senatori hanno cercato di mitigare queste preoccupazioni introducendo un’esenzione per le repliche digitali effettuate nell’esercizio di diritti costituzionalmente riconosciuti (come quelle satiriche).
Staremo a vedere se questo basterà ad accrescere il consenso intorno alla proposta di legge.
⚖️ OpenAI sostiene (alcuni) disegni di legge del Senato USA 🇺🇸 che potrebbero plasmare la regolazione globale dell'IA
A proposito di OpenAI e regole, il noto provider di IA - con un post LinkedIn della Vice President of Global Affairs Anna Makanju - ha pubblicamente appoggiato tre disegni di legge del Senato USA che potrebbero influenzare il futuro della politica federale sull'intelligenza artificiale. Tra questi, il ‘Future of AI Innovation Act’ autorizzerebbe formalmente l'istituzione dell'AI Safety Institute degli Stati Uniti, un organismo federale incaricato di stabilire standard e linee guida per i sistemi di IA (nei giorni scorsi OpenAI aveva sottoscritto con altri importanti attori come Microsoft, Meta, Salesforce e Amazon un appello a favore dell’AI Safety Institute).
Inoltre, OpenAI ha espresso sostegno per il ‘NSF AI Education Act’ e il ‘CREATE AI Act’, che mirano a fornire borse di studio per la ricerca sull'IA e risorse educative nelle scuole e università.
Dopo gli annunci di Meta e Apple (che hanno deciso per motivi di conformità normativa di non rendere disponibili le loro IA in Europa), prepariamoci ad assistere sempre più frequentemente a simili prese di posizione: nello scenario regolatorio che si sta delineando, i provider faranno sentire - in modo chiaro e trasparente - la loro voce.
⏮️ Update: l’uso dell’IA generativa nella Camera dei Deputati 🇮🇹
In LeggeZero #12 abbiamo parlato dell’iniziativa della Camera dei Deputati che - dopo aver condotto un’indagine conoscitiva sull’uso dell’IA a supporto del lavoro parlamentare - aveva aperto una call for proposals per Università e Centri di ricerca. Obiettivo: raccogliere progetti di utilizzo dell'Intelligenza artificiale generativa a supporto del proprio lavoro.
Negli scorsi mesi sono state presentate ben 28 proposte che sono state sottoposte alla valutazione di una commissione tecnica di alto profilo, presieduta dal prof. Luciano Floridi, che ha supportato il Comitato di vigilanza sull’attività di documentazione della Camera nella scelta dei vincitori.
Lo scorso 25 luglio, in una cerimonia pubblica (resoconto qui), sono stati premiati i seguenti tre progetti:
Legislab, piattaforma per l’analisi della legislazione italiana e di supporto per la redazione di nuove leggi (Politecnico di Milano - Istituto Einaudi);
Genai4lex, piattaforma di supporto all’analisi degli emendamenti e compliance rispetto al quadro normativo (Alma Mater - Luiss - Cnr - Università di Torino);
Depuchat, chatbot che scandaglia i dati della Camera per fornire risposte ai cittadini (Università di Roma Tre - Università di Firenze).
I progetti vincitori (di cui trovate qui una descrizione più dettagliata) saranno presentati al G7 dei Parlamenti che si terrà in Italia a settembre. A quel punto, inizierà la fase di implementazione che potrebbe portare l’Italia ad essere uno dei primi Parlamenti ad introdurre l’IA generativa nei propri processi di lavoro.
😂 IA Meme
L’AI Act è entrato in vigore e - chi più chi meno - tutti nei prossimi mesi ci sentiremo così, cercando di capire, interpretare e applicare una norma assai complessa.
📚 Consigli di lettura: "Intelligenza artificiale: governance, responsabilità e privacy" del Senato della Repubblica
Siamo nell’era della regolamentazione dell’IA. Un’era in cui si scontrano approcci normativi differenti e in cui - alla luce delle iniziative di cooperazione internazionale - anche i legislatori nazionali sono alla ricerca di un utile ambito di manovra.
In questo senso è molto interessante il dossier recentemente pubblicato dall’Ufficio Valutazione Impatto del Senato della Repubblica dal titolo ‘Intelligenza artificiale: governance, responsabilità e privacy’ .
Il documento - dopo una descrizione delle recenti evoluzioni dell’IA - contiene un’analisi sugli approcci normativi di diversi ordinamenti (tra cui UE, USA, Cina, UK, Svizzera) e affronta le seguenti questioni giuridiche (che i lettori di questa newsletter sanno essere tra quelle attualmente più critiche):
responsabilità derivanti dall’uso dell’UA;
tutela del diritto d’autore;
protezione dei dati personali.
Infine, il documento esplora i modelli di governance dell'IA, con una particolare attenzione ai casi dell'Unione europea e dell'Italia, e presenta gli approfondimenti e le iniziative avviate o svolte dal Senato sul tema (tra cui diversi cicli di audizioni di esperti). Si tratta di iniziative importanti, tenendo conto che il DDL governativo sull’intelligenza artificiale (ne abbiamo parlato in LeggeZero #22), in questo momento, è in discussione proprio al Senato.
Il dossier si scarica qui.
📚 Consigli di visione: "L’intelligenza artificiale e le prossime piattaforme" con Jensen Huang e Mark Zuckerberg
Nei giorni scorsi, fondatore e CEO di NVIDIA, Jensen Huang, e il fondatore e CEO di Meta, Mark Zuckerberg, si sono incontrati in occasione del Siggraph 2024, tenutosi a Denver, per dialogare sul futuro dell’IA.
Non era un incontro riservato, ma un panel in cui i due - tra le persone più influenti al mondo nel campo dell’IA - hanno discusso di come la ricerca stia permettendo progressi nell'intelligenza artificiale e di come l'IA generativa e i sistemi opensource daranno maggior potere agli sviluppatori e ai creatori (secondo Zuckerberg, in un futuro prossimo, ogni azienda potrà creare un proprio modello).
I due CEO hanno discusso anche anche del ruolo dell'IA generativa nella costruzione di mondi virtuali e del potenziale di questi mondi virtuali per creare la prossima generazione di IA e robot.
Mettetevi comodi, la conversazione dura 58 minuti. Spoiler: non si parla di regolamentazione e leggi.
🙏 Grazie per averci letto!
Per ora è tutto, torniamo la prossima settimana. Se la newsletter ti è piaciuta, commenta o fai girare.