🤖 (Non) è colpa delle leggi e degli avvocati – Legge Zero #17
Sarà vero che il ritardo dell'Europa sull'IA rispetto a USA e Cina dipende dall'eccesso di regolamentazione? L'AI Act è una norma inutile e dannosa e per questo gli altri non ce l'hanno? Spoiler: No.
🧠 In difesa dell’AI Act
[Inizio delle premesse]
Premessa uno. Non può essere messo in discussione che l’Europa sia in ritardo rispetto a USA e Cina sull’intelligenza artificiale. È un dato di fatto, corroborato dai numeri sugli investimenti e sulle startup oltre che dalla constatazione che non sono europei i principali sistemi che stanno rivoluzionando le nostre vite e la nostra società (ChatGPT, Gemini, Claude). E gli europei non possono pensare di colmare questo ritardo (solo) con le norme.
Premessa due. Le norme perfette non esistono e l’AI Act appena approvato dal Parlamento Europeo (di cui abbiamo parlato nell’edizione speciale di LeggeZero) non fa eccezione. Quindi è molto probabile che ci saranno criticità applicative e che, tra qualche tempo, ci sarà bisogno di modifiche sia per adeguarle ai mutamenti della tecnologia sia per correggere quello che non avrà funzionato. Le norme, il diritto, funzionano così.
Premessa tre. Non è necessariamente un merito essere i primi ad aver dettato norme sull’IA, l’importante è scrivere norme che funzionino e ci consentano di cogliere le opportunità - anche economiche - dell’intelligenza artificiale, mettendo al centro i diritti e le libertà delle persone.
[Fine delle premesse]
Tanto premesso - come dicono i giuristi - ho trovato particolarmente intriso di (falsi) luoghi comuni il dibattito tra addetti ai lavori nei giorni seguenti l’approvazione del provvedimento con tanto di ironia sulle oltre 450 pagine del testo.
Il mantra che in molti ripetono, pubblicamente e privatamente, è
“The USA innovates. China replicates. Europe regulates”
(trad. “Gli Stati Uniti innovano, la Cina replica, l’Europa regolamenta”).
Il sottotesto è che visto che in Europa “comandano gli avvocati”, gli avvocati - notoriamente molto influenti nei Parlamenti - scrivono norme che rallentano il progresso tecnologico ed economico.
Mi sembra una rappresentazione troppo semplicistica che individua un bersaglio facile (la reputazione di giuristi e legislatori non è elevatissima, si sa). E questa non è, né vuole essere, una difesa d’ufficio, né della categoria nè dell’AI Act.
Innanzitutto, non è possibile affermare che il ritardo europeo su IA sia dovuto a una norma che non è stata neanche definitivamente adottata. Se ChatGPT non è stato sviluppato in Europa, la colpa (e il merito) non sono dei legislatori.
D’altro canto, l’esigenza di una regolazione dell’IA si è affermata ormai a livello globale (consiglio la lettura di questo approfondimento della “Technology Review” del MIT in cui si passano in rassegna le sfide del 2024 della regolamentazione dell’IA dagli USA alla Cina, passando per l’Europa).
Esaurito il tempo delle carte intrise di generalissimi principi etici (trasparenza, controllo umano, sicurezza, non discriminazione) su cui tutti - proprio tutti - possono essere d’accordo (come dimostra l’approvazione di una risoluzione da parte dell’ONU), è arrivato il tempo di norme che li traducano in regole a garanzia della concorrenza, delle democrazie e delle persone.
Come si evita che i sistemi di IA distorcano il funzionamento delle democrazie? Come si combattono le discriminazioni? Come si evitano le manipolazioni? Come si garantisce anche alle più piccole startup di poter competere in un mercato globale (ma responsabile)? Come si tutelano i diritti di creativi e artisti? Sono domande urgenti a cui in tutto il mondo, non solo in Europa, ci si aspetta che la risposta la diano i legislatori con regole. Anche perché con l’autoregolamentazione delle piattaforme social, fin qui, non è andata benissimo.
Ad esempio, nei giorni scorsi il Tennessee è diventato il primo stato degli USA a promulgare una legge per proteggere musicisti e artisti dall'uso non autorizzato delle loro opere da parte dell'intelligenza artificiale. La legge prende il nome di ELVIS Act (acronimo di “Ensuring Likeness Voice and Image Security”). Ed è solo una delle tantissime norme che anche negli USA (quelli che innovano) si stanno moltiplicando settimana dopo settimana (dal Minnesota alla Pennsylvania).
Secondo il monitoraggio della George Washington University, solo negli USA i contenziosi legati ai sistemi di IA sono 157 (di cui 50 intrapresi negli ultimi 4 mesi, come quello del NY Times contro OpenAI). Colpa della lobby degli avvocati statunitensi oppure segno del fatto che un fenomeno tecnologico così innovativo ha bisogno di regole che diano certezze? E le regole negli USA non arrivano ancora a livello federale (nazionale) solo perché le elezioni presidenziali di novembre stanno paralizzando il congresso (se ne parla in questo articolo del Washington Post in cui si dice che l’approccio europeo dovrebbe essesre seguito anche dagli USA).
Insomma, l’Europa non è arrivata prima sulla regolazione dell’intelligenza artificiale perché altrove le regole non sono ritenute necessarie. La vera sfida, semmai, è applicare davvero le norme approvate e lavorare su strategia industriale e investimenti, evitando di condannarsi al ruolo di regolare quello che altri sviluppano.
Ma questo non è il lavoro degli avvocati.
🔊 Un vocale da…
(Oblique.ai): nel vocale di questa settimana affrontiamo il tema delle sfide legate all’impatto dell’intelligenza artificiale sul lavoro e sui processi creativi grazie al contributo di un noto consulente, autore di una seguitissima newsletter.
📰 I principali modelli di IA generativa sanno violare il copyright
Patronus AI, società specializzata nella valutazione di modelli di intelligenza artificiale, ha pubblicato una ricerca che mostra la frequenza con cui i principali modelli di intelligenza artificiale riproducono contenuti protetti da copyright.
Sono stati testati i principali LLM sul mercato, spingendoli a generare testo da libri popolari protetti dalle leggi sul copyright. Tra questi, GPT-4 di OperAI ha riprodotto la maggior quantità di contenuti protetti da copyright, rispondendo in media al 44% delle richieste che chiedevano testo da edizioni protette dal diritto d’autore. Claude 2 di Anthropic sembra il più difficile da ingannare, poiché ha risposto utilizzando contenuti protetti da copyright solo il 16% delle volte quando gli veniva chiesto di completare il testo di un libro (e mai quando gli è stato chiesto di scrivere il primo passaggio di un libro).
Indagini come queste potrebbero essere utilizzate nei tanti processi in cui i fornitori di sistemi di IA si devono difendere dalle accuse di autori ed editori (come quella promossa dal NY Times).
📰 Negli USA 🇺🇸 messo a punto un piano d’azione per affrontare i rischi dei sistemi avanzati di IA
La società statunitense Gladstone AI ha pubblicato un piano d’azione che analizza i rischi per la sicurezza nazionale americana derivanti dall’utilizzo di sistemi di intelligenza artificiale avanzati.
Il Piano, commissionato dal Dipartimento di Stato Americano, è nato da un confronto con più di 200 esperti e individua una serie di politiche di sistema necessarie a fronteggiare i rischi per la sicurezza nazionale. Tra queste, ad esempio, la costituzione di un’agenzia dedicata e la necessità di adottare nuove norme che prevedano uno specifico regime di responsabilità (penale e civile) per gli incidenti provocati dall'IA.
⚖️ In Danimarca 🇩🇰 è operativa una sandbox normativa per l’IA
Dalla Danimarca arriva una risposta concreta alle incertezze di imprese e amministrazioni sulle norme in materia di IA: la creazione si una sandbox normativa creata dall’Autorità danese per la protezione dei dati e dalla Agenzia nazionale in materia di digitalizzazione. Obiettivo dell’iniziativa è fornire supporto per utilizzare sistemi di IA nel rispetto delle regole.
Inizialmente l’attenzione si concentrerà sulle norme in materia di protezione dei dati (GDPR) ma, in prospettiva, la sandbox servirà anche per fare chiarezza sull’applicazione dell’AI Act.
Si tratta di un’iniziativa da seguire con attenzione, in attesa che il modello venga replicato anche in Italia.
⚖️ In Arabia Saudita 🇸🇦 l’IA arriva nei processi
Il procuratore generale dell’Arabia Saudita ha annunciato l’avvio di un progetto sperimentale legato all’introduzione dell’IA per migliorare i servizi resi dal sistema giudiziario ai pellegrini che si recano alla Mecca.
Il progetto ruota intorno al sistema "Turjman", capace di tradurre le dichiarazioni in 142 lingue e dialetti in modo da accelerare i processi. Il sistema prevede anche l’uso del riconoscimento facciale. Viene da chiedersi quali garanzie saranno implementate per evitare che vengano analizzate le emozioni degli imputati.
💡 L’IA fa cose
Google DeepMind, analizzando i calci d’angolo della squadra di calcio del Liverpool FC, ha messo a punto TACTIC AI, un sistema di IA che può essere utilizzato dagli allenatori per capire dove posizionare i giocatori in caso di calcio d’angolo.
“A qualcuno piace bot”: grazie all’IA (e alla società che detiene i diritti sulla sua immagine), è possibile parlare con un gemello digitale di Marilyn Monroe in grado di interagire con i fan. Chissà cosa ne avrebbe pensato la famosa attrice.
😂 IA Meme
No caption needed.
📚 Consigli di lettura: i 500 italiani 🇮🇹 che contano nell’IA secondo ItalianTech
Il quotidiano La Repubblica, in occasione dell’evento RomeCup che si è tenuto a Roma dal 20 al 22 marzo, ha curato un’analisi approfondita sul panorama italiano dell’intelligenza artificiale.
La redazione di ItalianTech ha predisposto una mappa delle 500 figure chiave in Italia, spaziando dal mondo accademico alle startup, dalle grandi imprese fino ai professionisti esperti nella materia (nella categoria dei giuristi è presente
, uno degli autori di questa newsletter).Una lettura interessante per conoscere progetti e competenze oltre le bio di Linkedin.
📚 Consigli di visione: Yann LeCun ospite del podcast di Lex Fridman
Yann LeCun, uno dei più noti esperti mondiali di IA (che collabora con Meta), è stato ospite del popolarissimo podcast di Lex Fridman.
Più che l’episodio di un podcast è una lezione, dura quasi 3 ore (qui trovate la trascrizione). LeCun approfondisce alcuni temi chiave per l’IA, tra cui open source, limiti degli LLM, intelligenza artificiale generale e prospettive future. Un must per studiosi, appassionati, e professionisti del settore. Da guardare un po’ alla volta, come se fosse una serie.
📣 Eventi
AI Talk - Webinar, 26.3.2024
AI Act: istruzioni per l’uso - Webinar, 9.04.2024
AI WEEK - Rimini, 9-10.04.2024
Per ora è tutto, torniamo la prossima settimana. Se la newsletter ti è piaciuta, commenta o fai girare. Grazie!