đ¤ L'IA distruggerĂ la creativitĂ ? â Legge Zero #32
Negli USA, le case discografiche hanno portato in giudizio due societĂ di IA generativa. Ă l'ennesimo capitolo giudiziario di una saga che, fin qui, le norme vigenti non sono riuscite a placare.

đ§ Case discografiche Vs. IA generativa
I sistemi di intelligenza artificiale distruggeranno la creativitĂ umana? Ă questa la tesi della discografia americana che, lo scorso 24 giugno, per mezzo della Recording Industry Association of America (RIAA), ha annunciato di aver intrapreso due azioni legali nei confronti della Suno, Inc., proprietaria della omonima piattaforma e della Uncharted Labs, Inc., proprietaria della piattaforma Udio AI.
Le due piattaforme sono state citate in giudizio, rispettivamente dinanzi alla District Court del Massachussetts e al Southern District di New York, da alcune tra le maggiori etichette discografiche, tra cui Sony Music Entertainment, UMG Recordings e Warner Records.
Queste ultime lamentano che i provider di IA avrebbero copiato e registrato migliaia di brani musicali per addestrare i sistemi di intelligenza artificiale, in assenza di una licenza da parte delle case discografiche o degli autori dei brani.
Qui potete scaricare gli atti introduttivi dei due giudizi
Ă probabile che Suno e Udio AI si difenderanno invocando il fair use, lâeccezione che, nel copyright americano, consente di utilizzare le opere tutelate dal diritto dâautore, in assenza di autorizzazione, a condizione che ricorrano alcuni presupposti, tra cui le finalitĂ di ricerca e di insegnamento. Le motivazioni, in sintesi, sono le stesse del caso New York Times (di cui avevamo scritto in LeggeZero #6 e LeggeZero #24).
Al di lĂ dei tecnicismi giuridici, le etichette discografiche, nelle citazioni depositate contro i fornitori dei servizi di IA, affermano:
Questi servizi generano musica con tale velocitĂ e su vasta scala, rischiando di inondare il mercato con musica generata da AI e di svalutare e sostituire il lavoro creato dagli esseri umani.
Quindi, il problema principale sarebbe quello della perdita di valore delle opere musicali e lo svilimento della creativitĂ umana. La posizione è condivisibile e, tuttavia, fa sinistramente assomigliare il presente al recente passato, quando si sviluppò lâinternet 2.0, con social network e piattaforme di distribuzione audio e video, come YouTube. Un passato nel quale lâindustria culturale investĂŹ (e continua a investire) centinaia di milioni di euro nellâantipirateria e non dedica le medesime risorse allâinnovazione e al supporto alla creativitĂ .
Sul piano delle regole, la discussione si è polarizzata su opt-in vs. opt-out, sulla possibilitĂ , cioè, che i titolari dei diritti impediscano agli sviluppatori di sistemi di intelligenza artificiale di utilizzare le proprie opere per le attivitĂ di allenamento delle macchine. LâAI Act, richiamando lâeccezione di text and data mining della Direttiva sul copyright del 2019, ammette questa facoltĂ , legittimando autori, editori, produttori e organismi di gestione collettiva a indicare che le proprie opere, seppur liberamente accessibili, non possano essere utilizzare per lâIA. Soluzione, al momento, di difficile applicazione pratica, in assenza di protocolli e standard condivisi, che legittimino e certifichino la volontĂ degli autori di escludere le proprie opere.
Eppure, in questo dibattito, sembra aleggiare, come un convitato di pietra, la remunerazione per lâindustria culturale. Il passato recente insegna lâinutilitĂ delle guerre fondate sul dogmatismo: difficile immaginare che le attivitĂ di pre-training e training possano costituire una violazione del diritto dâautore, considerando che queste utilizzazioni non dovrebbero rientrare nella nozione di atto di riproduzione.
Una scommessa all-in da parte delle case discografiche è pericolosa, perchĂŠ, alla luce del contesto normativo attuale, câè il rischio di perdere lâintera posta. Allo stesso tempo, immaginare che ogni singola utilizzazione di un brano musicale da parte di un sistema di intelligenza artificiale possa essere remunerato al pari di un passaggio televisivo e radiofonico, è irrealistico.
Lâintelligenza artificiale è qualcosa che è, non che verrĂ . Non dobbiamo immaginarla come un mostro che possa distruggere lâumanitĂ , a cominciare dalle sue espressioni creative, e arginarla non è una soluzione sostenibile sul lungo periodo: piuttosto, abbandonando inutili prove muscolari tra contendenti, potrebbe essere di gran lunga piĂš utile ragionare di una ripartizione equa della ricchezza che genera.
đ Un vocale daâŚÂ Francesco Schlitzer (Artisti 7607): cosa pensano gli artisti dellâIA? Cosa chiedono ai decisori e al legislatore? Nel vocale di questa settimana ce ne parla chi si occupa delle relazioni istituzionali per conto di un organismo di gestione collettiva dei diritti per il settore audiovisivo.
đ° La WIPO đ pubblica un report sui brevetti dellâIA generativa
La World Intellectual Property Organization (WIPO) ha pubblicato un dettagliato rapporto sul panorama brevettuale dell'intelligenza artificiale generativa, intitolato âPatent Landscape Report: Generative Artificial Intelligenceâ. Si tratta di un documento molto interessante che fornisce una panoramica completa sulle attivitĂ di brevettazione e sulle pubblicazioni scientifiche nel campo dell'IA generativa.
Ecco alcuni dati interessanti:
1. Aumento dei brevetti e delle pubblicazioni scientifiche: Dal 2014 al 2023, il numero di famiglie di brevetti relativi alla IA generativa è aumentato da 733 a oltre 14.000, con un incremento significativo delle pubblicazioni scientifiche da 116 a oltre 34.000 nello stesso periodo. Soltanto nel 2023 sono stati depositati oltre il 25% di tutti i brevetti di IA generativa a livello globale e pubblicati oltre il 45% di tutti gli articoli scientifici in materia (lâimpatto di ChatGPT è evidente).
2. Principali titolari di brevetti: Tra i principali detentori di brevetti si annoverano Tencent, Ping An Insurance Group, Baidu e IBM.
3. I Paesi protagonisti della ricerca: La Cina è in testa con oltre 38.000 famiglie di brevetti, seguita dagli Stati Uniti, dalla Corea del Sud, dal Giappone e dall'India (i Paesi UE sono indietro, lâItalia non è mai citata nel rapporto).
4. Applicazioni chiave della IA generativa: Le principali aree di applicazione sono relative a creazione di video, immagini, testi, audio e musica. Stanno crescendo molto - 78% di media annua negli ultimi cinque anni - i brevetti relativi allâambito scientifico (molecole, geni e proteine).


đ° In UK đŹđ§ 200.000 persone sono state sottoposte a controlli a causa dellâerrore di (chi ha realizzato) un algoritmo
Secondo quanto rivelato dal Guardian, nel Regno Unito, oltre 200.000 persone sono state erroneamente indagate per frode nellâerogazione di benefici abitativi, a causa di un errore dellâalgoritmo del Department for Work and Pensions.
Secondo i dati ottenuti dallâorganizzazione non governativa Big Brother Watch, migliaia di famiglie hanno subito indagini non necessarie basate sul giudizio, rivelatosi poi errato, di un algoritmo anti frode che aveva âetichettatoâ come potenzialmente ad alto rischio circa â delle richieste, rivelatesi poi pienamente legittime.
Oltre a un cospicuo esborso di soldi pubblici per i controlli, stimato in circa 4,4 milioni di sterline, questo âerroreâ ha determinato che molte persone (innocenti) subissero indagini ingiuste e stressanti.
Questo caso dimostra che le tecnologie di IA non sono infallibili e che norme come lâAI Act servono per garantire che tali strumenti vengano utilizzati al meglio, prevenendo l'ingiusta criminalizzazione delle persone piĂš vulnerabili (come coloro che fanno richiesta di sussidi pubblici).
âď¸ Non solo AI Act: il Consiglio dell'UE đŞđş adotta un regolamento sulle âfabbriche di IAâ e sull'uso del supercalcolo nello sviluppo dell'IA
Il Consiglio dell'Unione Europea ha approvato definitivamente il nuovo regolamento che disciplina l'uso del supercalcolo per lo sviluppo dell'intelligenza artificiale (IA). Questo atto normativo - che modifica il regolamento (UE) 2021/1173 - ha lâobiettivo di potenziare le capacitĂ di calcolo ad alte prestazioni (HPC) nell'UE, consentendo di recuperare il gap europeo nei confronti di Cina e USA.
Una delle principali novità è quella relativa alle âAI factoriesâ, le fabbriche di IA che renderanno disponibile la capacitĂ di supercalcolo dell'UE per soggetti pubblici, ma anche start-up e PMI innovative europee, in modo da addestrare i loro modelli di IA e sviluppare i loro progetti.
In attesa che venga pubblicato sulla Gazzetta Ufficiale UE, potete scaricare il regolamento qui sotto
âď¸ Il governo australiano đŚđş pubblica il framework per lâuso dellâIA nel settore pubblico
Il governo australiano ha recentemente pubblicato un documento per garantire l'uso sicuro e responsabile dell'intelligenza artificiale da parte delle pubbliche amministrazioni.
Nonostante lâapproccio sia molto piĂš âleggeroâ di quello UE - linee guida al posto di leggi - il modello adottato è sempre quello che consiste nella gestione del rischio (alla base anche dellâAI Act) e la definizione di IA è sempre quella OCSE (ormai un punto di riferimento globale).
Il documento mette in luce diverse buone prassi per dimostrare come le amministrazioni possano garantire un uso sicuro, responsabile ed etico dell'IA. Accanto alle best practices sono indicati i cinque pilastri per lâadozione di sistemi di IA nel settore pubblico:
definizione di unâorganizzazione adeguata e approvazione di procedure per garantire uso etico (es. trasparenza, spiegabilitĂ );
adozione di un approccio basato sul rischio per tutto il ciclo di vita di un sistema di IA;
definizione di processi per assicurare la qualitĂ dei dati (e la privacy dei cittadini);
rispetto degli standard nazionali e internazionali in materia di IA;
attenzione alla fase di approvvigionamento dei sistemi di IA.
Il framework è disponibile qui.
đ IA MemeÂ
Anche voi siete cosĂŹ preccupati per quello che sta accadendo nel settore dellâIA?

đ IA Meme che non lo erano
Phoenix, 19 giugno 2024. Unâautomobile procede in modo strano, a zig-zag, poi imbocca una strada contromano. Un agente della locale polizia accende la sirena, raggiunge lâauto, (faticosamente) riesce a farla accostare ma⌠non câè nessuno a bordo. Si trattava di unâauto Waymo, una compagnia di taxi a guida autonoma (che ha fornito giustificazioni per il malfunzionamento).
Il video ripreso dalla bodycam dellâagente è diventato subito virale. Sul verbale câè scritto (a stampatello) âIMPOSSIBILE NOTIFICARE LA VIOLAZIONE AL COMPUTERâ.
đ Consigli di lettura: "Consent and Compensation: Resolving Generative AIâs Copyright Crisis" di Frank Pasquale e Haochen Sun
Nel primo piano di questa newsletter abbiamo parlato dellâennesimo capitolo della âguerra dello scrapingâ (fronte copyright).
La Law School della Cornell University ha pubblicato un saggio che contiene una proposta per fermare (o limitare) l'uso non consensuale delle opere sottoposte a diritto dâautore.
Il paper propone lâistituzione di un âequo compensoâ, un'imposta sui fornitori di IA, da distribuire ai detentori di diritti d'autore le cui opere vengono utilizzate senza licenza. Lâidea è nata per garantire che i content creator e le societĂ che detengono i diritti ricevano una giusta quota dei (rilevanti) benefici economici derivanti dallâelaborazione dei contenuti allâIA.Â
Il meccanismo descritto nel saggio prevede anche un sistema di opt-out semplificato che consenta di richiedere facilmente le rimozione delle opere in caso di violazione del copyright.
Quale sarĂ il primo legislatore che accoglierĂ questa proposta?
Lâarticolo si scarica qui.
đ Consigli di visione: âThe Disruptorsâ: Sam Altman e Brian Chesky discutono con Lester Holt
Per capire cosa sta accadendo nel settore dellâIA è interessante ascoltare le parole dei protagonisti di questa rivoluzione, anche se talvolta intrise della retorica tipica della Silicon Valley.
In questa conversazione, Sam Altman (fondatore e CEO di OpenAI) e Brian Chesky (fondatore di Airbnb) discutono con il giornalista Lester Holt del potenziale dell'IA per rivoluzionare vari settori (tra cui quello dellâospitalitĂ ), creando nuove opportunitĂ .
I due affrontano anche il tema delle sfide etiche dellâIA e della sicurezza. Nel corso della conversazione, affermano lâimportanza della trasparenza dellâIA e della collaborazione con i governi per assicurare un uso responsabile dellâintelligenza artificiale. Naturalmente, concordano sullâimportanza delle regole. Non chiariscono quali però.
đĄÂ LâIA fa cose
Sora - lâIA di OpenAI che genera video - non è ancora disponibile per tutti, ma è giĂ stata utilizzata per la prima volta per realizzare uno spot (quello sulle origini di una catena di negozi di giocattoli). Eccolo.
Vi ricordate Figure01? Il robot umanoide della startup FigureAI a gennaio aveva imparato a fare il caffè (LeggeZero #7) mentre a marzo interagiva con un il fondatore della societĂ grazie alla tecnologia di OpenAI, porgendogli una mela (LeggeZero #16). In questi mesi ha fatto tirocinio in uno stabilimento BMW dove si sta preparando ad essere impiegato nellâassemblaggio degli autoveicoli: impara cosĂŹ velocemente che sembra pronto per essere assunto. A furia di occuparsi solo di ChatGPT, forse le istituzioni hanno trascurato lâimpatto sempre piĂš rilevante della robotica nei processi produttivi (e sui posti di lavoro).
đ Grazie per averci letto!
Per ora è tutto, torniamo la prossima settimana. Se la newsletter ti è piaciuta, commenta o fai girare.Â




Chi piange per l'IA sta combattendo una guerra persa in partenza. Un po' come il copyright e internet. Si magari puoi vincere qualche causa...but..