đ¤ Legge Zero #1 - Spoiler alert: quello di Hollywood non sarĂ lâultimo sciopero contro lâIA
Dopo lâaccordo di sceneggiatori e attori con i produttori, la regolamentazione dellâuso dellâintelligenza artificiale nel rapporto di lavoro diventerĂ tema di contrattazione in tutti i settori.

đ§ Â Sciopereremo anche noi contro lâIA?
148 giorni. Tanto è durato lo sciopero dei lavoratori del settore cinematografico e televisivo statunitense, quello che â insieme allâastensione dal lavoro degli sceneggiatori â sarĂ ricordato come la prima grande protesta sindacale contro lâintelligenza artificiale.
Per il suo impatto sulle vite di tutti noi (i ritardi sulle uscite dei film o delle nostre serie preferite), è stato un evento che ha monopolizzato lâattenzione dei media: una manifestazione compatta, dura, come non se ne vedevano da decenni, che ha portato a due distinti accordi, rispettivamente, tra lâassociazione rappresentativa degli attori e quella degli sceneggiatori con i produttori cinematografici e televisivi. E qual era uno dei principali terreni di scontro della protesta se non i rischi connessi allâintelligenza artificiale e alla forte contrazione delle opportunitĂ e delle condizioni di lavoro dei lavoratori â non tutti strapagati â dellâindustria dellâintrattenimento?
Basti pensare al deaging di Harrison Ford nellâultimo capitolo della saga di Indiana Jones, âIl quadrante del destinoâ, realizzato per mezzo di un complesso di tecnologie, tra cui un sistema che aveva âimparatoâ, con un processo di machine learning, le espressioni del volto dellâattore, generando poi le sue facce con un ringiovanimento di oltre quarantâanni. Ford, infatti, ha 81 anni nella realtĂ , ma solo 35 nei primi minuti del film e tutto questo senza dover ricorrere ad altri attori, come nel passato, ma riproducendo le sue immagini con una sorta di lifting generato dallâintelligenza artificiale.
Uno scenario distopico, perchĂŠ, se abbandoniamo il tecno-entusiasmo che troppe volte vizia con la novitĂ la nostra percezione, non possiamo non notare che una casa di produzione, acquistando i diritti di immagine di un attore, potrebbe ricreare una recitazione infinita, anche al di lĂ della vita biologica dellâattore stesso. Un bel risparmio di spesa per chi investe nel cinema, ma, se si ribalta la prospettiva, una svendita dei diritti degli attori e degli altri lavoratori (pensate agli sceneggiatori che potrebbero essere, almeno in parte, sostituiti dallâuso di intelligenze artificiali generative).
Il sindacato ha ottenuto non solo che non sia attribuito valore creativo alle sceneggiature scritte con lâintelligenza artificiale generativa, ma anche che non possano essere negoziati accordi che consentano alle case di produzione di ridurre i compensi degli sceneggiatori che lavorano su bozze realizzate per mezzo dellâAI. Allo stesso tempo, nellâaccordo degli attori, è previsto che lâIA possa essere utilizzata per creare una replica digitale solo previo loro consenso espresso e pagando uno specifico compenso. Sicuramente un passo in avanti, ma è facile prevedere che â presto â i provini saranno aperti solo agli aspiranti attori che saranno disposti a dare questo consenso e che, tranne le star, che saranno in condizione di poterlo negare liberamente, per gli interpreti emergenti sarĂ molto difficile affermarsi senza accettare di essere replicati (guadagnando di meno e quindi perdendo presto il controllo sulla propria immagine).
Sotto questo profilo, quanto accaduto a Hollywood potrebbe essere la distopica anteprima di quanto aspetta tante categorie di lavoratori: dai giornalisti agli impiegati, dai contabili ai grafici. Tutte categorie che potrebbero essere messe a rischio non dallâintelligenza artificiale in sĂŠ, ma da un uso eccessivo della stessa per ridurre al minimo i costi dellâattivitĂ imprenditoriale, mortificando ruolo e retribuzioni degli esseri umani (in India un imprenditore ha sostituito il 90% dei suoi dipendenti mediante il ricorso allâIA).
Come possiamo arginare questa deriva?
In tanti intravedono nellâAI Act, il regolamento europeo che dovrebbe disciplinare lâintelligenza artificiale, la panacea per ogni preoccupazione. Eppure, nel testo che si sta discutendo non esiste una singola disposizione sul diritto dâautore o sui diritti di immagine. Certo, nella sua ultima versione, lâAI Act prevede lâobbligo, per chi utilizza queste tecnologie, di palesare le modalitĂ con cui è stato âallenatoâ il sistema: quindi, bisognerebbe rendere trasparenti le fonti, rivelando testi, immagini, suoni che hanno educato il sistema di intelligenza artificiale, rendendolo capace di generare nuovi contenuti.
Una risposta però ancora insoddisfacente, se poi si riflette sulla circostanza che siamo al cospetto di una semplice utilizzazione di contenuti e non â in termini giuridici â di una riproduzione, tutelabile dalle regole del diritto dâautore.
Last but not least, chi può essere considerato lâautore di una sceneggiatura creata da unâintelligenza artificiale generativa? Chi possiede o ha istruito la tecnologia? Chi immette le chiavi di ricerca per generare un nuovo testo? Anche su questo, per ora, lâincertezza regna sovrana.
Non si vuol negare che un intervento legislativo sia necessario. Però, da sola, la legge non basta. Sicuramente, in questo settore, saranno importantissimi i contratti. Lâesperienza di Los Angeles e degli studios di Hollywood insegna che non dobbiamo attendere una legge, che potrebbe intervenire quando oramai i giochi sono fatti. Servono accordi sindacali e di categoria, qualcosa che impedisca di ridurre iniquamente il costo del lavoro.
La protesta appena conclusa sarĂ quindi probabilmente solo il primo di una lunga serie di episodi che vedranno da ora in poi le contrattazioni sindacali concentrarsi non solo sui temi tradizionali (paga, ferie, condizioni di lavoro) ma anche sullâimpatto che lâuso dellâintelligenza artificiale da parte del datore di lavoro avrĂ su retribuzione e mansioni dei dipendenti.
Il finale, però, non è ancora scritto.
P.S. Secondo una indagine di Originality.ai, per ora, pochissimo di quello che vediamo sui nostri schermi, meno del 5%, è stato generato attraverso IA.
đ Un vocale da⌠Marco Bentivogli (esperto di politiche di innovazione dellâindustria e del lavoro.): cosa rappresentano gli accordi raggiunti tra produttori e lavoratori di Hollywood? Possono essere un modello anche per gli altri lavoratori? Le previsioni reggeranno alla rapidissima evoluzione della tecnologia? Nel vocale della settimana, un ospite dâeccezione risponde a queste domande.
đ° Argentina: comâè andata la prima campagna elettorale dellâera dellâIA?
Da pochi giorni Jaiver Milei è il nuovo Presidente dellâArgentina. Notizia rilevante non solo dal punto di vista politico ma anche perchĂŠ - come ha riportato il New York Times - la campagna elettorale è stata una delle prime in cui i candidati (e i loro sostenitori) hanno usato lâintelligenza artificiale per manipolare immagini e video dei rivali in modo da metterli in difficoltĂ e danneggiarli, alterando la percezione degli elettori.
Ă tempo quindi di aggiornare urgentemente le regole delle campagne elettorali per evitare che i deep fakes possano alterare lo svolgimento delle elezioni e quindi la vita delle nostre democrazie.
đ°Â AI Act: fa discutere la proposta di Germania, Francia e Italia sui foundation models
Non è rimasto molto tempo per chiudere i triloghi, cioè i negoziati interistituzionali in corso sulla proposta di regolamento europeo sullâintelligenza artificiale.
Uno degli ostacoli su cui rischia di naufragare la proposta di AI Act è la regolamentazione dei foundation models (i modelli alla base delle tecnologie di IA generativa, come il large language model alla base di ChatGPT). Si tratta di componenti essenziali delle soluzioni di IA e qualcuno teme che una regolamentazione eccessiva possa costituire un limite agli sviluppi successivi.
Nei giorni scorsi ha suscitato molto clamore, dunque, la notizia del raggiungimento di un accordo tra Germania, Francia e Italia, che prevederebbe, tra le altre cose, lâesclusione dei foundation models dallâambito di applicazione dellâAI Act.
Lâaccordo trilaterale potrebbe dare una forte spinta verso la definitiva e tanto attesa approvazione del Regolamento, ma câè stata una fortissima presa di posizione di molte organizzazioni della societĂ civile (come Privacy Network, The Good Lobby Italia e Hermes Center) che hanno chiesto al Governo italiano di rivedere la propria posizione, sottolineando come i foundation models presentino ârischi significativi data la loro complessitĂ , scala e pervasivitĂ , ed in particolare per la loro potenzialitĂ intrinseca di formare un'infrastruttura centrale per le applicazioni successiveâ.
Per chi voglia farsi unâidea di quali siano le garanzie che verrebbero meno- e sono diverse - se questa proposta venisse accolta, qui sotto una efficace grafica del Future of Life Institute.
âď¸Â Il Garante Privacy indaga sull'uso dei dati per l'IA
Il Garante per la protezione dei dati personali - dopo il provvedimento su ChatGPT dello scorso marzo - continua ad occuparsi di IA. Nei giorni scorsi avviato un'indagine conoscitiva sulla raccolta di dati personali online per addestrare algoritmi di intelligenza artificiale.
L'obiettivo è verificare le misure di sicurezza adottate da siti pubblici e privati per prevenire la raccolta massiva (webscraping) di dati personali. Si tratta di unâiniziativa importante che va nellâottica di assicurare la massima trasparenza - e quindi consapevolezza - sul funzionamento degli algoritmi.
A seguito dell'indagine, l'AutoritĂ si riserva di adottare i necessari provvedimenti, anche in via d'urgenza, per garantire la protezione dei dati personali nell'ambito dell'uso dell'intelligenza artificiale.
âď¸Â Sentenze sul fisco: arriva il giudice robot?
Il progetto Prodigit del Ministero dellâEconomia e delle Finanze impiega la tecnologia digitale e l'intelligenza artificiale per prevedere gli esiti futuri dei futuri contenziosi in base all'analisi di oltre un milione di sentenze tributarie.
Tra gli obiettivi del progetto câè la sperimentazione attraverso lâIA di un modello di prevedibilitĂ della decisione e l'implementazione della banca dati nazionale di giurisprudenza tributaria, che conterrĂ le sentenze di merito integrali, oscurate.
L'algoritmo sarĂ addestrato da un team composto da 23 giudici tributari selezionati dal Ministero dell'Economia e 7 studiosi esperti del settore. Ma cosa significa in concreto? Le motivazioni delle sentenze saranno scritte dallâIA sulla base delle sentenze precedenti? Quali precauzioni saranno adottate per garantire il rispetto dei principi etici e preservare le intuizioni umane che - da sempre - consentono di applicare le norme in modo evolutivo? Staremo a vedere.
đ˛ Glaze: come proteggere le proprie opere dallâIA
Lâapposizione del simbolo Š in calce ad un contenuto (es. un articolo, una canzone, unâimmagine) è sufficiente a bloccare la pesca a strascico delle tecnologie dellâintelligenza artificiale? La risposta è no. Per questo, in attesa di nuove regole a tutela degli autori, i ricercatori dellâUniversitĂ di Chicago hanno sviluppato Glaze.
Si tratta di un sistema gratuito progettato per proteggere gli artisti umani dagli impatti negativi della mimesi stilistica da parte dei modelli di intelligenza artificiale generativa. Questi modelli, infatti, sono utilizzati per replicare gli stili degli artisti senza il loro consenso. Glaze interviene apportando minimi cambiamenti alle opere d'arte, cambiamenti che sono invisibili agli occhi umani ma alterano significativamente la percezione dello stile da parte dei modelli IA.

đ IA Meme
Lâaccordo tra produttori e sceneggiatori di Hollywood visto da Fry di Futurama.
đ Cosa legge Barack Obama?
I grandi della terra si stanno occupando di IA con sempre maggiore interesse: dichiarazioni pubbliche, incontri internazionali, proposte di regolazione e atti normativi. Ma cosa leggono e dove studiano per capire questo fenomeno prima di parlarne e pensare di regolarlo?
Nei giorni scorsi lâex Presidente USA Barack Obama ha pubblicato una lista di fonti (libri, articoli e podcast) che hanno influenzato la sua visione dellâintelligenza artificiale. Un elenco prezioso per chi vuole approfondire i temi dellâIA e dei suoi impatti etici e sociali, ma anche un esempio da seguire per altri politici e rappresentanti delle istituzioni (per evitare proposte normative slegate da qualsiasi compiuta conoscenza di questa realtĂ cosĂŹ complessa).
đźÂ Eventi e incontri
Progettare la didattica con lâintelligenza artificiale - Webinar, 28.11.2023
AI FAIR, la Fiera internazionale sullâintelligenza artificiale - Bologna, 5-7.12.2023
Per ora è tutto, torniamo sabato prossimo. Se la newsletter ti è piaciuta, commenta o fai girare. Grazie!






