🤖 Cosa può andare storto? – Legge Zero #48
Da Dublino a Cracovia si moltiplicano gli esempi di imprenditori che utilizzano l'IA in modo non responsabile, con conseguenze preoccupanti non solo per il nostro lavoro ma per le nostre democrazie.
🧠 A chi possiamo credere?
È la notte di Halloween. A Dublino sono accorsi in migliaia per assistere alla tanto attesa parata piena di maschere e di celebrità (tra cui Cristiano Ronaldo). Sono in tantissimi ad essere schierati lungo le strade da Parnell Street alla Christ Church Cathedral, tutti aspettano che l’evento inizi. Poco prima delle nove arriva il colpo di scena: la polizia irlandese annuncia:
Rendiamo noto che, contrariamente alle informazioni diffuse online, non è prevista alcuna parata di Halloween nel centro di Dublino questa sera.
Tutti coloro che si sono radunati su O'Connell Street in attesa della parata sono pregati di disperdersi in sicurezza.
Quella della parata era solo una fake news che - grazie ai social - si era propagata molto velocemente. All’origine di tutto una notizia pubblicata da myspirithalloween.com, sito su cui vengono pubblicate notizie generate da ChatGPT con l’obiettivo di monetizzare clic e annunci pubblicitari.
Insomma, migliaia di persone erano in strada perché una parata era stata inventata dall’IA, nessun essere umano aveva controllato efficacemente, nessuno aveva informato gli utenti del fatto che i contenuti del sito fossero generati dall’IA.
Siamo circondati da contenuti generati dall’IA, ed è solo l’inizio. Una stazione radio polacca, OFF Radio Krakow, qualche settimana fa aveva licenziato molti dei suoi dipendenti (umani) e aveva assunto tre speaker artificiali: Emilia, Kub e Alex. I tre - ciascuno con una sua biografia, i suoi interessi e le sue competenze - avevano l’obiettivo di avvicinare un pubblico giovane alla radio, consentendo un risparmio economico rispetto agli speaker umani (qui il racconto pubblicato da Il Manifesto). Dopo una sola settimana, però, l’esperimento è stato interrotto a seguito di una forte protesta in tutta la Polonia (oltre 23mila firme raccolte contro gli speaker IA) per il timore di una sostituzione degli esseri umani con le IA guidata da ragioni di profitto oltre che per le preoccupazioni legate alla diffusione di contenuti non attendibili (come le interviste fake con famosi personaggi polacchi ormai defunti).
Quanto accaduto a Dublino e Cracovia dimostra che la diffusione dell’IA sia già molto più penetrante di quello che possiamo immaginare, producendo già effetti tangibili nel cosiddetto ‘mondo reale’, cioè nella nostra vita quotidiana. Questo anche a causa di imprenditori e professionisti che vedono nell’IA uno strumento per ridurre i costi e massimizzare i profitti, senza porre troppa attenzione agli impatti sociali, ad esempio in termini di perdita dei posti di lavoro, di diffusione delle fake news e di tutela dell’ordine pubblico. È per questo che esistono norme - come l’AI Act dell’UE (qui il nostro numero tematico) che impongono di verificare il rischio legato all’uso dell’IA nel proprio business oltre che di essere trasparenti nei confronti degli utenti sui contenuti generati grazie all’intelligenza artificiale.
L’AI Act diventerà però pienamente applicabile nel mese di agosto 2026, ma è già urgentissimo che tutti capiscano l’importanza di attuare fin da ora i principi di accountability, trasparenza e tutela dei diritti fondamentali.
Altrimenti qualcosa andrà storto. In realtà, sta già succedendo.
🔊 Un vocale da… Roberto Ricci (Invalsi)
Quali sono i campi in cui l’IA può essere utile fin da ora? Uno di questi è l’ambito scolastico dove - con giudizio e prudenza, gestendo adeguatamente i rischi esistenti - l’IA può essere utilizzata sia per intercettare tempestivamente i segnali di disagio sia per supportare la didattica e dare risposte positive a studenti e studentesse. Nel vocale di questa settimana ce ne parla il Presidente dell’Istituto nazionale per la valutazione del sistema educativo di istruzione e di formazione.
📰 Abbiamo finalmente una definizione ufficiale di IA open source (ma Meta non è d’accordo)
L'Open Source Initiative (OSI), una delle principali organizzazioni nel mondo del software libero, ha recentemente pubblicato la versione 1.0 della definizione di Intelligenza Artificiale Open Source (OSAID), frutto di anni di lavoro con diversi stakeholder (tra cui accademici e aziende tecnologiche). Questa definizione mira a stabilire uno standard che consenta di distinguere chiaramente se un sistema di IA può essere considerato open source, favorendo una maggiore chiarezza per sviluppatori, aziende e istituzioni.
Secondo questa definizione, un modello di IA per essere considerato open source deve fornire accesso completo a tre elementi chiave:
i dati di addestramento;
il codice sorgente;
i pesi o parametri del modello.
In particolare, il requisito sui dati di addestramento impone che le informazioni siano sufficientemente dettagliate per permettere la replica del modello da parte di terzi, includendo la provenienza dei dati, il processo di etichettatura e di filtraggio. Questo punto è stato introdotto per contrastare il fenomeno dell’open washing, ovvero l’uso improprio del termine ‘open source’ per modelli che non rispettano tali requisiti (se volete capire meglio di cosa si tratta, leggete questo articolo pubblicato da Wired).
Nonostante il sostegno di vari stakeholder, la definizione ha già suscitato contestazioni e critiche. Quella più importante è di Meta - che da anni dichiara di aver abbracciato la filosofia open source - il cui Llama però resterebbe fuori da questa nuova definizione (anche perché non è assicurata trasparenza sui dati di addestramento).
Vedremo se questa definizione riuscirà a stabilire un riferimento che porti gli sviluppatori a impegnarsi maggiormente nella trasparenza e nella condivisione (anche indipendentemente dagli obblighi specifici previsti dalla normativa vigente, come l’AI Act).
Per approfondire i dettagli, il documento completo può essere consultato qui, mentre su TechCrunch trovate un interessante resoconto del dibattito in corso (per niente chiuso dall’approvazione di questa definizione).
📰 Le case discografiche iniziano a usare l’IA (in modo etico?)
Passato Halloween, è già conto alla rovescia per Natale. E cosa c’è di più natalizio di ‘Rockin’ around the Christmas Tree’, canzone simbolo incisa nel 1958 da una giovanissima Brenda Lee (qui la versione originale)?
Nei giorni scorsi, Universal Music ha lanciato una versione inedita del brano, in spagnolo, intitolata ‘Noche Buena y Navidad’. La nuova versione non è stata mai cantata dall’artista, ma è stata creata con il supporto di una società di IA specializzata per il settore musicale (SoundlabsAI), diversa dai più noti provider che invece Universal ha portato in Tribunale per violazione del copyright (ne abbiamo dato conto in LeggeZero #32). Si tratta di uno dei primi esperimenti in cui l’industria musicale stringe partnership per usare l’IA, innovando il settore (qui un articolo di The Hollywood Reporter sul tema).
Con il consenso della Lee - che si è detta entusiasta dell’iniziativa - il modello di intelligenza artificiale è stato addestrato sulla sua voce e ha prodotto un risultato che, grazie anche alla post produzione di un essere umano, ha ricreato in modo credibile il timbro vocale della cantante. Il risultato potete giudicarlo direttamente cliccando play sul video embeddato qui sotto. È la prima volta che una canzone viene tradotta ufficialmente in un'altra lingua con l'IA.
C’è qualcosa che stona però. Né sul canale Youtube, nè su altre piattaforme di streaming su cui la canzone è stata resa disponibile (qui Spotify) è riportato che il brano è stato generato da un’IA che ha imitato la voce della Lee. Uso etico dell’intelligenza artificiale non può significare solo remunerare (giustamente) gli artisti, ma deve consistere sempre in una corretta informazione degli utenti.
⚖️ Un artista porta in Tribunale il Copyright Office USA 🇺🇸 per il rifiuto di proteggere un’immagine creata con Midjourney
Jason Allen ha citato in giudizio l’Ufficio del Copyright degli Stati Uniti per il rifiuto di registrare come opera protetta dal copyright il suo lavoro intitolato Théâtre D'opéra Spatial, un’immagine creata tramite il software di intelligenza artificiale Midjourney. Allen sostiene di aver esercitato un controllo creativo significativo durante il processo di creazione, guidando l’IA con 624 prompt per ottenere il risultato desiderato (lavorandoci per oltre 100 ore).
Il rifiuto del Copyright Office è stato motivato per la mancanza di contributo creativo umano necessario, poiché la componente grafica principale sarebbe attribuibile all’IA.
Allen, ritenendo la decisione illegittima e ingiusta, l’ha contestata, ricorrendo ai giudici del distretto del Colorado. Nel suo ricorso eccepisce che Midjourney sia stato utilizzato solo come strumento esecutivo, comparabile a una fotocamera per un fotografo. Pertanto, chiede che il tribunale dichiari la decisione illegittima e ordini al Copyright Office di concedere la tutela alla sua opera.
C’è molta attesa per la decisione dei giudici su un tema assai complesso e relativo all’evoluzione della creatività umana. Se siete interessati, potete leggere l’atto introduttivo del giudizio promosso da Allen, scaricandolo qui sotto.
⚖️ Lo Stato di New York 🇺🇸 approva una legge per regolamentare l'uso di sistemi di intelligenza artificiale nelle decisioni governative
Il Parlamento dello Stato di New York ha votato un’importante legge in materia di IA che è ora in attesa dell’approvazione del Governatore (il quale potrebbe sempre decidere di esercitare il diritto di veto).
Si tratta del LOADinG Act (Legislative Oversight of Automated Decision-making in Government Act) che ha l’obiettivo di garantire trasparenza e responsabilità nell'uso di sistemi di decisione automatizzata da parte delle agenzie governative. La legge impone alle amministrazioni dello Stato di condurre valutazioni d'impatto su tutti i sistemi automatizzati utilizzati per decisioni che potrebbero influire su benefici pubblici, diritti civili, libertà, sicurezza o benessere degli individui.
Inoltre, il LOADinG Act richiede una revisione umana significativa e un monitoraggio continuo per assicurare equità e accuratezza per i sistemi ad alto rischio. È inoltre previsto che i risultati delle valutazioni siano pubblicati online per garantire la trasparenza e rispondere alle crescenti preoccupazioni su privacy e sicurezza. In caso di rilevazione di irregolarità o bias, le agenzie dovrebbero sospendere immediatamente l'uso del sistema.
Se vi ricorda qualcosa, non state sbagliando. La legge introduce istituti molto simili a quelli del tanto vituperato AI Act dell’Unione Europea.
Adesso staremo a vedere se il Governatore lo ratificherà, introducendo un precedente importante a livello globale sull’utilizzo dell’IA nel settore pubblico.
💊 IA in pillole
Open to meraviglia? No, Open to IA. Il Costa Rica sarà il primo Paese a sviluppare la sua strategia di nation branding (cioè definire come presentarsi al resto del mondo) attraverso l’intelligenza artificiale.
È già passato un anno dall’ordine esecutivo del Presidente USA Biden sull’intelligenza artificiale. La Casa Bianca ha pubblicato una lista delle più di cento azioni già realizzate in questi mesi (tra cui la nomina dei CAIO, responsabili di IA, nelle agenzie federali e la pubblicazione degli elenchi di sistemi IA utilizzati dalle amministrazioni).
I provider di IA sono molto attivi nel settore pubblico, non solo perché le PA sono - tutto sommato - buoni clienti, ma anche per lavorare a casi di studio che siano replicabili in tutto il mondo. Recentemente, Mark Zuckerberg ha dichiarato che Meta si sta impegnando per far usare il suo modello Llama a tutto il Governo USA, OpenAI ha pubblicato un post in cui parla del suo lavoro per garantire l’uso sicuro dell’IA ad alcune agenzie governative USA e Anthropic ha raccontato l’uso di Claude da parte dell’Archivio del Parlamento Europeo per facilitare l’accesso ai tantissimi documenti (video qui sotto).
Questo ristorante non esiste. Ethos, che si presenta come il ristorante numero uno di Austin (Texas) e conta oltre 82.000 follower su Instagram, sembra reale finché non ci si accorge che le foto del cibo, del locale e del personale sono generate dall'intelligenza artificiale. I post ricevono migliaia di 'Mi piace' e commenti da parte di persone ignare di tutto ciò e sulla piattaforma non c’è nessun disclaimer (né per il locale né per le foto). Siamo già immersi in contenuti generati da IA e non ce ne rendiamo conto.
😂 IA Meme
È stata una settimana ricchissima di annunci legati a nuovi prodotti servizi IA. Quello di cui si è parlato di più è stato, senza dubbio, il lancio di ‘SearchGPT’, la funzionalità di ChatGPT che consente di effettuare ricerche sul web in modo ‘molto migliore rispetto al passato’. I risultati vengono mostrati con risposte discorsive che al loro interno hanno collegamenti a fonti web pertinenti, ‘per le quali in precedenza era necessario rivolgersi a un motore di ricerca’ (se volete un confronto tra Google e GPT Search lo trovate qui).
Il servizio è sicuramente molto promettente e ha destato anche l’ironia sulla fine di altri servizi di ricerca (da Google a Perplexity). In questo meme, gli utenti in procinto di abbandonare Google per il nuovo giocattolo, proprio come Andy che abbandona Woody in Toy Story.
😂 IA Meme che non lo erano
L’IA irrompe anche in Halloween. Questo bambino di 5 anni di Taipei ha deciso di vestirsi come Jensen Huang, il CEO di Nvidia (si, quello che veste sempre una giacca di pelle).
📚 Consigli di lettura: secondo uno studio, negli USA 🇺🇸 i giudici usano l’IA per avallare decisioni già prese
Siamo abituati a pensare che l’unico problema dell’IA (rischio, per usare la terminologia dell’AI Act) sia quello legato al mancato - o comunque scarso - controllo umano degli output e decisioni dei sistemi di intelligenza artificiale (ne abbiamo parlato in LeggeZero #29).
Invece, esistono altri rischi, forse ancora più gravi. Lo evidenzia un recente studio - Assessing the Risks of Risk Assessments: Institutional Tensions and Data Driven Judicial Decision-Making in U.S. Pretrial Hearings - che ha analizzato come i giudici statunitensi utilizzano le valutazioni algoritmiche di rischio nelle decisioni preliminari (coefficienti prodotti da un sistema che, sulla base della tipologia di reato e della storia personale dell’imputato, valutano la probabilità che lo stesso delinqua ancora o sia pericoloso per la società). Infatti la ricerca, condotta da Sino Esthappan della Northwestern University, rivela che i giudici tendono a impiegare questi algoritmi per giustificare decisioni già prese, piuttosto che basarsi sulle indicazioni neutrali dei punteggi di rischio.
L’indagine esplora un dato significativo: invece di ridurre i pregiudizi umani, l’uso selettivo degli algoritmi rischia di legittimare le discrepanze giudiziarie, specialmente nei casi più complessi e mediatici. I giudici, infatti, sembrano considerare i punteggi algoritmici utili solo nei processi minori (in cui non vogliono perdere tempo) o per sostenere decisioni poco popolari, preservando così la propria reputazione.
Il risultato? Gli algoritmi, concepiti per limitare le discrezionalità, finiscono per ampliare le motivazioni soggettive dei giudici, sollevando sempre più domande sull’efficacia e l’imparzialità della giustizia assistita dalla tecnologia (questo articolo di The Verge dà conto del dibattito aperto sulla questione).
È una ricerca utile per evitare di cadere nel tranello del soluzionismo tecnologico quando qualcuno proporrà l’IA come soluzione per risolvere i problemi della giustizia.
📣 Eventi
Human touch 2.0: oltre l’IA nell’Università del domani - Siena, 7-9.11.2024
AgentForce World Tour - Milano, 21.11.2024
Forum della non autosufficienza - Bologna, 27-28.11.2024
🙏 Grazie per averci letto!
Per ora è tutto, torniamo la prossima settimana. Se la newsletter ti è piaciuta, commenta o fai girare.