🤖 The sound of silence - Legge Zero #63
In UK musicisti ed editori animano il dibattito pubblico sulle modifiche normative proposte dal governo in materia di IA. In Italia, invece, il confronto pare limitato a pochi addetti ai lavori.

🧠 È questo quello che vogliamo?
E la gente si inchinò e pregò
al dio-neon che avevano creato
e il cartello lampeggiò il suo avvertimento
Nelle parole che stava formando
il cartello diceva: “Le parole dei profeti
sono scritte sui muri delle metropolitane
nei corridoi delle case popolari
e sussurrano nel suono del silenzio”
Si chiude con queste parole ‘The sound of silence’, una delle canzoni più iconiche del XX secolo, capolavoro di Simon&Garfunkel, celebre anche per essere la colonna sonora del film ‘Il laureato’ (se siete troppo giovani per sapere di cosa sto parlando, potete ascoltarla qui).
Il ‘dio-neon’ menzionato nel testo rappresenta l'artificialità e l'adorazione di valori superficiali nella società contemporanea, suggerendo una critica alla crescente dipendenza dalla tecnologia e alla perdita di significati profondi nelle interazioni umane (badate bene: la canzone è del 1964!).
The sound of silence è quello che mi è venuto in mente quando ho letto dell’iniziativa di oltre mille artisti inglesi - tra cui Annie Lennox, Jamiroquai, Kate Bush, Hans Zimmer e Kat Stevens - che hanno pubblicato un album di protesta intitolato ‘Is This What We Want’ (trad. ‘È questo quello che vogliamo?’). Nelle dodici tracce dell’album - che potete ascoltare online - non ci sono canzoni, bensì delle mere riprese ambientali di studi di registrazione e sale da concerto completamente vuoti.
L’iniziativa è la dura presa di posizione degli artisti per la consultazione aperta dal Governo UK sulle modifiche alla legge sul copyright che consentirebbero ai provider di IA di utilizzare, a fini di addestramento dei loro modelli, contenuti protetti da diritto d’autore senza chiedere preventivamente la licenza ai titolari dei diritti (a meno che questi ultimi non vi si oppongano espressamente).
La proposta ha suscitato la reazione negativa della comunità artistica del Regno Unito (compresi Elton John e Sir Paul McCartney, come avevamo scritto in Legge Zero #60).
Insomma, secondo gli artisti, il silenzio è quello che rimarrebbe del loro lavoro se passasse la proposta del Governo. Il messaggio non potrebbe essere più chiaro, i titoli delle dodici tracce del disco formano la frase ‘Il governo britannico non deve legalizzare il furto di musica per favorire le aziende di IA’.
Parallelamente a questa iniziativa, negli ultimi giorni della consultazione pubblica aperta dal Governo, anche i quotidiani inglesi - nazionali e regionali - hanno preso posizione titolando ‘Make it fAIr’, nome della campagna ideata per sensibilizzare i lettori sui rischi della nuova proposta normativa.
Insomma, il tema delle regole dell’IA - in Inghilterra - è al centro del dibattito dell’opinione pubblica, merito anche del metodo scelto dal Governo: aprire la proposta a un dibattito non ristretto agli addetti ai lavori in cui ognuno contribuisce con la propria posizione (anche di parte). Il premier Starmer - nel commentare i risultati di questa importante attività di ascolto - ha affermato che, prima di andare avanti, terrà in considerazione sia le posizioni degli artisti e degli editori (vista l’importanza economica e culturale del settore) sia le esigenze dei provider di IA (tenuto conto che UK vuole diventare leader mondiale di questa tecnologia, come abbiamo scritto in LeggeZero #57).
In attesa di capire quale sarà il compromesso trovato dal Governo di Sua Maestà, viene da fare una considerazione. All’estero, le modifiche normative legate alla regolazione dell’IA stanno diventando un’opportunità molto partecipata di confronto su come sta cambiando la nostra società a seguito dello sviluppo tecnologico e su quali sono gli impatti nei diversi settori. Non sta accadendo solo in UK, se ricordate - qualche mese fa - in California ci fu un ricchissimo dibattito pubblico sulla proposta normativa contro i rischi catastrofici dell’IA (di cui parlammo in LeggeZero #39).
In Italia, invece - nonostante un Disegno di legge presentato un anno fa dal Governo - non è mai decollato davvero un dibattito pubblico, animato da sindacati, associazioni, cittadini, imprenditori sui temi degli impatti dell’IA nei diversi settori dell’economia e della società. Solo qualche discussione, molto tecnica, tra gli addetti ai lavori.
Non sembra assordante anche a voi il suono di (questo) silenzio?
🔊 Un vocale da… Elisa Giomi (AGCOM)
L’intelligenza artificiale rappresenta una minaccia o un’opportunità per il pluralismo dell’informazione? E quale approccio regolatorio dovrebbe essere adottato per bilanciare innovazione e tutela dei diritti fondamentali?
Nel messaggio di questa settimana, Elisa Giomi, commissario dell’Autorità per le garanzie nelle comunicazioni, affronta il tema della over-regulation nell’IA, evidenziando i rischi di un eccesso normativo che potrebbe frenare lo sviluppo tecnologico. Tuttavia, sottolinea come anche l’assenza di regolamentazione presenti criticità altrettanto rilevanti. La soluzione, secondo Giomi, risiede in una evidence-based regulation, ovvero una regolamentazione proporzionata e basata sull’analisi concreta del mercato e delle sue eventuali distorsioni.
Un altro punto cruciale riguarda il pluralismo dell’informazione: mentre tradizionalmente la sua tutela si è basata sulla limitazione della concentrazione della proprietà dei media, Giomi evidenzia come la diversità di fonti e prospettive sia più rilevante della sola pluralità di provider.
Un messaggio importante che contribuisce, in modo autorevole, al dibattito italiano sulle regole dell’IA.
📰 L'IA di Musk valuterà i lavoratori federali USA 🇺🇸 per capire chi è indispensabile e chi può essere sostituito (e quindi licenziato)
Elon Musk, oltre a essere impegnato in numerose iniziative imprenditoriali (da X a SpaceX, passando xAI e Tesla), dirige anche il neonato Dipartimento per l'efficienza governativa (Department of Government Efficiency, o DOGE) istituito da Donald Trump con un executive order firmato il giorno del suo insediamento come Presidente USA.
Il DOGE ha l'obiettivo di ridurre la spesa pubblica eliminando sprechi e inefficienze all'interno del governo federale, anche utilizzando l’IA. E proprio nell’ambito di questo contesto, qualche giorno fa, il Governo ha inviato email ai dipendenti federali degli Stati Uniti, richiedendo loro di fornire un elenco delle attività svolte nella settimana precedente.

Le particolari richieste di formattazione della risposta (evitare link o allegati) sono dovute alla circostanza che i report degli impiegati non saranno letti da esseri umani bensì da un’IA che avrà il compito di valutare quali dipendenti pubblici svolgono un ruolo essenziale e di quali invece si può fare a meno, magari proprio grazie all’intelligenza artificiale (lo riporta NBC in questo articolo).
L’iniziativa ha generato numerose preoccupazioni riguardo alla privacy, alla sicurezza dei dati e all'accuratezza delle valutazioni effettuate dall'IA. Molti critici sostengono che l'uso di tali tecnologie potrebbe compromettere la qualità dei servizi pubblici e portare a decisioni di licenziamento o tagli errate, basate su analisi automatizzate, senza un'adeguata considerazione del contesto umano (qui una circostanziata presa di posizione del New Yorker). Lo stesso Musk ha ammesso che - per errore - era stato temporaneamente tagliato il programma di prevenzione dell’ebola.
Tra l’altro, alcune amministrazioni e agenzie, come il Dipartimento di Stato, il Dipartimento di Giustizia e l'FBI - entrando in polemica con Musk - hanno raccomandato ai propri dipendenti di non rispondere a queste email, citando preoccupazioni relative alla sicurezza e alla natura sensibile del lavoro svolto.
Nel frattempo, sindacati dei lavoratori e organizzazioni della società hanno contestato l'iniziativa come illegale, sottolineando i rischi associati all'affidamento dell'analisi delle prestazioni umane a sistemi di IA.
In attesa di vedere come andrà a finire questa iniziativa (che appare del tutto priva di una metodologia), c’è da scommettere che saranno molte le amministrazioni che proveranno a emulare il DOGE per fare spending review (come Hong Kong che, nei prossimi mesi, dovrebbe tagliare migliaia di dipendenti pubblici per investire in IA).
⚖️ Negli USA 🇺🇸, un dottorando espulso per uso dell’IA fa causa all’Università del Minnesota
Studenti, ricercatori, professori: sono sempre più coloro che usano strumenti di IA generativa. E, a quanto pare, si vede.
Qualche tempo fa vi avevamo dato conto della causa di due genitori del Massachussets che avevano portato in Tribunale la scuola in cui il figlio aveva ricevuto un brutto voto (e un provvedimento disciplinare) per aver usato l’IA per i compiti (la causa è tuttora in corso, ma le richieste di provvedimenti d’urgenza sono state rigettate).
Sempre dagli USA arriva un altro caso che potrebbe definire un precedente nel dibattito sull'uso dell'intelligenza artificiale in ambito accademico.
Haishan Yang - uno studente di 33 anni che stava lavorando al secondo dottorato presso l'Università del Minnesota - è stato espulso nel 2024 dopo essere stato accusato di aver utilizzato strumenti di intelligenza artificiale per scrivere i suoi saggi. Infatti, gli era consentito consultare appunti e libri, ma gli strumenti di IA non erano ammessi.
Invece, tutti e quattro i docenti chiamati a valutare i suoi scritti hanno ritenuto che gli elaborati non fossero stati scritti dal dottorando, evidenziando passaggi che sembravano irrilevanti o non trattati a lezione, oltre all'uso di acronimi non comuni nel settore ma che apparirebbero frequentemente nelle risposte generate da ChatGPT (sui segni che consentono di capire se un testo è stato creato con il supporto di IA generativa abbiamo scritto in LeggeZero #60).
Yang sostiene che queste somiglianze siano dovute al fatto che lo strumento di OpenAI sarebbe stato addestrato sugli stessi materiali di riferimento consultati da lui. Lo studente accusa inoltre i professori di aver modificato le risposte di ChatGPT per farle apparire più simili alle sue. Yang, infine, sostiene che i metodi utilizzati per rilevare l'uso dell'IA sarebbero inaffidabili e discriminatori, in particolare verso persone la cui prima lingua non è l'inglese (il dottorando è cresciuto parlando il Southern Min, un dialetto cinese).
Il caso è aggravato da un precedente: in passato, lo studente aveva presentato un elaborato che includeva il testo ‘riscrivilo, rendilo più informale, come scritto da uno studente straniero ma senza IA’ (si era giustificato sostenendo di aver utilizzato ChatGPT solo per controllare il suo inglese, non per generare le risposte).
Dopo che l’Università ha respinto un suo primo reclamo, Yang si è rivolto al Tribunale del Minnesota, chiedendo complessivamente più di 1,3 milioni di dollari a titolo di risarcimento danno, oltre all'annullamento dell'espulsione e a scuse pubbliche. Curiosamente, Yang ha ammesso di aver utilizzato ChatGPT per redigere i documenti della causa stessa (al momento senza grande successo, però, visto che le sue richieste di provvedimenti d’urgenza sono state rigettate).
💊 IA in pillole
Nei giorni scorsi, il Presidente Trump ha firmato un memorandum che stabilisce che, quando un governo straniero impone tasse o regolamenti discriminatori o sproporzionati nei confronti delle aziende americane (specialmente nel settore tecnologico), l'amministrazione statunitense prenderà provvedimenti, inclusa l'imposizione di dazi e sanzioni. Sarà usato anche in riferimento alle normative europee sull’IA di cui il Vicepresidente Vance ha parlato a Parigi nel corso dell’AI Action Summit?
Cohere, una società nordamericana che fornisce servizi basati sull’IA generativa, è stata citata in giudizio da un gruppo di editori di giornali e riviste per aver violato le norme sul copyright e sulla tutela dei marchi. Le doglianze dei ricorrenti non riguardano solo l’utilizzo di materiale protetto dal diritto d’autore per l’addestramento di modelli di IA (come in altri casi giudiziari di cui vi abbiamo raccontato nei precedenti numeri - LeggeZero#32 e LeggeZero #50). In questo caso, i promotori dell’azione legale lamentano inoltre che l’azienda avrebbe realizzato un sistema di retrieval augmented generation (RAG) tale per cui il prompt di un utente viene utilizzato per recuperare materiale disponibile su internet (incluso materiale coperto da paywall), per poi essere dato in pasto modello generativo insieme al prompt. Secondo i ricorrenti, il servizio di Cohere produrrebbe anche ‘allucinazioni’ come output, generando contenuti falsi o inesatti e attribuendoli agli stessi editori.
Qui potete leggere il testo del ricorso, presentato davanti al davanti al tribunale del Southern District di New York.
È diventato virale il video in cui due agenti IA, mentre parlavano al telefono, hanno deciso di usare un linguaggio diverso dall’inglese, il ‘Gibberlink mode’ (protocollo sviluppato per facilitare le interazioni tra IA). Più divertente o inquietante?
In China, nel corso di un evento, un robot ha preso di mira una persona del pubblico, prima che intervenisse la security (umana). Visto lo sviluppo veloce della robotica, si è quindi riacceso il dibattito sulla responsabilità. Se i robot sono alimentati da IA generativa, addestrati con informazioni non adeguatamente selezionate, è possibile ritenere anomalo il comportamento del robot?
😂 IA Meme
Chiunque abbia lavorato a progetti IA conosce perfettamente la differenza tra la facilità di vendere un progetto IA al cliente (che spesso lo vuole già) e la difficoltà di implementazione (specialmente quando ci si scontra con i vincoli dell’ufficio IT).
Il meme della settimana ci illustra questa differenza utilizzando una delle immagini più drammatiche dello scontro tra Trump e Zelensky.
[NB il meme è ovviamente ironico, ma è anche una buona occasione per esprimere sempre la massima solidarietà al popolo ucraino]

😂 meme IA … che non lo erano
Ne hanno parlato tutti, anche media e telegiornali: sono due deepfake che riguardano la situazione di Gaza.
Il primo è il video ‘Trump Gaza’, un deepfake postato direttamente da Trump sui suoi account per rappresentare la sua proposta per Gaza. Dopo 15 mesi di bombardamenti e 48mila morti accertati, l’idea del Presidente USA è trasformarla in un misto tra Miami e Dubai, tra hotel di lusso, casinò e danzatrici del ventre. È più che un’idea, è un video realistico (in cui compaiono anche Musk e Netanyahu) con tanto di colonna sonora.
Sempre via social è arrivata la risposta: ‘Strip in Trip’, un deepfake realizzato dal creativo (e AI artist) italiano Andrea Gastaldon, diventato subito virale, che ritrae i grandi della terra che si godono il sole di Gaza tra le macerie e il mare in cui c’è ancora traccia del sangue delle migliaia di vittime.
Tra le tante, c’è una differenza tra i due video: mentre quello di Trump non ha alcuna etichetta (né assegnata dalla piattaforma né hashtag) che lo identifichi come deepfake, il video di Gastaldon è stato pubblicato con hashtag che chiaramente indicano che è stato generato attraverso IA.
Dettaglio non da poco, infatti, tra qualche mese - quando diventerà pienamente applicabile l’AI Act (il Regolamento UE 2024/1689 sull’IA) - gli utilizzatori di sistemi che generano deepfake, quando li diffondono, dovranno obbligatoriamente rendere noto che “il contenuto è stato generato o manipolato artificialmente”. La norma prevede che solo “qualora il contenuto faccia parte di un'analoga opera o di un programma manifestamente artistici, creativi, satirici o fittizi, gli obblighi di trasparenza di cui al presente paragrafo si limitano all'obbligo di rivelare l'esistenza di tali contenuti generati o manipolati in modo adeguato, senza ostacolare l'esposizione o il godimento dell'opera.”
Nei prossimi mesi vedremo come piattaforme, creator, politici e rappresentanti delle istituzioni si adegueranno a questa norma.
📚 Consigli di lettura: l’IA può sconfiggere la povertà?
Si parla tanto dei rischi legati all’IA, lo facciamo anche noi. Ma l’intelligenza artificiale può essere utilizzata anche per migliorare la vita delle persone.
Un recente articolo di Nature esplora come l’intelligenza artificiale possa rivoluzionare la lotta alla povertà, migliorando la distribuzione degli aiuti e ottimizzando le risorse. Can AI Help Beat Poverty? Researchers Test Ways to Aid the Poorest People - questo il titolo dell’articolo - esplora come l'intelligenza artificiale stia trasformando la misurazione della povertà e la distribuzione degli aiuti nei paesi in via di sviluppo. In particolare, l’autrice Carrie Arnold, racconta il caso di Novissi, un progetto in Togo che ha usato l’IA per identificare e supportare le persone in difficoltà durante la pandemia Covid-19.
L’iniziativa, realizzata con il contributo del Ministero dell’Economia Digitale del Togo, dell’Università di Berkeley e della ONG GiveDirectly, ha utilizzato immagini satellitari e dati delle reti mobili per stimare il livello di povertà delle diverse aree e individuare le persone più bisognose (a cui venivano inviati 10 dollari ogni due settimane).
Questo approccio ha permesso di distribuire aiuti in modo rapido ed efficace, superando i limiti dei tradizionali sondaggi porta a porta.
L’uso dell’IA nella misurazione della povertà è una tendenza in crescita: istituzioni come la Banca Mondiale stanno sviluppando strumenti avanzati per prevedere crisi alimentari e conflitti, migliorando l’efficacia degli interventi umanitari. Questo spostamento verso una misurazione della povertà assistita dall'IA rappresenta una potenziale svolta nel modo in cui identifichiamo e sosteniamo i 700 milioni di persone in tutto il mondo che vivono con meno di 2,15 dollari al giorno.
Tuttavia, alcuni studiosi mettono in guardia dai rischi di discriminazione algoritmica e dall’esclusione di chi non lascia tracce digitali.
L’ articolo si chiude aprendo un dibattito cruciale: possiamo davvero affidarci all’IA per combattere la povertà o rischiamo di rafforzare le disuguaglianze?
💬 Il dibattito sull’IA
Dopo quello che ho visto oggi in relazione a un modello di intelligenza artificiale (non posso ancora parlarne) posso affermare con sicurezza che il processo scientifico non sarà mai più lo stesso! Ora sono sicuro al 99% che tutte le malattie, incluso il cancro, saranno curate entro un decennio! Il progresso esponenziale dell'intelligenza artificiale è reale!
Non è stato molto cauto il dottor Derya Unutmaz, medico USA attento agli impatti dell’IA nel campo della medicina. Le sue parole, infatti, sono state affidate ai social dove hanno suscitato opposte reazioni: da un lato la speranza (specialmente per chi è colpito direttamente da malattie al momento incurabili) e dall’altro lo scetticismo (di chi chiede le prove di quanto afferma).
Di sicuro, se pensiamo bene agli annunci dei primi due mesi del 2025 (da parte di Grok, Anthropic, DeepSeek, Google, Mistral e OpenAI) possiamo toccare con mano la velocità esponenziale della crescita di sistemi e modelli di IA. Una crescita che è destinata ad avere notevoli ripercussioni in biologia, medicina e chimica. Ma anche dal punto di vista del diritto (di chi saranno le nuove scoperte?) e dei diritti (le nuove cure saranno per tutti o solo per i più ricchi?).
📣 Eventi
Master “CAIO, il Chief AI Officer della pubblica amministrazione” - Webinar, 31.03-17.04.2025
Generative AI Summit - Londra, 31.03-02.04.2025
CAIO Summit - New York, 16.04.2025
🙏 Grazie per averci letto!
Per ora è tutto, torniamo la prossima settimana. Se la newsletter ti è piaciuta, commenta o fai girare.



mi sale sempre di più l'ansia
Interessante e divertente….