🤖 Dopo i Grammy, l'IA vincerà Sanremo? - Legge Zero #60
Alla vigilia del Festival di Sanremo abbiamo cercato di capire se l'IA sia stata utilizzata per scrivere alcune delle canzoni in gara e cosa prevedono le regole (dell'UE, dei chatbot e del Festival).
🧠 Qualcuno ha usato l’IA?
Sebbene incoraggiamo le persone a utilizzare i sistemi di intelligenza artificiale durante il loro ruolo per aiutarli a lavorare in modo più rapido ed efficace, ti preghiamo di non utilizzare gli assistenti di intelligenza artificiale durante il processo di candidatura. Vogliamo comprendere il tuo interesse personale per Anthropic senza l'intermediazione di un sistema di intelligenza artificiale e vogliamo anche valutare le tue capacità di comunicazione non assistite dall'IA. Seleziona ‘SI’ se hai letto e accetti.
Questa è la dichiarazione che deve essere accettata da chi voglia rispondere agli annunci di lavoro di Anthropic, uno dei più importanti provider di IA (quello del chatbot Claude e che ha assunto da tempo un professionista che si occupa del benessere dell’intelligenza artificiale di cui abbiamo parlato in LeggeZero #55).
Non c’è nulla di male nel voler comprendere quali siano le reali doti di un candidato per decidere se assumerlo o meno, anche se più di qualcuno ha notato quanto sia ironico che questa dichiarazione venga richiesta proprio da una delle società che è responsabile della diffusione di IA sempre più efficaci e capaci di creare contenuti che sembrano umani pur non essendolo (qui un approfondimento di 404 su questa vicenda).
Eppure al di là dell’ironia, questa vicenda dovrebbe farci riflettere: se un’azienda di IA non vuole risposte generate dall’IA, forse dovremmo tutti ripensare a come la usiamo.

Inutile nasconderselo: l’IA - specialmente quella generativa - è ormai quasi ovunque, come dimostra la pubblicazione di un recente report dell’Osservatorio sull’IA del Politecnico di Milano, in base al quale il Belpaese, pur essendo ancora molto indietro rispetto agli altri Stati europei (specialmente per diffusione di IA nella pubblica amministrazione), è al vertice per numero di imprese che hanno acquisito e messo a disposizione dei propri dipendenti strumenti di IA generativa.
Insomma, è verosimile che molte delle mail o dei documenti che state ricevendo (da colleghi, clienti e fornitori) siano già scritti con ChatGPT, Gemini, Claude o DeepSeek. E tutto questo non solo all’insaputa dei destinatari di quei documenti (cioè voi), ma spesso senza alcuna istruzione o regolamento (le AI policy di cui abbiamo scritto in LeggeZero #58) che aiutino a prevenire i rischi in termini di allucinazioni o illecito trattamento dei dati personali.
Attenzione però a pensare che esistano settori - come quello artistico - immuni a questo fenomeno. Facciamo un esempio di attualità.
Tra qualche ora - come sicuramente saprete - inizierà il Festival di Sanremo 2025, l’appuntamento che monopolizzerà quasi tutte le notizie, discussioni e post della prossima settimana. Come l’anno scorso (se ve lo siete persi, qui il post del 2024), abbiamo provato a usare alcuni strumenti di ‘AI detection’ per capire se ci siano testi di canzoni in gara scritti con l’aiuto di strumenti di intelligenza artificiale generativa. Risultato scontato: si, per almeno 7 canzoni gli strumenti ci hanno segnalato che il testo è stato ‘molto probabilmente’ scritto con l’aiuto (talora determinante) di un’intelligenza artificiale.
Il punto centrale non è identificare le canzoni specifiche in cui potrebbe essere stata usata l’intelligenza artificiale (non faremo nomi!), anche perché gli strumenti che abbiamo usato potrebbero non essere completamente affidabili.
Ciò che conta davvero è comprendere che l’IA generativa, incluso ChatGPT, ha ormai fatto il suo ingresso anche a Sanremo, come in ogni altro ambito sociale. Tra l’altro, non c’è nulla di negativo in questo, purché l’IA venga impiegata per creare brani che riescano a suscitare emozioni nel pubblico. Tuttavia, proprio perché non si tratta di qualcosa di cui vergognarsi, è fondamentale che l’utilizzo dell’IA sia dichiarato in modo trasparente. Questo aspetto, tra l’altro, è disciplinato dal Regolamento europeo sull’IA (AI Act) che nei prossimi mesi renderà obbligatoria la trasparenza in caso d’uso di modelli di IA generativa. Trasparenza che è già richiesta dalle condizioni d’uso dei principali chatbot IA.
Ad esempio, i termini d’uso di ChatGPT impongono l’obbligo per l’utente di indicare che il contenuto è generato dall’IA, in modo che tutti possano saperlo. Pertanto, se - e sottolineo se - qualcuno degli autori di Sanremo 2025 avesse usato ChatGPT senza indicarlo, avrebbe violato le regole per l’uso del servizio e rischierebbe la chiusura dell’account e il ban dai servizi di OpenAI.
Se ve lo state chiedendo, nel Regolamento di Sanremo (disponibile sul sito della Rai e aggiornato per l’ultima volta il 29 gennaio 2025) non si trovano indicazioni specifiche sull’uso dell’intelligenza artificiale. L’uso di questi strumenti sembrerebbe quindi consentito.
Tuttavia, il Regolamento richiede ai partecipanti di avere “adempiuto a tutti gli eventuali compensi, spese e oneri di ogni tipo a qualunque titolo dovuti ai soggetti a qualunque titolo coinvolti nella realizzazione del testo letterario e della composizione musicale”.
Chissà se i provider di IA generativa possono essere considerati “soggetti a qualsiasi titolo coinvolti nella realizzazione del testo letterario e della composizione musicale”. E chissà come si comporterebbe la direzione artistica nel caso in cui dovesse emergere che un pezzo sia stato realmente scritto con il contributo dell’IA.
In ogni caso, sarebbe opportuno fin da ora discutere le regole sull’IA del Sanremo 2026: vogliamo un Festival in cui l’intelligenza artificiale sia completamente vietata? (come per le selezioni di Anthropic) Sarà richiesto un contributo umano minimo? Oppure ci accontenteremo di un obbligo di trasparenza da parte di autori e artisti con la possibilità di avere canzoni completamente generate da IA?

Guardando oltre il Festival della canzone italiana, nei giorni scorsi i Beatles hanno vinto un Grammy - uno dei premi musicali più ambiti del pianeta - con ‘Now and then’, canzone che si è aggiudicata il riconoscimento come Best rock performance, battendo la concorrenza dei Green Day e dei Pearl Jeam (se vi ricordate avevamo parlato della nomination in LeggeZero #50).
A differenza delle altre canzoni in lizza per il premio, ‘Now and then’ non è mai stata suonata dai Beatles tutti insieme in uno studio di registrazione. Attraverso l’IA, Paul McCartney ha recuperato la voce di John Lennon da una vecchia registrazione che altrimenti sarebbe stata inutilizzabile. A norma di regolamento, la voce è quella originale di John Lennon e quindi il pezzo poteva concorrere per il premio. Ma questo non rende la canzone reale. In una recente intervista, l’altro componente ancora in vita dei Fab Four, Ringo Starr, ha ammesso che una reunion dei Beatles sarebbe stata impossibile se John Lennon e George Harrison fossero stati ancora vivi. Insomma, non si sarebbero mai messi d’accordo per fare una nuova canzone e non sarebbero riusciti a entrare in uno studio di registrazione per inciderla. In questo senso, ‘Now and then’ è comunque un deepfake, una canzone possibile solo grazie all’intelligenza artificiale.
Ironia della sorte, mentre passava alla storia per essere il primo a vincere un Grammy con una canzone realizzata anche attraverso l’IA, Paul McCartney ha espresso preoccupazione riguardo una proposta di legge nel Regno Unito che permetterebbe alle aziende di IA di utilizzare contenuti creativi disponibili online per addestrare i loro modelli, a meno che i detentori dei diritti non decidano esplicitamente di esercitare il diritto di opt-out.
Una contraddizione che Sir Paul condivide con tutti noi: siamo affascinati dalle opportunità offerte dall’IA, ma - allo stesso tempo - preoccupati per l’impatto che avrà sul nostro lavoro, sul nostro ruolo nel mondo, sui nostri guadagni.
🔊 Un vocale da… Adriana Peduto (Studio Legale E-Lex)
In che modo l’intelligenza artificiale sta trasformando il mondo della musica? Quali sono le opportunità e i rischi giuridici connessi all’addestramento e all’uso dell’IA generativa nel settore musicale?
Nel messaggio di questa settimana - alla vigilia del Festival di Sanremo - ce ne parla un avvocato, autrice di questa newsletter, che ci guida tra i principali profili giuridici legati all’uso dell’IA nella musica.
Nel suo vocale, Adriana Peduto evidenzia i nodi cruciali: l'uso di opere protette per addestrare modelli di IA, la replica delle voci degli artisti, la generazione di nuove composizioni.
Non sono solo innovazioni tecnologiche, ma sfide concrete per il diritto d'autore e la tutela dell'identità artistica.
📰 The Brutalist agli Oscar: l’IA al servizio del cinema o minaccia per il lavoro degli artisti?
Dopo i Grammy (e forse Sanremo) l’IA potrebbe arrivare anche agli Oscar. In questi giorni - specialmente negli USA - si sta discutendo molto sulla nomination come ‘miglior attore’ di Adrien Brody, protagonista di The Brutalist. Infatti, per perfezionare l’accento ungherese degli attori (tra cui Brody) sarebbe stata utilizzata l’IA generativa di Respeecher. In particolare, questa tecnologia avrebbe aiutato a migliorare la pronuncia di alcune vocali e lettere, mantenendo comunque intatta la performance degli attori.
Questa notizia ha scatenato critiche e sollevato interrogativi etici, con alcuni che lo vedono come un modo per barare sulla qualità del film, mentre altri lo considerano solo una naturale evoluzione tecnologica.
Lo stesso attore è intervenuto pubblicamente. Brody ha minimizzato il contributo della tecnologia, affermando che: ‘il processo di post-produzione ha toccato solo alcune battute pronunciate in ungherese. Non è stato alterato nulla del dialetto.’
Questo dibattito si inserisce in un più ampio contesto di discussione sull’uso dell’AI nel cinema, già oggetto di controversie nei recenti scioperi di Hollywood. Tra l’altro, anche altri film recenti, come Emilia Pérez, hanno usato tecnologie simili senza però suscitare la stessa indignazione.
Vedremo se questa polemica influenzerà le possibilità di The Brutalist agli Oscar e se, per il futuro, l’Academy detterà regole specifiche in materia di IA.
⚖️ Il Copyright Office USA 🇺🇸 chiarisce i limiti della protezione per le opere generate con l'IA
Il Copyright Office USA ha pubblicato la seconda parte del suo report su Copyright e Intelligenza Artificiale, concentrandosi sulla proteggibilità delle opere create con sistemi di IA generativa (la prima parte era relativa alle repliche digitali e la trovate qui).
Il documento ribadisce un principio fondamentale: solo le opere con un determinante contributo umano possono essere protette dal diritto d'autore.
Il Report è interessante perché vengono analizzati diversi casi concreti di incerta collocazione, in cui l’IA viene utilizzata come strumento di aiuto o assistenza nella creazione di opere. In proposito, il Copyright Office fornisce la sua autorevole interpretazione, affermando che:
l’uso di IA come supporto alla creatività umana non esclude la protezione del copyright, a condizione che il contributo umano sia identificabile nella creazione dell’opera;
scrivere un prompt testuale per un generatore di immagini o testi non è sufficiente per rivendicare il copyright sull'output generato;
le modifiche creative e l’organizzazione originale dei contenuti generati dall’IA possono rientrare nella tutela del diritto d’autore;
non è necessaria una modifica legislativa per affrontare queste sfide (coerentemente con la nuova fase di deregulation voluta dall’amministrazione Trump).
Oltre al contenuto, va segnalato l’approccio del documento che è stato elaborato con il dichiarato obiettivo di proteggere e incentivare la creatività umana nell'era dell'IA, non ostacolando l'innovazione tecnologica.
Insomma, a differenza dell'orientamento di alcune istituzioni europee, l'obiettivo è fornire linee guida per garantire il rispetto dei diritti ed evitare contenziosi, senza penalizzare chi cerca di innovare, anche in ambito artistico.
💊 IA in pillole
Dopo l’azione promossa contro OpenAI (ne abbiamo parlato in LeggeZero # 51) la collecting tedesca Gema - che rappresenta oltre 95.000 tra autori ed editori musicali in Germania e tutela i diritti di oltre due milioni di titolari di diritti a livello globale - ha citato innanzi al Tribunale regionale di Monaco la società SUNO Inc. L’accusa è quella di utilizzare in modo illecito - ovvero senza l’autorizzazione dei titolari - opere musicali per addestrare Suno AI, uno dei primi modelli di IA in grado di creare interi brani, completi di parole e musica. Gema contesta anche il fatto che Suno generi opere simili alle originali (su cui è stato illegittimamente addestrato) senza corrispondere i dovuti diritti agli autori.
Ascoltate ad esempio questa versione IA di ‘Mambo no. 5’ di Lou Bega, non vi ricorda tanto l’originale? (questo file audio è tra le prove depositate in giudizio).Una YouTuber di nome F4mi ha escogitato un metodo ingegnoso per combattere, avvelenandoli, i bot IA che rubano i contenuti dei suoi video. Sfruttando i sottotitoli, che permettono di inserire testo invisibile, ha nascosto "testo spazzatura" nei suoi video. Quando i bot cercano di riassumere il video usando i sottotitoli, questo contenuto nascosto confonde gli algoritmi IA rendendo inutilizzabile l'output. Purtroppo però questo metodo non funziona bene con i modelli più evoluti (qui una spiegazione su Ars Technica).
Il sito web ThisPersonDoesNotExist.com utilizza algoritmi di intelligenza artificiale per generare, ad ogni accesso, ritratti fotorealistici di persone inesistenti. Provatelo - senza svelare l’arcano - con il vostro amico che dice di saper distinguere tutte le immagini generate con IA.




Il 10 e 11 febbraio 2025, Parigi ospiterà l’AI Action Summit. È un evento molto atteso, co-presieduto dai governi di Francia e India, che riunirà capi di Stato e di governo, leader di organizzazioni internazionali, rappresentanti del settore privato, del mondo accademico, ONG, artisti e membri della società civile provenienti da tutto il mondo. Naturalmente, si parlerà anche di IA, governance e regole. Capiremo se - oltre le frasi di circostanza - ci sarà margine per una collaborazione globale oppure sarà certificata la frattura in blocchi contrapposti (norme vs. deregulation).
😂 IA Meme
Quello dei meme sta diventando un linguaggio di comunicazione sempre più diffuso, anche in settori tradizionalmente molto formali.
La nota banca tedesca Deutsche Bank ha inviato ai clienti un documento con 25 meme per spiegare quello che sta succedendo nel settore dell’IA, a partire da DeepSeek (il documento si intitola AI in 2025: 25 themes in 25 memes). Qui sotto alcuni dei più riusciti, gli altri li trovate tutti in questo articolo del Financial Times.
😂 meme IA … che non lo erano
C’è una foto che è stata condivisa molto nei giorni scorsi, una foto ripresa anche da molti media italiani. È un’immagine che ritrae il premier israeliano Netanyahu, il presidente USA Trump e l’imprenditore Musk. Nonostante il viaggio di Netanyahu negli Stati Uniti sia reale, la foto è un deepfake.
L’immagine - creata da un utente di X il cui nickname è “George Orwell” - ha riproposto il tema di quanto sia facile ingannare l’opinione pubblica con contenuti non veritieri (qui un approfondimento de il Post).

📚 Consigli di lettura: le persone che usano frequentemente ChatGPT sanno individuare i testi generati dall'IA
Se vi state chiedendo quali siano le canzoni di Sanremo scritte dall’IA, vi interesserà un recente studio condotto dall’Università del Maryland e Microsoft che offre un’interessante prospettiva sulle capacità umane di riconoscere i testi generati dall’intelligenza artificiale.
L’articolo, intitolato ‘People who frequently use ChatGPT for writing tasks are accurate and robust detectors of AI-generated text’ (ovvero ‘Le persone che utilizzano frequentemente ChatGPT per le attività di scrittura sono in grado di rilevare con precisione e in modo affidabile il testo generato dall'IA’), confronta esperti umani e strumenti automatici nel riconoscere contenuti prodotti da modelli IA come GPT-4o, Claude 3.5 Sonnet e O1-Pro.
La ricerca parte da un’osservazione significativa: coloro che utilizzano frequentemente strumenti di IA per scrivere mostrano un’abilità sorprendente nel distinguere i testi generati da IA.
I ricercatori hanno sottoposto 300 articoli a un gruppo di persone, chiedendo loro di etichettarli come “umani” o “IA” e di motivare la loro scelta. I risultati sono interessanti: gli umani hanno sbagliato solo per un articolo su 300, superando nettamente i più avanzati detector automatici, che spesso falliscono in presenza di tecniche di elusione come la parafrasi o l’umanizzazione del testo.
I partecipanti allo studio si sono basati su una combinazione di ricorrenze, tra cui:
Lessico e stile ripetitivo, con parole ricorrenti come "cruciale" o "significativo".
Strutture sintattiche prevedibili, come l’uso ripetuto di costruzioni del tipo “non solo… ma anche…”.
Mancanza di originalità, con testi che risultano troppo assertivi o eccessivamente formali.
Gestione delle citazioni che sono troppo simili al testo in cui sono inserite.
Tono sempre neutrale o ottimistico, senza variazioni emotive tipiche della scrittura umana.
Lo studio dimostra che l’esperienza diretta con i modelli linguistici è la chiave per sviluppare una maggiore sensibilità ai segnali distintivi dell’IA, suggerendo che gli esseri umani possono ancora superare gli algoritmi in questo tipo di compito.
Per chi si interessa di etica e affidabilità dell’IA, questa ricerca offre spunti importanti sul ruolo dell’intelligenza umana nella supervisione dei contenuti generati automaticamente oltre che sull’urgenza della AI literacy (ormai obbligatoria in base all’AI Act).
L’articolo può essere scaricato qui (in inglese).
💬 Il dibattito sull’IA
Ho appena realizzato che l'IA è più intelligente di me. Ha idee migliori, ha modi più efficienti per realizzarle. Questo è un momento esistenziale, simile a quello che ha provato Kasparov nel 1997 quando ha capito che Deep Blue lo avrebbe battuto a scacchi.
Sono le parole postate su Facebook da Paul Schrader, famoso regista e sceneggiatore di Hollywood (a cui dobbiamo capolavori come Taxi Driver e American Gigolo).
In una serie di post, Schrader ha condiviso di aver sottoposto a ChatGPT un suo vecchio copione, ricevendo in pochi secondi suggerimenti di revisione che ha ritenuto buoni quanto, se non addirittura migliori di, quelli di un professionista del settore. Ha poi testato ChatGPT chiedendogli di generare idee per film nello stile di diversi registi, tra cui Quentin Tarantino, Martin Scorsese e Ingmar Bergman, rimanendo colpito dalla qualità e originalità delle risposte.
Le sue dichiarazioni hanno generato un ampio dibattito online, con alcuni utenti che lo hanno criticato, sostenendo che l'IA manca di contenuto emotivo e non può sostituire la creatività umana. Altri hanno evidenziato che l'intelligenza artificiale attinge dalle opere di artisti esistenti e che senza scrittori come Schrader o Tarantino, non potrebbe elaborare idee originali. Alcuni utenti hanno persino ipotizzato che il profilo di Schrader fosse stato hackerato, dato il numero di post sull'argomento.
La riflessione di Schrader si chiude con una domanda: ‘perché gli sceneggiatori dovrebbero stare seduti per mesi alla ricerca di una buona idea per un film, quando l’IA può dargliene una buona in pochi secondi?’
Già, perché?
📣 Eventi
Artificial Intelligence Action Summit - Parigi, 10-11.02.2025
AI Fringe 2025 - Londra, 11-12.02.2025
World Artificial Intelligence Summit - Cannes, 13-15.02.2025
🙏 Grazie per averci letto!
Per ora è tutto, torniamo la prossima settimana. Se la newsletter ti è piaciuta, commenta o fai girare.







