🤖 Contiene IA - Legge Zero #97
In tutto il mondo sta diventando obbligatoria la trasparenza sull'uso dell'IA, ma siamo già invasi da contenuti artificiali senza disclaimer. Ecco un vademecum per essere realmente trasparenti.
🧭 TL;DR: ecco di cosa ci occupiamo in questo numero
🧠 Lo spot di Sanremo Giovani 2025 sembra creato (almeno in parte) con l’IA: volti che cambiano, movimenti fuori sincrono e dettagli incoerenti fanno pensare a un video generato artificialmente. Ma non c’è alcun disclaimer esplicito.
⚖️ L’assenza dell’avviso apre un tema cruciale: la trasparenza è un requisito etico e legale dell’IA. L’AI Act UE impone che chatbot, testi e immagini generati artificialmente siano chiaramente identificabili; la Cina e la California già prevedono etichette visibili, watermark e metadati obbligatori
😫 Tuttavia, il rischio è la “disclaimer fatigue”: troppi avvisi rendono gli utenti insensibili, come accade con le privacy policy che nessuno legge. Serve trasparenza sostenibile, non burocrazia.
📜 LeggeZero propone un vademecum in 7 punti: linguaggio semplice, chiarezza sul ruolo dell’IA, avvisi solo dove servono, adattamento al contesto, accessibilità, tono informativo e coinvolgimento degli utenti.
💊 IA in pillole: Amazon cita Perplexity per il suo browser IA, Studio Ghibli contesta ad OpenAI la violazione del copyright mentre Getty Images perde (parzialmente) contro Stable AI
😂 IA Meme: continua il litigio tra Altman e Musk, con la community IA spettatrice divertita.
📚 Consiglio di lettura: la BBC spiega come riconoscere un video generato da IA. Ma presto potremmo non riuscirci più…
🧠 Il disclaimer che non c’è
Se guardate la TV, avrete notato che sulle reti RAI, da alcuni giorni, viene trasmesso un nuovo spot per Sanremo Giovani 2025 che sta girando molto anche sui social. Nel video, il conduttore Gianluca Gazzoli veste i panni di un cavaliere medievale che viene nominato paladino dal “re” Carlo Conti.
In tanti hanno notato che c’è qualcosa di strano nello spot che inizia con una voce fuori campo che dice “C’era una volta un castello reale… un po’ artificiale”. Effettivamente, guardandolo bene, la patina IA del video sembra palese: dettagli (come i volti dei protagonisti) che cambiano da un’inquadratura all’altra, movimenti labiali fuori sincrono con l’audio e un aspetto “sintetico” suggeriscono che - almeno in parte - sono stati utilizzati sistemi di IA per la generazione del video (Sora2?).
Se l’obiettivo della RAI era quello di fare discutere - anche per fare girare lo spot - si può dire che è stato raggiunto. Alcuni hanno reagito facendo notare tutti gli errori contenuti nel video (i tool di IA, si sa, non garantiscono ancora la perfezione). Altri si sono chiesti se sia l’inizio di una stagione nuova in cui il servizio pubblico utilizzerà l’intelligenza artificiale in modo sempre più massiccio (a partire da Sanremo); infine, più di qualcuno ha polemizzato contro un uso dell’IA finalizzato solo a ridurre i costi di realizzazione dei prodotti di intrattenimento e che - oltre a una riduzione della qualità - potrebbe determinare anche gravi ripercussioni per tutte le maestranze e le professionalità impiegate nella produzione tradizionale degli spot.

Si tratta di questioni tutte meritevoli di attenzione, a cui ne aggiungiamo un’altra: come mai - oltre all’ironica allusione iniziale - manca un vero e proprio disclaimer relativo al fatto che il contenuto è generato artificialmente?
☀️ Una questione di trasparenza
Attenzione: non si tratta di una questione di forma.
La trasparenza nell’uso dei sistemi di intelligenza artificiale, e in particolare nei contenuti generati da modelli generativi, è da tempo considerata un requisito essenziale per proteggere l’autonomia e la libertà delle persone, evitare manipolazioni e garantire fiducia. Nel 2019, il Gruppo di esperti di alto livello della Commissione UE l’ha inserita tra i requisiti chiave per assicurare un’IA affidabile: gli utenti devono essere consapevoli di quando stanno interagendo con un sistema automatizzato o i suoi output, per poter contestualizzare le informazioni ricevute. Senza un’adeguata trasparenza, contenuti generati da IA - come testi, immagini o video - rischiano di essere percepiti come autentici o umani, contribuendo alla disinformazione oppure manipolando e distorcendo opinioni e comportamenti.
Sono stati proprio studiosi ed esperti - non gli avvocati - i primi a sostenere l’obbligo etico di rivelare se un contenuto (o servizio) è generato o alimentato dall’IA, ritenendo tale trasparenza essenziale per mantenere la fiducia degli utenti. Secondo un’indagine condotta dal MIT su un panel internazionale di esperti, l’84% degli specialisti è favorevole a introdurre obblighi di disclosure relativi all’uso dell’IA.
“I disclaimer e le informative sono la forma più basilare di trasparenza”
Mark Surman (Mozilla Foundation).

Infatti, la mancanza di trasparenza espone la società a rischi significativi: la disinformazione generata da IA può presentare caratteristiche che la rendono difficile da rilevare, anche in virtù della sempre maggiore accuratezza e precisione dei sistemi di generazione.
I disclaimer sono quindi essenziali per attuare il principio di trasparenza e possono essere rafforzati da meccanismi complementari come etichette (labeling) e filigrane digitali (watermarking).
⚖️ Le leggi globali sulla trasparenza dell’IA
Il tema della trasparenza dell’IA - e dei contenuti che genera - è cruciale anche nel settore della regolazione, tanto che tutti gli ordinamenti stanno introducendo norme apposite.
🇪🇺 L’AI Act dell’Unione Europea - che sarà pienamente applicabile ad agosto 2026 - dedica specifiche disposizioni alla trasparenza verso gli utenti. In base al regolamento, ad esempio, quando un utente interagisce con un chatbot o assistente virtuale, deve essere informato chiaramente di avere a che fare con un’intelligenza artificiale. Allo stesso modo, il contenuto generato da sistemi di IA generativa dovrà essere sempre identificabile come tale. In particolare, i deepfake (audio, video o immagini che siano) dovranno essere etichettati in modo ben visibile come generati artificialmente. Un esempio pratico: se un video mostra il volto di una persona sintetizzato sul corpo di un’altra (face swap), sarà necessario un avviso che segnali il montaggio IA, a meno che ciò avvenga per scopi espressamente esentati (satira, parodia o esigenze di polizia giudiziaria). Anche i testi redatti dall’IA e diffusi come notizie o informazioni al pubblico dovranno indicare che sono creati da algoritmi. L’obiettivo è evitare che l’IA possa ingannare - deliberatamente o involontariamente - le persone, specie su temi di interesse pubblico. In queste settimane, la Commissione UE sta lavorando a definire linee guida operative che possano aiutare tutti a rispettare questi obblighi.
🇨🇳 Non tutti sanno che anche la Cina sta ponendo grande enfasi sulla trasparenza dei contenuti generati dall’IA. In aggiunta a precedenti regole sull’etichettatura dei contenuti sintetici approvate già nel 2023, a partire dallo scorso 1° settembre sono entrate in vigore disposizioni specifiche sulla marcatura dei contenuti IA che prevedono due livelli di etichette:
Etichetta visibile (disclaimer)
È obbligatoria per contenuti che possono ingannare il pubblico (chatbot, voci sintetiche, immagini o video deepfake). Si deve trattare di un chiaro indicatore visivo o acustico: una scritta “Contenuto generato da IA” o un’icona “IA”. Per le immagini, il testo deve essere alto almeno il 5% del lato più corto dell’immagine. Per l’audio, si richiede un segnale vocale (”audio generato da intelligenza artificiale” letto a velocità normale di 120-160 parole/minuto) oppure un suono identificativo come il codice Morse (corto-lungo-corto-corto). Le etichette, inoltre, devono rimanere anche quando il contenuto viene scaricato o condiviso (non basta quindi inserirle nella didascalia).Etichetta invisibile (metadati)
È obbligatoria per tutti i contenuti IA, non solo quelli potenzialmente confusori. Ogni file deve contenere metadati nascosti con un tag apposito (“AIGC” - AI generated content), l’identificativo del fornitore e un ID univoco del contenuto. Si incoraggia anche l’uso di watermark digitali nascosti. Questa etichettatura invisibile dovrebbe permettere alle piattaforme di tracciare l’origine dei contenuti anche se l’etichetta visibile venisse rimossa.
🇺🇸 Come sanno i lettori di questa newsletter, negli Stati Uniti non esiste (almeno fin qui) una legge federale sull’IA Tuttavia, i singoli stati stanno emanando normative speciali sulla trasparenza dell’IA, con la California in prima fila. Nella culla della Silicon Valley, è stata approvata l’AI Transparency Law. Si tratta di una legge che richiede che qualunque contenuto generato da IA sia contrassegnato da un “watermark” (filigrana digitale) permanente che indichi il nome del modello di IA, la versione, la data/ora di creazione e un identificatore univoco. Il watermark deve essere “estremamente difficile da rimuovere” e rilevabile da appositi strumenti. Inoltre, i provider di sistemi IA con più di 1 milione di utenti mensili dovranno mettere a disposizione del pubblico uno strumento gratuito per rilevare contenuti IA. Si tratta di una soluzione che funziona sulla carta, ma che non sempre è attendibile (in un test che ha dell’incredibile, la Dichiarazione d’Indipendenza degli USA è stata giudicata scritta da IA al 97% da un detector, segno che la tecnologia va maneggiata con cautela).
Inoltre, lo stato della California ha approvato altre specifiche norme in materia di trasparenza:contro le telefonate automatizzate indesiderate: se una chiamata pre-registrata utilizza una voce generata o alterata da AI, deve dichiararlo esplicitamente all’inizio;
contro la diffusione di video/foto fake di politici o candidati creati con IA a scopo di disinformazione intenzionale;
per introdurre l’obbligo per i comitati elettorali di dichiarare se un loro spot è stato generato o manipolato dall’IA.

😫 La fatica da disclaimer
Etichette, filigrane e disclaimer stanno quindi diventando uno standard normativo globale in relazione ai contenuti generati con l’IA. Bisogna però fare attenzione a un approccio burocratico alla trasparenza.
Ci sono studi, infatti, che confermano che la stragrande maggioranza degli utenti ignora le informative e i disclaimer: ad esempio un’indagine Deloitte ha rilevato che il 91% dei consumatori USA accettava i termini di servizio senza nemmeno leggerli.Allo stesso modo, un rapporto Pew Research del 2023 indicava che oltre la metà degli americani (56%) cliccava “agree” senza leggere il contenuto delle privacy policy. In altre parole, pochissimi utenti leggono per intero i disclaimer o le informative, soprattutto quando sono lunghi, complessi o presentati come inutili formalità legali.
Esperimenti estremi illustrano quanto sia diffusa (e pericolosa) questa ostilità verso i disclaimer. In un vecchio studio universitario, ai partecipanti fu chiesto di registrarsi a un finto social network accettandone i termini d’uso. Nel testo del documento, i ricercatori avevano nascosto due condizioni assurde: una prevedeva la cessione del proprio primogenito a titolo di pagamento del servizio e un’altra consentiva la condivisione di tutti i dati personali con l’NSA (l’agenzia USA della sicurezza nazionale). Il risultato? Il 98% dei partecipanti non si accorse della clausola sul primogenito e solo 1 persona su 500 contestò la condivisione dei dati.
La cosiddetta “disclaimer fatigue” – ossia la stanchezza o assuefazione verso informative e avvisi – è un fenomeno ampiamente conosciuto: siamo quotidianamente bombardati da banner dei cookie, informative privacy, termini di servizio e note legali, al punto che molti utenti sviluppano una sorta di indifferenza (se non addirittura fastidio).
Nel contesto dell’IA generativa, il rischio di “notification fatigue” è particolarmente insidioso. Molti esperti avvertono che se ogni applicazione o sito iniziasse ad esibire un disclaimer generico tipo “Attenzione: utilizziamo l’IA” su ogni schermata, ben presto tali avvisi perderebbero di efficacia diventando mero rumore.
In altre parole, troppi disclaimer sull’IA finirebbero per essere ignorati esattamente come le privacy policy che nessuno legge.
A proposito, riuscite a vedere se nel nuovo spot natalizio di Coca-Cola c’è un disclaimer efficace sull’uso dell’IA?
📜 Piccolo vademecum per una trasparenza sostenibile
A prescindere quindi dall’implementazione di filigrane ed etichette, la sfida - anche per avvocati e consulenti - è rendere i disclaimer davvero efficaci, senza annoiare l’utente.
Per questo motivo, abbiamo provato a stilare un piccolo vademecum alla trasparenza IA - a metà tra compliance legale e buon senso - per contribuire a un uso sicuro e responsabile dell’intelligenza artificiale. È articolato in 7 punti.
1. Usa un linguaggio semplice (e sintetico)
Scrivi come parleresti a un amico: “Questo contenuto è stato creato con l’aiuto dell’IA (ChatGPT)” è meglio di “Output generato da sistema IA proprietario”.
2. Sii specifico sul ruolo dell’IA
Non basta dire “usiamo l’IA”. Specifica: “Testo generato da IA e revisionato da un essere umano” oppure “Questo testo è stato generato interamente dall’IA (Gemini)”. La chiarezza aiuta a creare fiducia.
3. Inserisci il disclaimer (solo) dove serve
Il disclaimer deve comparire dove avviene l’interazione con il contenuto sintetico, non in fondo alla pagina o nei termini d’uso:
in un chatbot va inserito all’avvio;
in un articolo in apertura;
in un’immagine con un’etichetta chiara (tutti ormai capiscono sigle come “IA” o “AI” oppure emoji come 🤖).
4. Adatta il livello di trasparenza al contesto
Più è critico il contenuto (ad esempio, se usato nel contesto informativo oppure elettorale o istituzionale) maggiori sono le informazioni e i dettagli necessari. In contesti a basso impatto, può bastare un’etichetta “IA”.
Niente trucchi, assicura l’accessibilità
No a un testo di colore grigio su sfondo grigio, link minuscoli o messaggi che scompaiono in pochi secondi: la trasparenza è un tuo dovere, non una challenge per l’utente.
6. Usa un tono informativo, non ansiogeno
Evita toni allarmistici tipo “Attenzione: può contenere errori!”. Meglio: “Contenuto generato da IA: verifica con attenzione”. Lo scopo è dare un’informazione utile (oltre che doverosa), non scaricare responsabilità.
Collabora con gli utenti
Chiedi agli utenti se capiscono i tuoi disclaimer e se sono utili. Nel caso in cui generino dubbi - o passino inosservati - migliorali.
Insomma, la trasparenza IA non è solo un principio etico o un obbligo burocratico. È un metodo di utilizzo di strumenti sempre più potenti. E, in fondo, non è poi così difficile da seguire.
💊 IA in pillole
Amazon vs Perplexity: il primo contenzioso sugli agenti IA - Amazon ha citato in giudizio Perplexity dinanzi a un Tribunale della California a causa del browser IA Comet (di cui abbiamo parlato in LeggeZero #95). L’accusa è quella di consentire all’agente IA del browser di accedere agli account dei clienti Amazon e di effettuare acquisti per loro conto, camuffando l’attività dei bot come “navigazione umana”.
Nell’atto introduttivo del giudizio, Amazon parla esplicitamente di accesso non autorizzato, frode informatica e violazione dei propri termini di servizio.
Dal canto suo, Perplexity risponde denunciando che Amazon starebbe ostacolando l’evoluzione degli assistenti IA, accusandola di “intimidazione” (letteralmente “bullismo”) e di voler limitare le libere scelte degli utenti di avvalersi di agenti.
Staremo a vedere se questo contenzioso si chiuderà con una sentenza o con un accordo.Studio Ghibli vs OpenAI: Miyazaki teme Sora - Ricordate il trend delle immagini IA in stile manga di qualche mese fa? La Content Overseas Distribution Association (CODA), che rappresenta alcuni dei principali editori giapponesi - tra cui Studio Ghibli - ha inviato una contestazione formale a OpenAI chiedendo di sospendere l’uso non autorizzato delle opere per l’addestramento dei modelli IA.
Singolare che l’iniziativa di contestare la violazione della normativa sul copyright sia stata assunta a molti mesi dalla moda della ghiblificazione delle immagini ma a distanza di pochi giorni dal lancio dell’app Sora 2 (che crea video). Evidentemente gli editori giapponesi temono più la concorrenza dei video che non la diffusione degli avatar in stile manga.
La domanda è: OpenAI risponderà o si aprirà un nuovo contenzioso?Getty Images vs Stable AI: 0-1 - In UK, davanti all’alta Corte di Giustizia, si è appena concluso il contenzioso tra Getty Images e Stability AI, in cui era contestato l’uso non autorizzato di oltre 12 milioni di immagini Getty per l’addestramento del modello generativo Stable Diffusion. Ha vinto il provider IA, visto che la Corte britannica ha rigettato le contestazioni relative alla violazione del copyright perché non è stato provato che l’addestramento del modello fosse avvenuto nel Regno Unito.
Getty ha però ottenuto parzialmente ragione sul fronte del marchio: la corte ha rilevato che alcune immagini generate contenevano watermark simili a quello di Getty.A questo punto, l’attenzione si sposta negli USA dove la società ha avviato un’azione analoga nei confronti di Stability AI.
😂 IA Meme
Sam Altman ed Elon Musk continuano a litigare su X, come se fossero due utenti qualsiasi. “Non mi è mai arrivato il rimborso per la mia Tesla”, “Hai rubato un’organizzazione no profit”, “No, ho solo fatto funzionare quello che tu avevi abbandonato”.
E voi siete “Team Sam” o “Team Elon”?

📚 Consigli di lettura: come riconoscere un video creato dall’IA
I video generati dall’intelligenza artificiale sono sempre più realistici e difficili da distinguere da quelli autentici, specialmente in assenza di etichette e disclaimer.
In un recente articolo pubblicato dalla BBC e firmato da Thomas Germain, dal titolo “The number one sign you’re watching an AI video”, vengono spiegati i segnali più utili per accorgersene e perché presto potremmo non poterci più fare affidamento.
Negli ultimi mesi, strumenti come Sora (OpenAI) e Veo (Google) hanno reso la generazione di video sintetici così sofisticata da ingannare milioni di utenti. Eppure, per ora, esiste un indizio ricorrente: la bassa qualità del video. I filmati generati dall’IA tendono ad apparire sfocati, pixelati o compressi, perché questi difetti nascondono meglio le imperfezioni del modello (come movimenti innaturali, texture troppo lisce o dettagli di sfondo incoerenti). Alcuni creatori di deepfake, abbassano volutamente la risoluzione per rendere i contenuti più credibili.
Altri indizi rivelatori sono la breve durata dei video (spesso 6–10 secondi, per ragioni di costo e complessità computazionale) e la compressione eccessiva che cancella gli artefatti visivi. Tuttavia, ammonisce l’autore dell’articolo, questi segnali stanno rapidamente scomparendo: i provider stanno investendo miliardi per rendere i video IA indistinguibili da quelli reali.
L’unica difesa, sottolinea Mike Caulfield, esperto di alfabetizzazione digitale, è cambiare prospettiva: non credere più a un video solo perché “sembra vero”, ma valutarne la provenienza, la fonte e il contesto. Proprio come accade per i testi scritti, la fiducia non può basarsi sull’apparenza, ma sulla verifica dell’origine.
Questo breve articolo ci invita a ridefinire il concetto stesso di verità nell’era audiovisiva dell’IA. Mentre i deepfake diventano indistinguibili dalla realtà, la responsabilità di riconoscere ciò che è autentico si sposta da chi produce a chi guarda.
Siamo pronti?
🚨📢🔔⚠️ Hai già preso i biglietti per il primo evento di LeggeZero?
🙏 Grazie per averci letto!
Per ora è tutto, torniamo la prossima settimana. Se la newsletter ti è piaciuta, sostienici: metti like, commenta o fai girare!





Da avvocato confesso che mi fa molto ridere questa spasmodica preoccupazione (penso anche al recente obbligo, di cui mi dichiaro obiettore di coscienza, di dare notizia al cliente sull'utilizzo dell'IA).
Ho un obbligo di essere assicurato per (eventuali) danni ai che la mia attività procuri ai clienti: quando mai finora è stato richiesto all'avvocato che dichiarasse se utilizzava praticanti o collaboratori?
Credo che tutti conosciamo (io sicuramente) fior fiori di professori i cui pareri lautamente pagati venivano redatti da praticanti e soltanto firmati (non sempre dopo averli letti).
Mai nessuno si sarebbe sognato di introdurre un obbligo di informazione a carico dell'avvocato.
Perchè deve essere diverso con l'IA?
Se sono così superficiale, come professionista, da prendere per buono il "parere" dell'IA e tale mio comportamento è causa di un danno al cliente mi merito di esserne responsabile.
Ma non perchè utilizzo l'IA.
Perchè fornisco un cattivo servizio.