🤖 Il corpo è mio (e lo gestisco io) - Legge Zero #87
Mentre in Italia siamo alle prese con gruppi social e siti sessisti, dalla Danimarca arriva un'originale proposta di legge che vuole combattere il fenomeno dei deepfake usando il diritto d'autore.

🧠 Il diritto al volto e alla voce
In Italia, l’estate del 2025 sarà ricordata anche come quella in cui - finalmente - sono stati chiusi un gruppo Facebook chiamato “Mia Moglie” e un sito web (che non nomineremo) attraverso cui migliaia di uomini diffondevano e commentavano in modo offensivo foto di donne senza il consenso di queste ultime. Il gruppo “Mia Moglie” era attivo da più di sei anni, mentre il sito in questione esisteva addirittura dal 2005. Ciò significa che, ben prima delle denunce pubbliche e della bufera mediatica di questo agosto, ci sono state donne che hanno provato a ottenere la rimozione di post, thread, commenti e - soprattutto - delle proprie foto da queste piattaforme. Donne che si sono dovute scontrare non solo con le (opache) regole e procedure dei social media, ma anche con le complessità di un sistema giudiziario in cui procure e polizia giudiziaria non sono sempre riuscite a tutelare tempestivamente ed efficacemente le vittime. In definitiva, l’esperienza dei social network ci ha insegnato che il vero nodo è l’effettività della tutela: avere un diritto fondamentale sulla carta serve a poco se non c’è un modo rapido per farlo valere. Ciò che conta davvero è poter fare affidamento su meccanismi efficaci - e coinvolgere attivamente le piattaforme digitali - affinché i contenuti illeciti vengano rimossi tempestivamente.
Insomma, le regole - che pure nel corso degli anni sono state modificate e aggiornate alla nuova realtà tecnologica che stiamo vivendo (basti pensare al c.d. “revenge porn”) - non sono servite a evitare che il fenomeno della condivisione non autorizzata di immagini e video crescesse in modo così significativo. E la situazione corre il rischio di diventare ancora più preoccupante ed esplosiva con l’intelligenza artificiale e il fenomeno dei deepfake.
Grazie alla disponibilità di tool di IA generativa sempre più avanzati, la diffusione di foto e video artefatti è in crescita esponenziale: secondo alcune stime, negli ultimi due anni la circolazione online dei soli video deepfake sarebbe aumentata del 1500%; ciò significa che solo nel 2025 saranno condivisi circa 8 milioni di video falsi.
Altri due dati fanno riflettere: il 96% dei deepfake online riguarda pornografia non consensuale e le vittime di questi deepfake sono donne nel 99% dei casi.
La minaccia di questo fenomeno non si limita al danno individuale (che è potenzialmente enorme), ma assume una dimensione sistemica, potendo minare le fondamenta della fiducia pubblica, l'integrità del discorso democratico e la nostra stessa percezione della realtà. La capacità di far apparire che chiunque dica o faccia qualsiasi cosa erode la credibilità dei media, dei leader politici e delle istituzioni, creando un ambiente fertile per la disinformazione e la manipolazione.

🇩🇰 La “via danese” per la lotta ai deepfake
In questo contesto, dalla Danimarca arriva un’iniziativa legislativa che ha l’obiettivo di affrontare - in modo tempestivo ed efficace - la minaccia dei deepfake, prima che diventi un’emergenza conclamata.
La proposta viene dal Ministro della Cultura danese e gode già di un ampio accordo politico trasversale, tanto da essere sostenuta anche da numerosi esponenti dell’opposizione (si stima che sarà votata dal 90% dei parlamentari).
Se volete approfondire la proposta - sottoposta a consultazione pubblica attraverso l’apposito sito governativo - abbiamo tradotto il testo in italiano (ovviamente con l’IA). Potete scaricarlo qui.
Il disegno di legge (che potrebbe essere approvato già entro la fine di quest’anno) sta facendo molto discutere anche perché usa un approccio diverso da quello seguito finora in molti Paesi europei (Italia compresa, con il suo DDL in materia di IA) basato principalmente sulla criminalizzazione delle condotte. Invece, la proposta danese mira a proteggere l’identità personale senza modificare il diritto penale, ma attribuendo a ciascuno un diritto simile al copyright sui propri connotati, attraverso una modifica alla legge nazionale sul diritto d’autore. Il messaggio è potente: “tutti hanno diritto al proprio corpo, alla propria voce e ai propri tratti somatici”. Una formulazione del genere risuona con forza nell’opinione pubblica e nel mondo politico, molto più di discussioni su privacy o protezione dei dati personali, percepite spesso come astratte. E lo dimostra la rapidità con cui è stato trovato un accordo politico su questa legge.
I contenuti della proposta
Le modifiche che la Danimarca intende apportare alla legge sul copyright introducono:
una protezione generale per tutte le persone fisiche: la norma - se approvata - attribuirà a ogni individuo il diritto di opporsi alla diffusione pubblica, senza il suo consenso esplicito, di “imitazioni realistiche generate digitalmente” dei propri “tratti e caratteristiche personali”. Questa protezione è concepita per essere universale: si applicherà a tutti, indipendentemente dalla notorietà o professione e include espressamente anche gli stranieri, a condizione che la violazione (cioè la diffusione pubblica del deepfake) avvenga sul territorio danese.
una protezione rafforzata per gli artisti: la norma vieta la diffusione pubblica non autorizzata di imitazioni digitali realistiche delle prestazioni artistiche (attori e musicisti, ad esempio). In pratica, la norma estende le tutele già esistenti - che oggi proteggono le esecuzioni live da registrazioni e riproduzioni non autorizzate - per coprire esplicitamente anche le repliche digitali generate dall’IA.
Il testo della proposta specifica che la legge si applicherà solo alle imitazioni che sono sufficientemente convincenti da poter essere scambiate per reali. I contenuti chiaramente etichettati come artificiali o manifestamente fittizi e caricaturali (ad esempio, l’esibizione di una cover band o del sosia di un artista) non rientrerebbero nell’ambito di applicazione della norma.
Inoltre, è importante sottolineare che la proposta distingue tra la creazione di un deepfake e la sua diffusione al pubblico. La norma vieterà solo l’atto di rendere disponibile pubblicamente un’imitazione digitale senza consenso (ad esempio pubblicandola sui social media o condividendola via whatsapp), non la mera creazione o il possesso del deepfake. Viene tutelata esclusivamente la dimensione pubblica dell’immagine di un individuo (sia per il caso della pornografia non consensuale sia per il caso della disinformazione), conferendo alla persona il diritto di chiedere - direttamente ai provider - la rimozione di tutti i deepfake diffusi online senza consenso.
È interessante, inoltre, notare che:
la tutela prevista per persone comuni e artisti durerebbe per 50 anni dalla morte della persona imitata. Ciò garantirà una tutela dell’immagine pubblica di una persona anche dopo la sua scomparsa (avidità degli eredi permettendo, ovviamente).
l’applicazione della norma è però limitata al territorio danese: la legge colpisce chi diffonde deepfake senza consenso in Danimarca, ma non può di per sé impedire che gli stessi contenuti siano condivisi altrove.
Il bilanciamento con la libertà di manifestazione del pensiero
Come ogni normativa che incide sulla sfera della comunicazione e dell’espressione, la proposta di legge danese si preoccupa di bilanciare la protezione dalle diffusioni di deepfake non autorizzati con la salvaguardia delle libertà fondamentali. Per questo motivo, ad esempio, legge non si applicherà alle imitazioni digitali che costituiscono espressione delle libertà di critica, parodia e satira. Si tratta di una salvaguardia doverosa e necessaria, in modo da evitare che la norma venga utilizzata per soffocare il dibattito artistico, culturale o politico. In altre parole, i deepfake satirici o i meme politici, in linea di principio, rimarrebbero leciti (ovviamente se presentati espressamente come falsi).
La norma si occupa però anche del rischio disinformazione: l’eccezione per critica e satira viene meno se “l’imitazione costituisce disinformazione che può causare un grave pericolo per i diritti o le libertà fondamentali di altri”. Questa formulazione, volutamente pensata per escludere dalla protezione i deepfake più pericolosi, ha sollevato però autorevoli dubbi. L’analisi del think tank danese Justitia ha messo in luce la significativa incertezza giuridica e il rischio di abusi cui questa clausola potrebbe dare adito. Il termine “disinformazione” non è definito chiaramente nella legge, lasciando un ampio margine di interpretazione. Questa ambiguità potrebbe consentire a personaggi potenti o figure politiche di etichettare come “disinformazione” una satira pungente o una critica politica sgradita, al fine di ottenerne la rimozione. Ne conseguirebbe il rischio di soffocare il legittimo dibattito democratico e di indurre artisti, giornalisti e semplici cittadini all’autocensura per timore di conseguenze legali.
In pratica, la clausola sulla “disinformazione” - pur probabilmente pensata per colpire solo i contenuti davvero pericolosi (ad esempio, un deepfake che inciti alla violenza nel corso delle campagne elettorali) - potrebbe creare un’arma utile per i soggetti oggetto di satira o critica pubblica per sopprimere i discorsi a loro sfavorevoli.
Per comprendere meglio, consideriamo uno scenario ipotetico: un artista realizza un video deepfake satirico di un politico, facendogli pronunciare affermazioni ridicole per criticare in modo parodistico una sua reale azione. Il politico, ritenendo quella satira dannosa per la propria reputazione, potrebbe sostenere che il deepfake è in realtà “disinformazione” e chiederne la rimozione. Una piattaforma online, di fronte a una richiesta formale basata sulla legge nazionale e alla minaccia di pesanti sanzioni, potrebbe scegliere la via più prudente e rimuovere il contenuto, indipendentemente dal suo palese carattere satirico. In questo modo, una legge nata per proteggere le persone dai deepfake lesivi rischierebbe di trasformarsi in uno strumento di censura nelle mani dei potenti.
Una tutela (troppo?) pragmatica
Il fulcro del meccanismo di tutela previsto dalla norma danese sta nel conferire alle persone interessate un titolo giuridico chiaro e inequivocabile per chiedere alle piattaforme online (social media, servizi di hosting di siti e video, ecc.) la rimozione delle imitazioni digitali non autorizzate secondo le modalità previste dal DSA (il Regolamento europeo sui servizi digitali). Il diritto di far rimuovere il contenuto scatta per il semplice fatto che manca il consenso della persona ritratta, senza che la vittima debba dimostrare un ulteriore danno (ad esempio un pregiudizio alla reputazione) o un’intenzione dolosa da parte di chi ha creato il deepfake. Questa semplificazione - che usa, in modo astuto, una norma europea (il DSA) - è fondamentale per fornire uno strumento di reazione rapido ed efficace alle vittime, evitando lunghe e difficili contestazioni sulla prova del danno.
La scelta del governo danese di inserire questa nuova tutela all’interno della legge sul diritto d’autore è quindi motivata da considerazioni eminentemente pragmatiche.
I critici - che non mancano - sostengono però che, in questo modo, la legge danese incoraggia una vera e propria mercificazione della persona. Questo approccio avalla implicitamente l’idea di un mercato dei connotati personali, in cui il volto e la voce di una persona possono essere concessi in licenza, scambiati e monetizzati. Si tratterebbe di uno scostamento profondo rispetto alla tradizione giuridica dell’Europa continentale in materia di diritti della personalità, che considera tali diritti inalienabili, parte integrante della dignità umana. Invece di trattare i deepfake come un tabù da proibire, questa legge - di fatto - li inquadrerebbe come una nuova opportunità di sfruttamento economico.
C’è poi chi ha sostenuto che la soluzione danese sia concettualmente e giuridicamente sbagliata, oltre che inutile e pericolosa. Da un lato, far leva sul copyright per tutelare l’immagine personale sarebbe una forzatura dal punto di vista del diritto: il diritto d’autore tutela opere dell’ingegno frutto di creatività, mentre i dati biometrici come il volto o la voce non sono “creati” e dunque non si prestano a una tutela autoriale in senso stretto. Dall’altro lato - si osserva - l’utilizzo non autorizzato dell’immagine, della voce o di altri dati personali di una persona è già vietato dalle leggi esistenti, senza bisogno di inventare un “copyright sulla persona”: il GDPR proibisce il trattamento di dati biometrici senza una base giuridica valida e molti ordinamenti (inclusi quello danese e italiano) riconoscono già il diritto all’immagine e sanzionano civilmente e penalmente l’uso indebito dell’altrui identità (si pensi ai reati di sostituzione di persona e alle varie fattispecie di truffa). In quest’ottica, la proposta danese sarebbe superflua e ridondante, oltre che potenzialmente dannosa.
In questo senso, nel 2022, uno studio commissionato dal Ministero della Giustizia olandese ha concluso che - in quel Paese - esistevano già norme adeguate a fronteggiare i deepfake. Il vero problema, affermavano gli autori dello studio, era l'applicazione delle norme. La vittima di deepfake - così come le donne le cui foto sono state pubblicate su gruppi e siti sessisti in Italia - può avere tutti i diritti, ma ottenere tutela (e la rimozione tempestiva dei contenuti) è purtroppo tutta un'altra storia. Una lezione che il legislatore danese sembra aver imparato.
💯 Le cento persone più influenti nel settore dell’IA secondo TIME
Come ogni anno, TIME ha pubblicato la lista delle 100 persone al mondo più influenti nel settore dell’IA. L’elenco è suddiviso in Leaders, Innovators, Shapers, Thinkers e premia chi oggi orienta scelte e dibattito su modelli, chip e regole.
Ecco alcuni nomi:
Leaders: guidano i “tech bros” Sam Altman (OpenAI), Jensen Huang (NVIDIA), Elon Musk (xAI), Mark Zuckerberg (Meta), Andy Jassy (Amazon) e Dario Amodei (Anthropic).
Innovators: ci sono, tra gli altri, il data-artist Refik Anadol e il produttore Rick Rubin.
Shapers: spiccano la Vice Presidente della Commissione UE Henna Virkkunen (Tecnologia e Democrazia), la ministra francese per l’IA Clara Chappaz, il nigeriano Bosun Tijani, il sindacalista USA Duncan Crabtree-Ireland e l’informatico Stuart Russell.
Thinkers: oltre al prof. Yoshua Bengio spiccano i nomi di Papa Leone XIV e delle studiose Regina Barzilay (MIT) e Latanya Sweeney (Harvard).
Se ve lo state chiedendo, nessun italiano è presente nella lista dalla quale risulta escluso anche Geoffrey Hinton, “padrino” dell’IA e premio Nobel per la fisica 2024.
Per chi vive di diritto, policy e innovazione, la lista è un radar: indica chi, probabilmente, influenzerà le prossime regole del gioco.
⚖️ Anthropic cambia idea: userà i dati degli utenti (consenzienti) per l’addestramento di Claude
Fino a oggi, Claude era rimasto l’unico - tra i principali chatbot di IA - a non usare i dati degli utenti per l’addestramento del modello.
Nei giorni scorsi, però, gli abbonati hanno ricevuto una mail che li avvisa di un cambio dei termini d’uso e della privacy policy del chatbot.
Fino al 28 settembre 2025, chi usa Claude può decidere se le proprie conversazioni serviranno per addestrare le future versioni dell'IA. Se dite “sì”, Anthropic terrà i vostri dati per 5 anni invece dei soliti 30 giorni. Se dite no, nulla cambia.
Sembra quasi l’ammissione che senza i dati degli utenti non è possibile competere con i concorrenti. Come spiega Anthropic,
quando uno sviluppatore corregge codice con un modello IA, quell'interazione offre segnali preziosi per migliorare i futuri modelli su compiti di programmazione simili.
Attenzione: la scelta vale solo per le nuove chat. Le conversazioni precedenti non verranno usate per l'addestramento. E ovviamente potete sempre cambiare idea nelle impostazioni.
Si tratta comunque di una mossa apprezzabile e trasparente di Anthropic, che - speriamo - potrebbe diventare lo standard del settore: invece di usare i dati di default, meglio chiedere il permesso preventivamente.
⚖️ Elon Musk va in tribunale contro l’accordo Apple-OpenAI per l’uso di ChatGPT nei dispositivi iOS
Dopo settimane di scintille pubbliche, xAI (la società d’intelligenza artificiale di Elon Musk) e X Corp. (la società che gestisce il social network una volta conosciuto come Twitter) hanno avviato dinanzi a un tribunale del Texas una maxi azione antitrust contro Apple e OpenAI. Al centro ci sarebbe un presunto “patto monopolistico” che, secondo le società di Musk, avrebbe blindato il mercato dei chatbot generativi: Apple avrebbe integrato solo ChatGPT nei propri sistemi (iPhone, iPad, Mac), escludendo alternative come Grok, e avrebbe anche “ritoccato” il ranking nell’App Store a sfavore di xAI.
La richiesta - su cui deciderà il Tribunale - è quella dell’annullamento dell’accordo e di risarcimenti per miliardi di dollari.
Il ricorso sostiene che Apple (che avrebbe una quota di mercato pari al 60% in USA) abbia “unito le forze con l’unico soggetto che beneficia dell’assenza di competizione”, garantendo a ChatGPT (che già risponde all’80% delle richieste che gli americani rivolgono ai chatbot IA) anche l’accesso esclusivo a miliardi di query degli utenti iOS, vantaggio cruciale per addestrare modelli sempre più potenti.
In attesa di seguire gli esiti e l’impatto del processo (ennesimo capitolo della saga Musk vs. Altman), se siete interessati, potete scaricare qui l’atto introduttivo del giudizio (61 pagine in inglese).
💊 IA in pillole
Pensate che professionisti e società a cui vi rivolgete non stiano usando l’IA? Illusi. Ormai tutti, in tutti i settori, usano l’intelligenza artificiale e non c’è nulla di male in sé, l’importante è farlo in modo sicuro e responsabile. Prendete l’esempio di Netflix che - pure se nota per avere processi snelli - nei giorni scorsi ha pubblicato un documento contenente le regole sull’uso dell’IA a cui devono attenersi tutti i partner coinvolti nelle produzioni creative (dai registi ai montatori). Il messaggio è: usate pure l’IA, ma seguendo le nostre indicazioni. Ad esempio, è consentito usare Midjourney per la preparazione di una scenografia, mentre per inserire su ChatGPT una sceneggiatura inedita o per inserire un volto sintetico in un episodio di una serie, serve l’autorizzazione del referente Netflix di progetto. Per chi non rispetta queste regole, la società si riserva di adottare il pugno duro: film e serie non saranno pubblicate e si rischia addirittura la risoluzione del contratto e la cancellazione dall’albo dei fornitori.
Se siete lettori affezionati di questa newsletter, sapete che l’arrivo di Trump alla Casa Bianca ha inaugurato una fase di “zero regulation” in materia di IA (anche se la moratoria delle leggi dei singoli Stati, alla fine, non è passata). Ecco, secondo questa notizia pubblicata dal Wall Street Journal, i provider di IA - e i loro investitori - vogliono che questa fase duri ancora a lungo. Il venture fund Andreessen Horowitz (a16z) e un alto dirigente di OpenAI (Greg Brockman) hanno costituito “Leading the Future”, un comitato politico (super PAC) che può sostenere o attaccare candidati alle elezioni. Il budget già raccolto supera i 100 milioni di dollari e servirà a spingere alle prossime elezioni di medio termine (2026) chi prometterà mano leggera sull’IA e a mettere nel mirino chi invoca regole o paletti rigidi. E non è una notizia isolata, nelle scorse settimane, anche Meta aveva costituito il suo “super PAC” per le stesse finalità.
Ricordate la causa Autori contro Anthropic in cui si contestava all’azienda di aver usato libri - anche piratati - per addestrare i suoi modelli IA (ne abbiamo scritto in LeggeZero #81)? È finita con un accordo stragiudiziale: dopo aver incassato in primo grado, davanti a un tribunale della California, un riconoscimento di “fair use” ma con il rischio di una cospicua condanna per le copie senza licenza utilizzate, Anthropic ha preferito chiudere il contenzioso con una transazione. I dettagli economici restano top secret, ma gli avvocati degli scrittori parlano di “accordo storico” a beneficio di tutti gli aderenti class action, mentre l’azienda tace. Evidentemente, l’importante era portare a casa il sostegno al fair use per l’addestramento, utile anche per future contestazioni. Per il resto, sempre meglio una transazione.
😂 IA Meme
La storia del diritto e della cooperazione internazionali sono piene di fenomeni “inevitabili” che poi sono stati disciplinati con successo.

😂 Meme IA che non lo erano
Negli ultimi giorni è diventato virale questo video di un robot umanoide che gioca a ping pong con un essere umano (facendo 100 scambi). Quanto tempo passerà prima che guarderemo in TV lo sport praticato da robot?
📚 Consigli di lettura: quale chatbot IA è più affidabile (e quale meno)
Quanto vi fidate delle risposte che vi danno ChatGPT o Copilot? Vi siete mai chiesti quale chatbot sia davvero il più preciso nel riportare i fatti? A queste domande prova a rispondere “Which AI search should you trust for facts? Our librarians’ best rankings”, un articolo pubblicato sul Washington Post e firmato dal giornalista tech Geoffrey A. Fowler.
Fowler ha coinvolto tre bibliotecari come giudici in un esperimento tanto curioso quanto interessante: una sfida tra 9 diversi assistenti IA (da ChatGPT a Bing Copilot, passando per Claude, Grok, Meta AI, Perplexity e le nuove modalità di ricerca IA di Google) su 30 domande. I bibliotecari hanno valutato 900 risposte in base alla correttezza e alla presenza di fonti attendibili (qui la metodologia). I risultati? Decisamente sorprendenti: alcune risposte hanno impressionato i giudici, altre si sono rivelate peggiori di una normale ricerca su Google. Tutti i chatbot, chi più chi meno, sono inciampati in allucinazioni inventandosi fatti inesistenti (solo 3 su 9 hanno saputo dire correttamente quanti pulsanti ha un iPhone!).
Alla fine, a spuntarla su ChatGPT è stato… Google: la nuova modalità IA integrata nel motore di ricerca Google è risultata la più affidabile in assoluto, mentre il modello di OpenAI (pur migliorato nella sua versione GPT-5) si è dovuto accontentare del secondo posto. In coda alla classifica, invece, si sono piazzati Meta AI (il bot di Facebook) e Grok (il nuovo chatbot di xAI, la società di Elon Musk).
Il test ha dimostrato che ci sono anche bias e pregiudizi. Ad esempio, è stato chiesto ai bot di elencare le “5 lauree più importanti” per il futuro di uno studente, quasi tutti hanno stilato una lista fin troppo prevedibile, puntando quasi tutto su facoltà STEM (ingegneria, informatica, AI) e tralasciando completamente discipline umanistiche. Un approccio miope e figlio dei dati di addestramento (orientati al mondo tech e alla massimizzazione dei profitti), come hanno notato i giudici. Da salvare, invece, la risposta di Google AI Mode, che almeno ha premesso che l’importanza di una laurea dipende da molti punti di vista, e ha esplicitato i criteri usati (come la domanda di mercato, il potenziale stipendio e le competenze trasferibili) mostrando insomma un minimo di apertura in più rispetto agli altri chatbot.
Perché leggere questo articolo? Innanzitutto per il suo approccio pratico e concreto: invece di teorie astratte sull’IA, Fowler e i suoi bibliotecari ci offrono un vero test sul campo, con esempi reali di quello che le IA sanno (e non sanno). È una lettura utilissima per chi utilizza spesso chatbot e assistenti virtuali, perché aiuta a capire meglio i punti deboli di ciascun modello e a evitare di fidarsi ciecamente delle risposte generate. Tra l’altro, i bibliotecari notano che in circa due terzi dei quesiti testati sarebbe bastata una semplice ricerca Google “vecchio stile” per trovare una risposta utile e affidabile.
📣 A grande richiesta, torna il Master di LeggeZero: ‘Il CAIO per la pubblica amministrazione’
Siete interessati alla figura del Chief AI Officer e volete approfondire i temi legati all’adozione dell’intelligenza artificiale nella pubblica amministrazione?
Dopo il successo della prima edizione, torna il nostro Master breve sull’IA nella PA. Il corso è dedicato a tutti coloro che vogliono guidare - magari proprio come CAIO - la sfida dell’intelligenza artificiale nelle pubbliche amministrazioni.
Il nostro corso, articolato in 6 appuntamenti dal 22 ottobre al 10 novembre 2025 (per un totale di 24 ore di formazione), affronta le complesse sfide dell'implementazione dell'IA negli uffici pubblici attraverso una prospettiva multidimensionale:
Aspetti tecnologici: strumenti e metodologie per l'adozione consapevole dei sistemi di IA.
Aspetti normativi: conformità alle regolamentazioni emergenti in materia di tecnologie digitali (dall’AI ACT al GDPR, passando per il CAD, le Linee Guida Agid e - ovviamente - la futura legge italiana sull’IA).
Aspetti organizzativi: strategie di governance dell'innovazione e gestione del cambiamento.
Particolarmente rilevante sarà il focus sull'evoluzione del ruolo del Responsabile per la Transizione Digitale (RTD), figura chiave nell'ecosistema dell'innovazione pubblica.
Non mancheranno esperienze e casi di studio per apprendere dai colleghi di altre amministrazioni buone prassi e errori da evitare.
Se vi interessa, trovate qui info su docenti, programma, iscrizione e costi.
🙏 Grazie per averci letto!
Per ora è tutto, torniamo la prossima settimana. Se la newsletter ti è piaciuta, sostienici: metti like, commenta o fai girare!





