🤖 Il diritto di sapere (anche quello che risponde ChatGPT) - Legge Zero #92
In Norvegia, per la prima volta, è stato riconosciuto ai giornalisti il diritto di accesso alle chat tra dipendenti pubblici e ChatGPT. L'IA, senza controllo, aveva deciso di chiudere alcune scuole.
🧠 Allucinazioni ovunque, non solo in Tribunale
Ritiene il Tribunale sussistano i presupposti della responsabilità aggravata ex art. 96 comma 3 c.p.c.
Il ricorso giudiziario – così come tutti gli altri centinaia di giudizi patrocinati dal medesimo difensore, tutti redatti a stampone - risulta evidentemente redatto con strumenti di intelligenza artificiale; tanto è evidente non solo dalla gestione del procedimento (deposito di note ex art. 127 ter c.p.c. il giorno successivo al deposito del decreto di fissazione di udienza) ma soprattutto dalla scarsa qualità degli scritti difensivi e dalla totale mancanza di pertinenza o rilevanza degli argomenti utilizzati; l’atto è infatti composto da un coacervo di citazioni normative e giurisprudenziali astratte, prive di ordine logico ed in gran parte inconferenti rispetto al thema decidendum ed, in ogni caso, tutte manifestamente infondate.
Il difensore inoltre, più volte invitato a presentarsi in udienza al fine di rendere chiarimenti, ha ritenuto di non presenziare.
Queste sono le motivazioni con cui il Giudice del Lavoro del Tribunale di Latina ha condannato una parte processuale - a causa dell’uso dell’IA generativa - al pagamento di 2.000 euro per lite temeraria (di cui mille alla controparte e mille alla cassa ammende).
Non conosciamo gli atti di causa e non abbiamo elementi ulteriori - così come non sappiamo se l’avvocato protagonista della vicenda proporrà appello - ma dalla lettura della sentenza è abbastanza chiaro che il Giudice ha ritenuto che l’atto depositato in giudizio (insieme ad altri relativi a differenti contenziosi) sia stato generato completamente dall’IA senza alcun controllo (ad esempio sull’accuratezza e pertinenza delle norme e dei precedenti citati).
Non è un caso isolato (purtroppo!). In Italia, negli ultimi mesi, episodi simili sono capitati prima a Firenze e poi a Torino.
Il Tribunale toscano - a marzo - si era reso conto che un avvocato aveva citato sentenze della Cassazione inesistenti (ne scrivemmo in LeggeZero #68). Il professionista si era difeso, sostenendo che l’uso (improprio) dell’IA era avvenuto “a sua insaputa” per iniziativa di una collaboratrice e che, comunque, la tesi sostenuta negli scritti difensivi era già stata affermata in altre pronunce (questa volta reali). Il Tribunale quindi - pur stigmatizzando l’accaduto - non aveva pronunciato una condanna per lite temeraria.
Sorte diversa, qualche settimana fa, ha avuto - dinanzi al Tribunale di Torino -il ricorso scritto con l’IA che è costato una condanna per lite temeraria alla parte che l’aveva proposto (ne abbiamo dato atto in LeggeZero #90). Nella sentenza, il giudice torinese descrive un atto giudiziario confuso, pieno di citazioni astratte senza legame col caso, condannando la parte a pagare - oltre alle spese processuali - una somma di euro 500 per ciascuna controparte.
Insomma, dovrebbe essere chiaro: depositare in giudizio un atto “fatto fare a ChatGPT” può costare caro. Perché va bene usare l’IA, ma almeno bisogna verificare il contenuto (per rispetto del giudice, delle controparti, dei propri clienti… e di se stessi).
Nel maggio 2023, quando si verificò il primo caso di un atto contenente precedenti giurisprudenziali inventati da ChatGPT dinanzi a un Tribunale di New York, il nome dell’avvocato protagonista, Steven A. Schwartz, fece il giro del mondo. Schwartz si difese dicendo di non sapere che l’IA potesse inventare e si scusò (venne anche multato). Del resto, erano passati pochi mesi dal lancio di ChatGPT e termini come “allucinazioni” erano ancora poco conosciuti (se volete trovare una spiegazione semplice la trovate qui). Tuttavia, da allora questo fenomeno ha conosciuto una crescita esponenziale, nonostante il lavoro fatto dai provider di IA per ridurre le risposte non vere dei loro modelli.
Il ricercatore francese Damien Charlotin ha pubblicato un database degli “AI Hallucination cases” (cioè tutti i casi giudiziari del mondo in cui una parte ha prodotto citazioni false generate dall’IA). Ha censito ben 426 casi (282 sono statunitensi, 2 italiani visto che manca ancora quello recentissimo del Tribunale di Latina). E il database cresce rapidamente: 8 casi solo nell’ultima settimana. La multa record - fin qui - è toccata a un avvocato californiano, ben 10mila dollari più la segnalazione all’ordine per provvedimenti disciplinari (nel suo caso, su 23 precedenti citati nel ricorso ben 21 erano inventati).

Le scuse che hanno accampato i diversi colleghi coinvolti sono un piccolo bestiario: c’è chi ha dato la colpa a un guasto IT (“C’è stata un’interruzione di internet mentre preparavamo 1.500 pagine di documenti”), chi a un’emergenza familiare (“Mio marito è morto recentemente, ero distratta”), chi alla svista di un assistente (“Il giudice mi ha dato solo 3 giorni, ho fatto fare tutto al mio praticante”) e persino chi ha incolpato un malanno di stagione o un virus (“Avevo vertigini, raffreddore e il mio computer aveva un malware che ha cambiato le citazioni”) pur di giustificare la figuraccia.
In generale, emerge l’assoluta mancanza di AI literacy, cioè delle conoscenze necessarie per usare l’IA con cognizione di causa. Moltissimi dei professionisti coinvolti (che non hanno dato la colpa a praticanti o collaboratori) hanno candidamente ammesso di non avere idea di cosa fosse un’allucinazione. Purtroppo per loro, lo hanno imparato nel peggiore dei modi.
Di sicuro, il fenomeno è ancora più esteso di quello che il database di Charlotin ci racconta: c’è chi copia e incolla le risposte del chatbot senza rileggerle, chi si fida delle fonti suggerite senza verificarle (salvo scoprire che non esistono solo a seguito delle eccezioni di controparte), trattando l’IA come l’oracolo infallibile che non è.
Insomma, la formazione di avvocati (e praticanti) è urgentissima. Anche perché, in Italia, tra pochi giorni entrerà in vigore una nuova norma che riguarda da vicino proprio i professionisti e i loro clienti.
L’art. 13 della legge n. 132/2025 (la legge italiana sull’IA che abbiamo analizzato qui) prevede che:
1. L’utilizzo di sistemi di intelligenza artificiale nelle professioni intellettuali è finalizzato al solo esercizio delle attività strumentali e di supporto all’attività professionale e con prevalenza del lavoro intellettuale oggetto della prestazione d’opera.
2. Per assicurare il rapporto fiduciario tra professionista e cliente, le informazioni relative ai sistemi di intelligenza artificiale utilizzati dal professionista sono comunicate al soggetto destinatario della prestazione intellettuale con linguaggio chiaro, semplice ed esaustivo.
Questa norma prova a salvaguardare la dimensione fiduciaria del rapporto col cliente: chi adotta sistemi di IA deve comunicare apertamente e in modo comprensibile le informazioni sugli strumenti utilizzati e sulle loro modalità d’impiego.
Pur non essendo previste sanzioni specifiche, l’obbligo di comunicazione potrebbe produrre un duplice effetto: da un lato, potrebbe spingere i professionisti ad acquisire una competenza reale sugli strumenti che utilizzano (se è necessario comunicarne l’uso, evidentemente ci sono rischi da comprendere e gestire), dall’altro, potrebbe spingere direttamente i clienti a pretendere trasparenza dai propri professionisti e consulenti.
In pratica, dal 10 ottobre (data di entrata in vigore della norma), avremo tutti il diritto di chiedere ai nostri avvocati, commercialisti, architetti, medici se usano l’IA e come la impiegano. E se non sanno spiegarci cos’è un’allucinazione o quali limiti hanno questi sistemi… forse è il momento di valutare se sia davvero il professionista più adatto alle nostre esigenze.
🔎 Qual è il contenuto delle chat dei dipendenti pubblici con ChatGPT?
Attenzione: se pensate che solo i professionisti si stiano fidando troppo dell’IA generativa, vi sbagliate. È un fenomeno che riguarda tutti i settori, anche la pubblica amministrazione.
Uno dei casi più clamorosi in questo senso è accaduto in Norvegia, precisamente nel Comune di Tromsø (una cittadina artica famosa per essere uno dei posti migliori dove osservare l’aurora boreale). Lì, a febbraio di quest’anno, l’amministrazione comunale ha deciso di chiudere alcune scuole e asili perché c’erano troppi pochi bambini. Per giustificare questa scelta impopolare, il Comune ha prodotto un rapporto di 120 pagine pieno di analisi e valutazioni puntuali relative all’accorpamento di scuole e asili. O almeno così sembrava.
I cittadini, insospettiti, hanno analizzato con attenzione il report e, con grande sorpresa, hanno scoperto che qualcosa non andava. In particolare, su 18 citazioni in bibliografia, solo 7 erano reali. Tra le fonti inventate figurava anche un libro mai scritto, attribuito a un noto professore, Thomas Nordahl.
Di fronte a queste evidenze, il dirigente responsabile, Stig Tore Johnsen, ha ammesso pubblicamente che l’amministrazione si era avvalsa di un’intelligenza artificiale (ChatGPT) come “strumento” per la stesura del rapporto. A quel punto, per capire cosa fosse effettivamente stato scritto dall’IA e cosa dai dipendenti comunali, alcune testate giornalistiche (come Nordlys, NRK Troms e iTromsø) hanno presentato una richiesta di accesso agli atti (FOIA) per leggere le conversazioni avute dai dipendenti con ChatGPT durante la stesura del documento.

Il Comune norvegese ha rigettato la richiesta, sostenendo che “le chat con l’IA non sono documenti, solo tracce elettroniche interne”. I giornalisti, però, non si sono arresi e hanno presentato ricorso davanti alla locale Prefettura, competente per riesaminare i casi di accesso negato. E la Prefettura - con una decisione senza precedenti - ha smentito il Comune e affermato che tutte le chat dei funzionari con l’IA sono documenti amministrativi e quindi devono essere concesse a chi li ha richieste (il testo della decisione, tradotto con l’IA dal norvegese, può essere scaricato qui sotto).
I giornalisti hanno quindi avuto accesso a un file che conteneva 673 pagine di chat tra i dipendenti del Comune di Tromsø e ChatGPT. Il documento ha confermato i timori di media e cittadini, svelando un uso preoccupante dell’intelligenza artificiale:
molti contenuti generati dall’IA sono stati copiati pedissequamente nel rapporto, al contrario di quanto sostenuto dal Comune;
alcune tra le pagine più importanti del documento (che - lo ricordo - parlava della chiusura di alcune scuole con conseguenze per centinaia di bambini e famiglie) erano generate al 100% dall’IA;
il project leader - in una conversazione - aveva chiesto ChatGPT di generare contenuti dicendo esplicitamente “non è necessario ulteriore controllo qualità” (dimostrando una grave mancanza di supervisione umana nel processo);
il rapporto era complessivamente di qualità inferiore a quelli che il Comune aveva prodotto fino a quel momento;
la gran parte delle 673 pagine era occupata dagli output di ChatGPT, mentre il contributo umano alla conversazione era minimo, con frasi come “ok” e “bra, fortsett” (bene, continua).
Ovviamente, il dirigente comunale Johnsen è stato costretto a rassegnare le dimissioni e il progetto di chiusura delle scuole è stato temporaneamente sospeso. Ma questa vicenda - che in Norvegia hanno già ribattezzato “KI-skandalen” (scandalo dell’intelligenza artificiale) - è un monito chiarissimo che va al di là della cronaca locale: se anche la PA usa l’IA senza controllo, a qualsiasi latitudine, si rischiano decisioni pubbliche opache e sbagliate, basate su dati finti e allucinazioni.
☀️ L’importanza della trasparenza
Il caso di Tromsø è anche sintomatico dell’importanza di garantire - fuori da alcune derive burocratiche - l’attuazione del principio di trasparenza. Si tratta di un elemento cruciale nella regolamentazione globale dell’IA. Ad esempio, l’AI Act, (Reg. UE 2024/1689) prevede che le amministrazioni quando usano sistemi di IA “ad alto rischio” devono rendere conoscibile ai cittadini che una decisione o un atto è stato assistito da un algoritmo, mantenere la tracciabilità delle operazioni, garantire la spiegabilità delle scelte e assicurare un controllo umano effettivo. Si tratta di cautele richieste anche dalla legge italiana sull’IA che - all’art. 14 - sottolinea come la decisione finale deve restare sempre all’essere umano (che ne è responsabile).
Per le pubbliche amministrazioni, la trasparenza può essere assicurata - non solo per i sistemi ad alto rischio - dalle norme specifiche che, nei diversi Paesi, assicurano che sia possibile esercitare un controllo generalizzato su come gli uffici pubblici esercitino le funzioni istituzionali e spendano le risorse pubbliche. È il cosiddetto “diritto di sapere” o “FOIA” che in Italia è legge dal 2016 (il diritto di accesso generalizzato previsto dall’art. 5 del decreto legislativo n. 33 del 2013). Una norma analoga a quella che in Norvegia ha consentito a media e giornalisti di sapere - e poi di scrivere - che la decisione sulla chiusura delle scuole era stata presa dall’IA sulla base di riferimenti sbagliati, senza alcun controllo rilevante degli esseri umani competenti a farlo.
A proposito di questi obblighi, qualche tempo fa - nel corso di una lezione sull’IA a dipendenti di pubbliche amministrazioni - un funzionario comunale mi ha fatto questa domanda:
Avvocato, io oggi preparo le bozze di delibera con ChatGPT, poi le controllo. Prima dell’IA copiavo quelle di altri comuni, quelle fatte bene. Se la responsabilità resta mia, perché adesso dovrei dire al Segretario comunale – o addirittura ai cittadini – da dove ho copiato, se prima nessuno me lo chiedeva?
Ebbene, credo che quanto accaduto dinanzi al Tribunale di Latina o al comune di Tromsø dimostri che trasparenza richiesta per l’IA si fonda su tre differenze chiave rispetto al passato:
è più difficile ricostruire una catena di responsabilità (sulla base di quali testi o dati si è basata l’IA per fornire una risposta?);
i sistemi di IA possono inserire negli output elementi falsi con la stessa sicurezza di quelli veri;
gli output creano un’illusione di competenza o di verifica accurata che, invece, potrebbe non esserci stata.
Ovviamente anche gli esseri umani possono sbagliare e forse le norme riflettono anche un po’ di ansia sociale verso la tecnologia. Ma la trasparenza serve proprio a questo: a ricordarci che la responsabilità e il controllo umano non si delegano.
Sapere che va dichiarato l’uso dell’IA – o che qualcuno può verificare come abbiamo usato le risposte di ChatGPT – potrebbe rendere l’impiego di questi strumenti molto più consapevole e responsabile.
📣 Torna il Master di LeggeZero: ‘Il CAIO per la pubblica amministrazione’
💊 IA in pillole
Qualche settimana fa ha debuttato Tilly Norwood, un avatar generato dall’IA per lavorare in spot o produzioni cinematografiche (non chiamatela attrice, vi prego).
In pochi giorni è diventata virale e ha suscitato molte polemiche. Il sindacato SAG-AFTRA ha protestato contro la sostituzione dei performer umani con avatar, mentre star come Emily Blunt e Whoopi Goldberg hanno parlato di “concorrenza sleale fatta di volti rubati”.
Dietro la mossa di marketing, restano i nodi giuridici: gli esseri umani - i cui video sono stati usati per addestrare Tilly - erano d’accordo (e sono stati pagati)? Come assicurare che gli spettatori siano consapevoli che non si tratta di un’attrice umana? Chi è il titolare dei diritti su un avatar interamente generato da IA? Cosa compreranno davvero le major che sceglieranno di usare Tilly Norwood nei loro film? (secondo l’interpretazione di Wikimedia Commons, le immagini che raffigurano l’avatar sono in pubblico dominio - in quanto generate dall’IA - e quindi tutti possono liberamente utilizzarle).
Se volete approfondire questi interrogativi, ne ho parlato - ospite di Alberto Giuffrè - nell’ultima puntata di Progress su SkyTG24 (qui il link per rivederla).A San Bruno, in California, la polizia ha fermato un’auto a guida autonoma Waymo per un’inversione a U non consentita. Gli agenti, sorpresi di non trovare nessuno al posto di guida, non hanno potuto emettere la multa: “i nostri libretti non hanno una casella per robot” (hanno scritto su Facebook). L’episodio evidenzia un vuoto normativo che verrà colmato nel 2026, quando una nuova legge - recentemente firmata dal governatore della California - permetterà di sanzionare direttamente le aziende. Nel frattempo, la polizia ha contattato Waymo per segnalare l’accaduto e consentire di riprogrammare il veicolo.

Un agente di polizia di San Bruno mentre ferma il robotaxi Waymo (fonte immagine: Sky News) Ricordate il caso degli anziani che in Malesia avevano viaggiato per 4 ore alla ricerca di una funivia che non esisteva e che era stata generata dall’IA? Pare che non sia l’unico episodio di informazioni turistiche errate. Ne parla questo articolo pubblicato da BBC in cui si fa riferimento al fatto che ormai quasi un terzo dei viaggiatori di tutto il mondo usa l’IA per consigli sui propri itinerari. Peccato che, spesso, alcune informazioni (come attrazioni oppure orari di mezzi di trasporto) siano inventate di sana pianta. Come nel caso di due turisti che, in Perù, cercavano il “Sacro Canyon di Humantay” (che non esiste) correndo il rischio di trovarsi a oltre 4mila metri con poco ossigeno e senza segnale telefonico.
Dopo il Ministro IA (di cui abbiamo parlato nel precedente numero di LeggeZero), arriva l’avatar IA di un Ministro reale. È accaduto in Germania, dove Ministro per la Cultura e i Media, Wolfram Weimer, ha presentato nella Cancelleria il suo avatar digitale, chiamato “Weimatar”.
L’avatar è stato lanciato in un video multilingue in cui discute vari argomenti, come la censura su TikTok in cinese e la disinformazione, promuovendo al contempo l’amicizia tedesco-polacca. L’obiettivo dell’avatar è duplice: da un lato, comunicare in modo rapido e in più lingue sui social network, dall’altro, creare video di formazione per uso interno al Ministero. Ovviamente, non mancano le critiche. Secondo alcuni questo avatar potrebbe rendere ancora più difficile distinguere la verità dai deepfake, per non parlare del fatto che non è stato chiarito chi sia responsabile dei contenuti “recitati” dall’avatar (il Ministro stesso? il suo staff? l’IA?).
In Giappone, secondo alcune testate, il partito politico “The Path to Rebirth” ha nominato un’intelligenza artificiale come suo nuovo leader. Questa decisione è stata presa dopo le dimissioni del fondatore a causa di risultati elettorali deludenti. L’IA non dovrebbe stabilire l’agenda politica, ma dovrebbe assumere solo scelte organizzative. Un ricercatore, Koki Okumura, fungerà da supporto umano nominale per assistere l’IA nel suo compito.
😂 IA Meme
Per quanto i provider stiano lavorando, i casi di Latina e Tromsø ci ricordano che dobbiamo sempre controllare gli output dell’IA.

🚨📢🔔⚠️ Incontriamoci a Roma il 1° dicembre 2025
🙏 Grazie per averci letto!
Per ora è tutto, torniamo la prossima settimana. Se la newsletter ti è piaciuta, sostienici: metti like, commenta o fai girare!






