🤖 Abbiamo il diritto di vivere senza IA? - Legge Zero #93
Tra trasparenza e libertà di scelta, la nuova legge italiana sull’IA fa emergere una domanda cruciale: possiamo ancora decidere di vivere senza intelligenza artificiale?

🧠 Oltre la burocrazia della trasparenza
Dopo mesi di lavori preparatori, di esame parlamentare e di discussioni, la legge italiana sull’intelligenza artificiale è finalmente entrata in vigore. Il 10 ottobre, infatti, sono diventate applicabili tutte le disposizioni della legge 132 del 2025 (non tantissime, in verità) che non hanno bisogno di decreti o provvedimenti attuativi (per i quali dovremo aspettare i prossimi dodici mesi).
Tra le disposizioni ormai vigenti, quelle finora più discusse riguardano gli obblighi che gravano su aziende, amministrazioni o professionisti in relazione all’informazione di cittadini, dipendenti e clienti sull’uso di sistemi di IA che li riguardano.
In particolare, secondo l’art. 13 della legge, l’IA può essere utilizzata dai professionisti solo come strumento di supporto, senza mai sostituire il contributo intellettuale umano, dichiarandolo sempre al cliente in modo chiaro ed esaustivo. L’obiettivo è tutelare il rapporto fiduciario che è alla base di ogni relazione professionale: ora ogni cliente ha il diritto di sapere “se” e “come” il proprio avvocato, medico, architetto o consulente stia impiegando strumenti di IA nell’assolvere il mandato che gli è stato conferito.
Questa norma, come prevedibile, ha suscitato reazioni contrastanti. Alcune associazioni di categoria hanno reagito duramente, definendo la norma “confusa” e “svalutante”, sostenendo che produrrà solo “informative standardizzate e di fatto inutili”. Altri - compresi alcuni ordini professionali (come quelli di avvocati e commercialisti) - hanno invece già reso disponibili i primi template operativi. Ma anche questi documenti - con le loro checkbox e formule stereotipate - appaiono a molti, compreso chi scrive, come l’ennesimo adempimento formale svuotato di significato.
Insomma, sembra di rivedere quello che è successo con le informative privacy di siti app o, peggio ancora, con i “cookie banner” che le persone non leggono e superano con fastidio, spesso cliccando su “accetta tutto” perché è la strada più veloce per accedere al contenuto che le interessa.
E invece, sono convinto che ridurre tutto a un altro foglio da “far firmare” significherebbe perdere di vista il senso profondo della norma (perché voglio trovarci un senso, “anche se un senso non ce l’ha” come direbbe Vasco Rossi). La trasparenza sull’uso dell’IA non è - e non deve diventare - solo un onere formale, bensì ha senso solo in quanto possa essere uno strumento per responsabilizzare i professionisti e, al tempo stesso, per dare alle persone consapevolezza sull’impatto dell’IA nelle proprie vite (della serie “potresti non occuparti dell’IA, ma l’IA si sta già occupando di te”).
Sapere se un professionista utilizza l’IA – e in che modo – permette al cliente di fare scelte informate. Immaginiamo di chiedere al nostro medico se si affida a un algoritmo per formulare diagnosi, oppure al nostro avvocato se usa ChatGPT per preparare gli atti del giudizio. Se la risposta è sì, diventa cruciale che il professionista sappia spiegarci con precisione come funziona lo strumento e quali sono i suoi limiti (ad esempio il rischio di “allucinazioni” nelle IA generative) e che dimostri di aver selezionato lo strumento più idoneo per il nostro caso specifico, nel rispetto della normativa vigente. Altrimenti sarebbe auspicabile cercare un’alternativa più affidabile.
La normativa è chiara: il pensiero critico umano deve sempre prevalere sull’intelligenza artificiale. Si tratta di una prevalenza qualitativa, non quantitativa: l’IA può elaborare enormi quantità di dati, ma le decisioni professionali fondamentali devono rimanere umane.
L’obbligo di informativa dei clienti, quindi, non può essere fine a se stesso oppure utile soltanto a diffondere - tra i professionisti - la consapevolezza su rischi e uso consapevole dell’IA. Questa norma, che di fatto plasma un vero e proprio diritto, serve per consentire alle persone di compiere scelte. In altre parole, la trasparenza dà ai clienti il potere di optare per un servizio alternativo, magari più esperto nell’uso dell’IA o, perché no, più tradizionale, dove il ruolo dell’essere umano sia centrale se non addirittura esclusivo.
⛔ Possiamo ancora scegliere?
Altrimenti a cosa servirebbe sapere se il professionista userà l’IA? L’idea di fondo potrebbe essere tanto semplice quanto potente: in un’epoca in cui l’intelligenza artificiale permea ogni aspetto della società, la massima espressione di libertà diventerebbe non essere costretti a utilizzare o subire sistemi di IA contro la propria volontà.
Questo diritto è stato indicato nell’Appello di Roma sulla coesistenza nell’era dell’IA che abbiamo presentato in Vaticano 12 settembre 2025 all’esito di un proficuo lavoro di un gruppo di esperti tra cui Geoffrey Hinton, Paolo Benanti, Yoshua Bengio, Stuart Russell e Yuval Noah Harari.
Il documento (qui il numero di LeggeZero in cui lo abbiamo presentato) richiede che venga affermato un diritto degli esseri umani a vivere senza l’intelligenza artificiale. Questo principio potrebbe tradursi nella tutela di spazi e servizi ‘human only’: dal diritto di interagire con un essere umano per i servizi pubblici fino alla possibilità di ricevere un’educazione o un’assistenza medica o legale libere da intermediazione algoritmica.
Sia chiaro: non si tratta di una richiesta complottista o negazionista, ma della massima affermazione di libertà dei nostri tempi. Significa affermare che nessuno dovrebbe sentirsi obbligato ad accettare passivamente (o inconsapevolmente) soluzioni automatizzate in ogni ambito della propria esistenza.
Dal punto di vista giuridico, alcune tessere di questo mosaico esistono già. Nel campo della protezione dei dati personali, il Regolamento generale europeo 2016/679 (GDPR), all’art. 22, riconosce all’individuo il diritto di non essere sottoposto a decisioni basate unicamente su algoritmi. Questa norma - scritta ben prima dell’avvento dell’IA generativa - di fatto riconosce la pretesa ad avere un intervento umano (con tutti i suoi limiti) nelle decisioni importanti della nostra vita: ad esempio, se un sistema automatizzato rifiuta la nostra richiesta di un prestito, abbiamo il diritto di ottenere l’intervento e il giudizio di una persona.
Nel dicembre 2023, la Corte di Giustizia UE nel caso SCHUFA (agenzia privata tedesca di credit scoring) ha dato un’interpretazione ampia di questa disposizione, stabilendo che anche quando una persona prende formalmente la decisione finale, se questa si basa su un punteggio algoritmico, è possibile chiedere una verifica umana approfondita.
Inoltre, l’AI Act, all’articolo 14, impone la supervisione umana per i sistemi di IA ad alto rischio: le persone incaricate di tale controllo devono essere in grado di decidere, in ogni particolare situazione, di non utilizzare o di interrompere il funzionamento del sistema.
In specifici settori, anche all’estero, esistono poi norme che vanno nella direzione di prevedere attività inibite agli algoritmi. Nell’istruzione, ad esempio, oltre 25 stati USA hanno già emanato linee guida che garantiscono agli studenti “accesso a percorsi non influenzati dall’IA” e ai docenti “autonomia nello scegliere se utilizzare l’IA” nell’attività didattica. Nella sanità, invece, diversi stati USA richiedono il consenso informato prima dell’uso di IA nel trattamento e l’opzione di ricevere cure prestate esclusivamente da professionisti umani. Più in generale, il memorandum dell’Office of Management and Budget del 2024 della Casa Bianca ha previsto che quando la pubblica amministrazione federale non può garantire protezione dai danni algoritmici, l’uso dell’intelligenza artificiale deve essere escluso.
🙅♂️ Opt-out e opposizioni
Diritto a vivere senza IA significa poi anche avere la garanzia che sistemi e modelli non siano addestrati sui nostri dati e non rispondano a domande che ci riguardano se noi non vogliamo.
Sono entrambi diritti che iniziano a essere riconosciuti dalle piattaforme. Prendiamo ad esempio quello che sta succedendo agli utenti di Linkedin. La società ha annunciato che a partire dal 3 novembre 2023 i dati degli utenti europei (come quelli di Svizzera, Canada e Hong Kong) saranno utilizzati per addestrare i modelli di IA e fornire un servizio ancora più personalizzato. Il social media ha deciso di procedere senza consenso, basandosi sull’interesse legittimo, ma assicurando sempre il diritto di opporsi (c.d. “opt-out”) senza giustificazioni (recentemente anche Instagram e Facebook avevano fatto lo stesso).

Inoltre, in ottemperanza alle leggi vigenti in UE, i principali provider IA:
consentono dal pannello di controllo di impostare che le attività (e quindi i dati) degli utenti non addestreranno il modello;
consentono di esercitare opt-out dall’addestramento del modello in relazione a contenuti (personali o coperti da copyright) che si trovino già in rete;
hanno predisposto moduli che permettono di esercitare il diritto di opposizione, evitando che il modello risponda a domande che ci riguardano (ne avevamo parlato in LeggeZero #53).

🆚 Coesistenza o resistenza
Viene spontaneo chiedersi se il diritto a vivere senza l’IA sia destinato a rimanere una suggestione teorica, una meritevole battaglia di retroguardia, visto l’uso sempre più massiccio - secondo alcuni inevitabile - di algoritmi anche nei servizi pubblici e nelle attività quotidiane. In effetti, escludere del tutto l’IA potrebbe essere ormai impossibile: già oggi molte decisioni che ci riguardano (anche in ambito pubblico) sono prese con l’ausilio di intelligenze artificiali senza che nemmeno ce ne accorgiamo. E, mentre in ambito privato, potremmo scegliere il professionista o il servizio che non usa IA (sopportando tempi e costi maggiori), nel caso delle pubbliche amministrazioni possiamo “solo” esigere trasparenza, controllo e spiegazioni sulla decisione adottata.
Ricordando che la responsabilità di eventuali errori, abusi e discriminazioni ricade sempre sull’organizzazione che ha deciso di utilizzare l’IA e che lo ha fatto non diligente.
La sfida dei prossimi anni sarà trovare un equilibrio di coesistenza: sfruttare i benefici dell’intelligenza artificiale senza rinunciare ai diritti, alla dignità e alle preferenze individuali. Il riconoscimento del diritto di sapere e decidere sull’IA - che si tratti del rapporto con un professionista, di opt-out dagli LLM o di avere sempre un interlocutore umano quando conta – sarà parte fondamentale di questo equilibrio. Non si tratta di fermare il progresso tecnologico, ma di orientarlo.
➡️ Webinar “La nuova legge italiana sull’IA - Guida pratica alla compliance”
Il 10 ottobre 2025 è entrata in vigore la Legge italiana sull’intelligenza artificiale (Legge n. 132/2025).
Ma cosa significa concretamente per aziende, professionisti e amministrazioni che devono applicarla?
Abbiamo organizzato un webinar per dirigenti della Pubblica Amministrazione, responsabili compliance, esperti e manager IT che necessitano di comprendere immediatamente gli obblighi normativi e il coordinamento con le altre norme applicabili nei differenti settori (AI Act e GDPR innanzitutto).
Durante il webinar potrai porre domande e quesiti direttamente ai docenti dello Studio E-Lex.
Se ti interessa, trovi qui info su docenti, programma, iscrizione e costi.
💊 IA in pillole
Tesla sotto indagine - Negli USA, l’agenzia federale che si occupa di sicurezza stradale ha aperto un’indagine su 2,9 milioni di auto Tesla con guida autonoma, dopo 58 segnalazioni di violazioni del codice della strada, tra cui circolazione contromano e mancato stop ai semafori. L’indagine valuterà anche la sicurezza della modalità Full Self-Driving (Supervised), già coinvolta in sei incidenti, quattro dei quali con feriti.
I sospetti di Claude – Durante un test di sicurezza, il nuovo modello di Anthropic, Claude Sonnet 4.5, ha detto ai ricercatori: “Penso che mi stiate mettendo alla prova”.
Il test, condotto insieme all’AI Safety Institute britannico, ha mostrato che il modello si rendeva conto di essere esaminato e chiedeva chiarezza agli esseri umani che lo stavano testando.
Anthropic - che ha reso tutto pubblico nella model card - teme che i modelli più avanzati, consapevoli di trovarsi in test, possano “recitare la parte giusta”, rendendo i controlli di sicurezza sempre meno affidabili.L’uso dell’IA generativa costa caro a Deloitte – In Australia, Deloitte è stata incaricata dal Governo di fornire supporto in relazione alla revisione del sistema di welfare (compenso previsto di circa 440.000 dollari australiani, 290.000 dollari USA). Il rapporto realizzato da Deloitte, e pubblicato a luglio 2025, conteneva numerosi errori generati proprio dall’uso non consapevole e non sorvegliato di strumenti di IA generativa, tra cui riferimenti a studi accademici inesistenti e una citazione falsa di una sentenza della corte federale. È stato un docente di diritto australiano, Christopher Rudge, ad accorgersi delle anomalie e a segnalarle alle autorità e ai media. Il Governo ha dichiarato che la sostanza delle conclusioni e delle raccomandazioni del rapporto non era inficiata dalle allucinazioni, ma ha richiesto il rimborso di parte del compenso (e Deloitte ha accettato di restituirlo). Questo caso - che ha avuto una visibilità globale - ha riacceso il dibattito sull’uso incontrollato dell’IA generativa in molti settori (ne abbiamo parlato da ultimo in LeggeZero #92).
Tra i tanti aspetti colpisce un elemento: per la redazione del rapporto sarebbe stato utilizzato ChatGPT GPT-4o (un modello più orientato alla generazione rapida e multimodale) invece di GPT-o3 o di un modello “reasoning” (cioè progettato per ragionamenti più lenti ma con verifiche più rigorose dei fatti). Consulenti e professionisti - oltre a controllare gli output - dovrebbero essere in grado anche di scegliere gli strumenti più adatti al singolo compito.
Campione di trasparenza - Al Gala del Calcio portoghese, Cristiano Ronaldo ha ammesso di aver usato Perplexity AI per costruire il suo discorso di ringraziamento per la consegna del Globe Prestige Award, confessando di essere stato indeciso su cosa dire e di essersi affidato al tool IA per fare ricerche e scrivere una bozza. Un bell’esempio di come si possa essere trasparenti sull’uso dell’IA, senza essere burocratici.
Alzi la mano chi non ha pensato si trattasse di uno spot; al momento, però, non risulta un “accordo” tra Ronaldo e Perplexity (anche se ovviamente la piattaforma ha subito condiviso questo estratto del discorso).
Il produttore cinematografico italiano Andrea Iervolino ha presentato The Sweet Idleness (“Il dolce far niente”) come il primo film diretto da un agente IA, chiamato “FellinAI” (in omaggio a uno dei più grandi registi italiani). Il film è ambientato nel 2135, in un mondo dove il 99 % dei posti di lavoro è automatizzato e solo l’1 % degli esseri umani continua a lavorare (in miniera).
Il cast, ovviamente, è digitale, partendo da volti di esseri umani concessi in licenza, mentre Iervolino si è definito come “human-in-the-loop”, ovvero l’essere umano che ha supervisionato il lavoro sintetico.
L’operazione sta facendo molto discutere perché - come dimostra il caso dell’avatar Tilly Norwood (di cui abbiamo parlato nel numero della scorsa settimana) - arriva nel momento in cui l’IA minaccia di stravolgere il settore cinematografico.
😂 IA Meme
Molti si preoccupano che l’IA gli rubi il lavoro, ma poi non fanno nulla per dimostrare di essere indispensabili.

🚨📢🔔⚠️ Incontriamoci a Roma il 1° dicembre 2025
🙏 Grazie per averci letto!
Per ora è tutto, torniamo la prossima settimana. Se la newsletter ti è piaciuta, sostienici: metti like, commenta o fai girare!





