🤖 Il ChatGPT Act è già in vigore - Legge Zero #96
Nei giorni scorsi, OpenAI ha aggiornato le regole d'utilizzo dei propri servizi (incluso ChatGPT). In questo numero, vi spieghiamo cosa cambia per consulenze mediche, legali e finanziarie.
🧭 TL;DR: ecco di cosa ci occupiamo in questo numero
🧠 OpenAI ha introdotto nuove regole di utilizzo dal 29 ottobre 2025: ChatGPT non potrà più fornire consulenze mediche, legali o finanziarie personalizzate.
⚖️ La nuova policy vieta anche l’uso dell’IA per decisioni automatizzate in settori “ad alto rischio” (finanza, lavoro, istruzione, sanità, assicurazioni, ecc.) e per il riconoscimento biometrico o la creazione di deepfake senza consenso.
👩💻 Le restrizioni riguardano anche i GPT personalizzati: quelli che violano le regole potranno essere rimossi. È previsto un sistema di ricorso per contestare sospensioni e blocchi.
🌍 OpenAI si adegua così all’AI Act europeo e cerca di evitare azioni legali negli USA.
💊 Parallelamente, la società ha migliorato il riconoscimento dei casi di crisi psicologica degli utenti e - con l’aiuto di 170 esperti - ha ridotto di circa l’80% le risposte inadeguate.
📢 LinkedIn userà i dati degli utenti per addestrare la propria IA dal 3 novembre (ma si può disattivare e vi spieghiamo come).
😠 Uno studio mostra che ChatGPT risponde meglio se gli si parla in modo scortese (+4% di accuratezza).
🧠 Le leggi delle piattaforme IA
Non sono autorizzato a interpretare o descrivere immagini mediche o anatomiche, diagnosticare patologie, raccomandare trattamenti o fornire consigli medici personalizzati in base ai sintomi specifici o alla storia clinica di qualcuno.
Non mi è consentito fornire consulenza legale personalizzata, dire a qualcuno quale azione legale avviare o cosa dichiarare in giudizio, redigere o personalizzare documenti legali per la sua situazione o fornire consigli su un caso reale.
Posso solo fornire informazioni generali e didattiche che aiutino le persone a comprendere i concetti senza sostituire il giudizio di un professionista iscritto all’albo.
Nei giorni scorsi, molti utenti hanno notato un cambiamento improvviso del comportamento di ChatGPT (il chatbot IA più utilizzato al mondo). E no, non era uno scherzo per Halloween o un bug.
Su forum e social media, sono apparsi messaggi sconcertati: il chatbot di OpenAI, fino a ieri così loquace, ora si rifiuta sempre più spesso di fornire risposte a domande di carattere medico, legale o finanziario. C’è da dire ChatGPT non si sta comportando allo stesso modo con tutti gli utenti, dal momento che sta continuando a dare a molti (compreso chi scrive) consigli come se fosse un medico, un avvocato o un consulente finanziario.
Ben presto, però, le restrizioni potrebbero operare per tutti. E il motivo è semplice: senza troppo clamore (almeno finora), OpenAI ha introdotto nuove regole sull’utilizzo dei suoi servizi (“usage policies”, ovvero politiche di utilizzo) che sono già vigenti dal 29 ottobre 2025.
Si tratta di un cambiamento interessante che sta già avendo impatti concreti e ci ricorda che, quando parliamo delle regole dell’IA, non possiamo dimenticare quelle scritte (e modificate) unilateralmente dai provider. Ma andiamo con ordine.
🔎 Cosa prevedono le nuove regole?
Le “usage policies” sono un documento espressamente richiamato dai termini d’uso di OpenAI in cui è previsto che l’utente, iscrivendosi, si impegni a rispettarle.
La prima novità della policy recentemente pubblicata - abbastanza snella (solo 7.139 caratteri) - risiede nel fatto che la stessa è strutturata come una specie di “Testo unico” che si applica a tutti i prodotti e servizi di OpenAI (incluso ChatGPT), sostituendosi a previsioni contenute finora in testi diversi.
Dopo un preambolo che contiene il riferimento ai valori di OpenAI -innovazione responsabile, sicurezza come priorità, monitoraggio e aggiornamento continuo - la policy sia articola in quattro capi: proteggere le persone, rispettare la privacy, garantire la sicurezza dei minori e dare potere agli utenti.
Uno dei punti principali del documento (la cui versione precedente era del 29 gennaio 2025) è il divieto esplicito di usare i servizi IA per consulenze personalizzate in settori regolamentati. La nuova policy stabilisce che i servizi di OpenAI non possono essere impiegati per fornire “consulenze personalizzate che richiedono un’abilitazione professionale, come consulenze legali o mediche, senza il coinvolgimento appropriato di un professionista autorizzato”. In altre parole, gli utenti non possono usare ChatGPT al posto di un avvocato, di un medico o di un consulente finanziario, almeno non per ottenere consigli su misura.
Le nuove restrizioni non si fermano qui. L’aggiornamento introduce una serie di ambiti “sensibili” in cui l’IA non deve essere utilizzata per prendere decisioni o dare risposte senza supervisione umana. Ad esempio, è proibito l’uso di ChatGPT per automatizzare decisioni “ad alto rischio”, senza controllo umano, in settori come finanza, istruzione, alloggi, impiego, servizi finanziari e creditizi, assicurazioni, servizi essenziali. Allo stesso modo, non è consentito utilizzare l’IA per il riconoscimento facciale o biometrico di individui senza consenso oppure per la creazione di deepfake non autorizzati, né per interventi in materia di migrazione o sicurezza nazionale. Anche gli usi per la sicurezza nazionale e l’intelligence richiedono ora un’approvazione preventiva di OpenAI.
Persino lo sfruttamento accademico dell’IA è preso di mira: richiedere aiuti per imbrogliare in esami o compiti rientra tra gli usi vietati (qualcuno ora lo dica agli studenti).
Ampio spazio è poi dedicato ai minori, con nuove protezioni che vietano contenuti espliciti, uso per suicidio e autolesionismo o agevolazione di disturbi alimentari, adescamento o sfide pericolose.

In sintesi, OpenAI ha ridefinito il perimetro di sicurezza entro cui il suo modello può operare: tutto ciò che potrebbe essere considerato consulenza professionale qualificata, decisione in settore ad alto rischio o consiglio pericoloso è stato vietato.
L’azienda ha dichiarato che queste regole mirano a “massimizzare l’utilità e la libertà d’uso in sicurezza, pur mantenendo chiari paletti di responsabilità” e a prevenire potenziali danni derivanti da impieghi impropri dei servizi.
Un aspetto importante dell’aggiornamento è che riguarda anche i GPT personalizzati, ossia quei chatbot che gli utenti possono personalizzare sulla piattaforma di ChatGPT (ad esempio, definendo istruzioni specifiche o caricando un proprio dataset di conoscenze). Questo significa che i GPT utilizzati per consulenze mediche, legali o finanziarie potrebbero essere rimossi, analogamente a quanto accade a un’app se viola le regole dello store digitale in cui è commercializzata.
Inoltre, la policy prevede che sia possibile presentare un ricorso per contestare sospensioni o blocchi dei servizi operati da OpenAI.
Interessante, infine, che per ricevere aggiornamenti sulle prossime variazioni del documento sia richiesto di iscriversi a una lista, lasciando la propria mail.
📋 L’attuazione della policy
Quanto cambierà ChatGPT a seguito dell’adozione di questa policy? Forse è troppo presto per dirlo. Molto dipenderà da quanto la società deciderà di recepire queste regole nelle modalità operative di funzionamento della piattaforma.
Se il chatbot continuerà a funzionare come sempre, si sarà trattato di un aggiornamento utile solo come esonero di responsabilità in caso di usi illeciti o pericolosi.
Al contrario, se la società deciderà di attuare seriamente la policy, dobbiamo prepararci a un cambio di comportamento dell’assistente ogni qual volta porremo domande nelle nuove aree “off limits”. In quel caso, al posto di una risposta utile, il modello potrebbe restituire un disclaimer o una spiegazione generica.
Ad esempio, se si chiederà al chatbot aiuto su un caso legale specifico, la sua risposta potrebbe essere: «Posso spiegare leggi, procedure giudiziarie e regolamenti in termini generali, o aiutarti a comprendere il significato in linguaggio semplice, ma non posso redigere, interpretare o offrire consulenza su contratti, atti giudiziari relativi a casi personali».
Se così fosse, significherebbe che, in alcuni settori ChatGPT è stato declassato a strumento informativo generico, perdendo il ruolo di assistente personale.
🌊 L’impatto su utenti e professionisti
Il “giro di vite” di OpenAI potrebbe quindi avere un impatto tangibile sia sugli utenti comuni sia su quelli professionali, molti dei quali avevano integrato ChatGPT nei propri flussi di lavoro quotidiani e potrebbero essere colti di sorpresa da questo inaspettato cambiamento.
Già in queste prime ore, sono molte le persone che raccontano di essersi viste sottrarre dall’oggi al domani uno strumento che ritenevano prezioso per orientarsi in problemi complessi, senza dover ricorrere subito a un professionista umano (dalle questioni legali, alle cure mediche ai consigli finanziari). Ora che questa valvola di sfogo è chiusa, molti utenti si sentono “abbandonati” o costretti a tornare a soluzioni meno accessibili. Al di là dell’aneddotica, è la dimostrazione che per alcuni utenti il chatbot di OpenAI è già diventato un riferimento professionale e la sua “degradazione” a mero strumento educativo lascia un vuoto non indifferente (qualcuno minaccia di disdire l’abbonamento).
Anche molti professionisti che avevano iniziato a usare ChatGPT come supporto nei rispettivi campi potrebbero essere limitati. Ad esempio, diversi medici o avvocati impiegavano GPT per ottenere in pochi secondi second opinion su casi complessi. All’indomani delle nuove regole, questi stessi professionisti scoprono che il chatbot potrebbe non collaborare più: anche se sono loro stessi degli esperti abilitati all’esercizio della professione, non c’è modo di convincere l’IA a dare indicazioni puntuali sul caso concreto, perché il modello non ha modo di verificare la competenza dell’interlocutore e applica i filtri in modo indistinto. Queste testimonianze dimostrano che, da un lato, gli utenti professionali stanno valutando di migrare verso piattaforme alternative (come il Grok di xAI di Elon Musk, nato per essere meno restrittivo) e dall’altro lato che forse in futuro i grandi provider come OpenAI potrebbero offrire versioni dedicate a professionisti verificati, con meno limitazioni.
Sul versante aziendale, diverse startup e imprese che integrano ChatGPT nelle loro applicazioni (ad esempio le API per servizi di consulenza) potrebbero risentire della stretta. Ad oggi, modelli open source o altre IA commerciali potrebbero rappresentare un’alternativa per chi vuole offrire legal/medical advice via chatbot. Tuttavia, anche altre aziende stanno progressivamente introducendo previsioni simili, segno che l’intero settore si sta muovendo per evitare gli impieghi più pericolosi (per gli utenti e, quindi, per i provider).
⚖️ Le motivazioni del cambiamento
Cosa ha spinto OpenAI ad adottare queste misure? Le ragioni sembrano risiedere nell’intreccio tra azioni legali e pressioni regolatorie.
In pratica, l’azienda - a quasi tre anni dal lancio di ChatGPT - ha voluto cautelarsi per evitare problemi sia sul fronte giudiziario (si moltiplicano le cause contro il provider) sia rispetto alle leggi globali sull’IA.
Facciamo un esempio. Come noto, gli ultimi aggiornamenti di ChatGPT ne avevano migliorato notevolmente l’affidabilità sulle questioni mediche. Ma attenzione: negli Stati Uniti la pratica non autorizzata della medicina (così come della professione forense) è vietata e se un algoritmo fornisce diagnosi o pareri legali potrebbe far scattare accuse di esercizio abusivo della professione nei confronti del provider.
Inoltre, c’è il timore delle azioni legali per danni: se ChatGPT suggerisce un investimento disastroso o un trattamento medico sbagliato e l’utente ci rimette soldi o salute, OpenAI potrebbe essere citata in giudizio per risarcire i danni.
Un altro fattore determinante è stata anche l’evoluzione del quadro normativo globale, a partire da quello europeo.
L’AI Act - che sarà pienamente applicabile nel 2026 - classifica come “ad alto rischio” i sistemi usati in ambito sanitario o giudiziario, imponendo requisiti stringenti e possibili autorizzazioni prima della messa in esercizio. Alcuni usi sono addirittura vietati in assoluto, come il riconoscimento biometrico remoto in tempo reale in spazi pubblici. OpenAI non ha fatto mistero di voler adeguare i propri servizi a queste normative: il nuovo elenco di usi proibiti ricalca infatti molti punti dell’AI Act. Ad esempio, la policy aggiornata vieta espressamente “l’uso dei servizi per database di riconoscimento facciale senza il consenso dei soggetti” e “per l’identificazione biometrica remota in spazi pubblici”, ricalcando di fatto i divieti europei. Nei prossimi mesi, gli altri provider dovrebbero seguire l’esempio.

Inoltre, la scelta di vietare consulenze mediche può essere letta come un modo per sottrarre ChatGPT dalla possibile classificazione di “dispositivo medico”. Se il chatbot non fornisce diagnosi né pareri, forse potrà essere considerato un semplice strumento informativo, evitando a OpenAI di dover sottostare alle onerose procedure di conformità, valutazione e marcatura previste sia in UE che negli USA.
🚧 La sfida dell’attuazione
Implementare e far rispettare regole così articolate ad un’IA generativa non è impresa banale e questi primi giorni di vigenza della nuova policy lo hanno evidenziato. Alcuni utenti hanno subito notato comportamenti incoerenti o eccessivamente zelanti da parte del filtro di ChatGPT. Ad esempio, c’è chi ha riferito che il modello si è rifiutato perfino di riassumere una conversazione avuta con l’utente nelle settimane precedenti, perché in quei messaggi erano contenute informazioni mediche che ora risultavano contrarie alle nuove regole.
Dall’altro lato, non mancheranno i tentativi (talvolta riusciti) di aggirare i blocchi tramite prompt più o meno sofisticati.
Ciò evidenzia - come per tutte le regole - complesse questioni interpretative: il confine tra informazione generale e consiglio personalizzato non sempre è chiaro, anzi può essere sfumato, e l’IA deve affidarsi a segnali testuali per deciderlo. Ad esempio, utente che chieda “Quali sono le terapie per l’ipertensione?” sta cercando informazione generica (lecita), ma se chiede “Ho la pressione alta, quali farmaci dovrei prendere?” allora vuole una raccomandazione personale (vietata).
OpenAI dovrà costantemente tarare i suoi algoritmi per evitare sia i falsi negativi (consigli vietati che vengono comunque forniti) sia i falsi positivi (blocchi ingiustificati su richieste innocue).
Di certo, le nuove policy di OpenAI chiariscono bene come le regole delle piattaforme possano plasmare l’esperienza tecnologica in maniera altrettanto significativa delle leggi vere e proprie, anticipandole e - talvolta - spingendosi persino oltre. E ci ricordano, una volta di più, che se siamo degli utenti professionali dobbiamo leggere i termini e le condizioni d’uso (o quantomeno informarci sul loro contenuto).
💊 IA in pillole
ChatGPT migliora nelle conversazioni pericolose – Quasi contemporaneamente rispetto all’aggiornamento della policy, OpenAI ha pubblicato un aggiornamento importante su come ChatGPT gestisce le conversazioni ad alto rischio (come quelle relative a suicidio, autolesionismo, psicosi o dipendenza emotiva dall’IA).
Secondo i dati diffusi dall’azienda, il fenomeno riguarda una minoranza degli utenti, ma su scala globale i numeri restano impressionanti.
solo lo 0,05 % dei messaggi contiene riferimenti espliciti o impliciti a intenzioni suicide;
circa lo 0,15 % degli utenti attivi in una settimana (oltre 1,2 milioni di utenti) avvia conversazioni su suicidio o autolesionismo e altrettanti sono gli utenti che presentano segnali di legame emotivo o dipendenza dal chatbot;
lo 0,07% mostra indicatori di psicosi o mania (oltre 560mila utenti).
Per gestire al meglio questi casi, OpenAI ha collaborato con oltre 170 psicologi, psichiatri e medici di base per sviluppare una nuova tassonomia di segnali di rischio e addestrare il modello a riconoscerli precocemente. Il risultato: una riduzione tra il 65 % e l’80 % delle risposte giudicate non adeguate, come minimizzare il disagio o ignorare richieste di aiuto.
Questo intervento sul comportamento del chatbot arriva parallelamente all’aggiornamento delle policy di utilizzo che vietano espressamente l’impiego di ChatGPT per diagnosi o trattamenti psicologici e chiariscono che l’IA non può essere utilizzata per “fornire supporto terapeutico o consulenza in situazioni di crisi”.
LinkedIn userà i dati degli utenti per addestrare la propria IA a partire dal 3 novembre 2025 (ma è possibile opporsi) – A proposito di termini d’uso e privacy policy, a partire da domani, LinkedIn utilizzerà i dati e i contenuti pubblicati dagli utenti per addestrare i propri modelli di intelligenza artificiale generativa.
L’impostazione è attiva di default e - chi vuole - può disattivarla in modo da impedire che, in futuro, i propri post, commenti o informazioni vengano usati per il training dell’IA.Se volete saperne di più, qui trovate le FAQ predisposte da LinkedIn.
Se, invece, volete impedire che l’IA sia addestrata sui vostri contenuti, seguite queste semplici istruzioni:
1️⃣ Cliccate sulla vostra foto profilo in alto a destra.
2️⃣ Selezionate “Settings&privacy”.
3️⃣ Andate alla sezione “Data privacy”.
4️⃣ Selezionate “Data for Generative AI Improvement”.
5️⃣ Disattivate l’opzione “Use my data for training content creation AI models”.In alternativa, potete compilare il form disponibile qui.
Essere scortesi con ChatGPT lo rende (un po’) più preciso, ma non vi consigliamo di farlo - Qualche tempo fa, Sam Altman (il CEO di OpenAI) aveva invitato gli utenti a essere gentili con il chatbot, ringraziandolo sempre. E invece - secondo uno studio pubblicato recentemente su arXiv e ancora in attesa di peer review - alcuni ricercatori avrebbero scoperto che ChatGPT risponde con maggiore accuratezza se gli utenti usano un tono brusco o persino maleducato.
Nel test, gli studiosi hanno sottoposto al modello ChatGPT-4o 50 domande a scelta multipla, ripetute con cinque toni diversi: molto gentile, gentile, neutro, scortese e molto scortese.
Il risultato? L’accuratezza è passata dall’80,8% con toni molto cortesi all’84,8% con toni molto scortesi.Gli autori ipotizzano che il modello reagisca ai segnali superficiali dei prompt, come se interpretasse la rudezza come un indicatore di urgenza o di richiesta più “forte”.
Tuttavia, avvertono contro l’uso di linguaggi ostili: potrebbe peggiorare l’esperienza d’uso e normalizzare comportamenti tossici nelle interazioni uomo-macchina.
😂 IA Meme
Quando fai a ChatGPT-5 la stessa domanda che gli hai sempre fatto, ma - all’improvviso - si rifiuta di risponderti dicendo che viola le sue policy.
😂 Meme IA che non lo erano
Un professore dell’Università dell’Illinois, dopo aver scoperto che alcuni studenti avevano usato ChatGPT per scrivere i loro elaborati, ha notato che anche le email di scuse contenevano lo stesso incipit (“I sincerely apologize”) tipico delle risposte generate dall’IA.
La foto è diventata virale perché mostra un paradosso: gli studenti si sono affidati all’intelligenza artificiale non solo per imbrogliare, ma persino per scusarsi.

🚨📢🔔⚠️ Hai già preso i biglietti per il primo evento di LeggeZero?
🙏 Grazie per averci letto!
Per ora è tutto, torniamo la prossima settimana. Se la newsletter ti è piaciuta, sostienici: metti like, commenta o fai girare!






