đ¤ Chi può spegnere l'IA? - Legge Zero #78
Il Governo cinese ha deciso di bloccare le IA nei giorni degli esami per l'ammissione all'università . à un precedente che pone una questione: chi - e quando - può decidere di spegnere l'IA?
đ§ Riprova piĂš tardi
Sto studiando per l'esame con lui. RIAVVIATELO VI PREGO.
La mattina del 10 giugno 2025 è scoppiato il panico tra gli studenti italiani alle prese con la preparazione degli esami di terza media e di maturità . ChatGPT, il piÚ popolare tra i chatbot di IA, sta avendo problemi in tutto il mondo e non risponde o, nel migliore dei casi, è lentissimo.
Nello stesso momento, dallâaltra parte del globo, la Cina ha temporaneamente staccato la spina ai âsuoiâ chatbot: durante il temuto Gaokao (lâesame di ammissione allâuniversitĂ , considerato uno dei piĂš difficili al mondo, che ha visto impegnati oltre 13 milioni di studenti) il governo ha imposto ai giganti tech locali di sospendere le funzioni dei loro sistemi di IA.
Alibaba ha disattivato le funzionalitĂ di riconoscimento immagini del suo modello Qwen, ByteDance ha spento la piattaforma Doubao, Tencent ha bloccato il chatbot Yuanbao, startup emergenti come Moonshot (Kimi) e DeepSeek hanno fatto altrettanto. Il motivo? Garantire regolaritĂ dellâesame, impedendo agli studenti di barare con lâaiuto dei chatbot.
Sono stati gli stessi chatbot a confermare che alcune funzioni erano state disabilitate âper garantire il regolare svolgimento degli esami di ammissione allâuniversitĂ â.
Il governo cinese ha affiancato allo âstopâ tecnologico altre misure drastiche: riconoscimento facciale e controlli biometrici ai cancelli, metal detector e dispositivi elettronici passati al setaccio, perfino jammer per bloccare i segnali wireless nelle aree dâesame. In alcune cittĂ sono stati rinviati eventi pubblici e create corsie preferenziali per consentire ai candidati di arrivare in orario. Un dispiegamento di forze che sembra la prova generale di quella che potrebbe diventare una prassi: in Cina sta giĂ circolando lâidea di rendere permanente lo spegnimento annuale dei servizi di IA durante gli esami.
Quasi in contemporanea, in modo assolutamente casuale, ChatGPT è andato in down globale per diverse ore, mandando nel panico utenti di ogni paese (studenti italiani compresi). I servizi di OpenAI hanno smesso di funzionare correttamente per circa 10 ore, lasciando milioni di persone senza accesso al loro assistente digitale. Il sito Downdetector ha registrato migliaia di segnalazioni nel picco del blackout e su Reddit thread popolari (con titoli come âChatGPT è mortoâ o âMilioni di persone costrette a usare il cervello perchĂŠ ChatGPT si è preso la mattina liberaâ) hanno documentato in tempo reale frustrazione e meme ironici per lâimprovvisa indisponibilitĂ dellâIA. Lâepisodio ha messo in luce la crescente dipendenza da questi strumenti: i social si sono riempiti di post di coloro che usano ChatGPT non solo per studiare, scrivere o programmare, ma persino per gestire lo stress quotidiano, conciliare il sonno o addirittura formulare le diagnosi per i propri pazienti.

Il blackout di ChatGPT e il blocco cinese sono due eventi, concomitanti ma scollegati tra loro, che ci mostrano una nuova realtĂ : lâIA è diventata cosĂŹ pervasiva che, quando si ferma â per decisione delle autoritĂ o per un malfunzionamento â il mondo va giĂ nel panico.
Se ci pensiamo bene, infatti, in poco tempo ci siamo cosĂŹ abituati a usare questi sistemi di IA che facciamo giĂ fatica a studiare o lavorare senza. Ma la disponibilitĂ di chatbot IA non è un nostro diritto in ogni occasione, a prescindere dalle garanzie di disponibilitĂ dâuso che i diversi fornitori ci offrono.
E se non ci sono dubbi che - anche in assenza di circolari e norme esplicite - sia vietato usare lâIA in occasione di esami come quelli di maturitĂ (a proposito, in bocca al lupo a tutti gli studenti!), quanto accaduto in Cina potrebbe diventare un precedente. In futuro, infatti, potrebbe farsi strada lâesigenza di sospendere o spegnere lâIA in determinate circostanze (dagli esami nazionali alle tornate elettorali) o in determinati casi (se violano i diritti degli utenti oppure presentano una minaccia per l'umanitĂ ).
Le conseguenze di un tale scenario sarebbero assai rilevanti. Decidere quando spegnere unâIA implicherebbe bilanciare interessi diversi: la sicurezza e correttezza (evitare che lâIA causi danni, imbrogli o discriminazioni) contro la libertĂ di innovazione e di accesso allâinformazione. Un conto è vietare lâIA agli studenti durante lâesame, scenario tutto sommato limitato e condivisibile, un altro è pensare di spegnere tutte le IA in periodi critici. Chi definisce qual è un âperiodo criticoâ? Câè il rischio che un governo autoritario (o che vuole diventarlo) dichiari âcontesto sensibileâ qualunque fase della vita pubblica, usando ciò come pretesto per censurare strumenti scomodi. Ad esempio, vietare le IA generative nei media potrebbe penalizzare il giornalismo indipendente e favorire solo le fonti âufficialiâ di informazione.
Câè poi una questione di eguaglianza. Se âspegniamoâ certe IA per il pubblico, potrebbero restare accessibili a ĂŠlite ristrette o in forme clandestine. Quando il Garante Privacy bloccò ChatGPT, gli utenti piĂš smaliziati aggirarono facilmente il divieto con VPN. Inoltre, mentre lo studente cinese onesto non può usare il bot durante lâesame, nulla vieta che uno studente piĂš ricco o esperto abbia addestrato una sua IA offline o utilizzi strumenti non controllati. Limitare lâIA per tutti rischia di penalizzare soprattutto i meno privilegiati, che non hanno alternative. Pensiamo allâaccessibilitĂ : persone con disabilitĂ che usano assistenti vocali IA, o piccole aziende che non possono permettersi un proprio sistema e contano sui servizi commerciali.
Câè poi unâaltra questione rilevante: chi può premere il dito sul bottone rosso? Chi può decidere, e con quale legittimazione, di spegnere unâIA? Ă una questione etica, democratica e di potere.
Nel caso cinese è stato il governo in accordo con le aziende (che in Cina difficilmente disobbediscono alle direttive statali). In Italia, invece, il blocco di ChatGPT a marzo 2023 fu deciso da unâautoritĂ indipendente (il Garante Privacy) ed eseguito da OpenAI. Non lo stesso ha fatto Deepseek che - nonostante il provvedimento di blocco del Garante (di cui abbiamo parlato in LeggeZero #59) - continua a rendere il suo chatbot disponibile agli utenti italiani. Questa circostanza pone quindi anche il tema di dotare le autoritĂ competenti di poteri effettivi in questâambito. A tal proposito, proprio per garantire un maggiore controllo sulle IA impiegate in materia di difesa e sicurezza nazionale, nel DDL governativo sullâIA, lâart. 6 prevede che i sistemi di IA in ambito pubblico debbano essere installati su âserverâ ubicati nel territorio nazionale, al fine di garantire proprio la sovranitĂ e la sicurezza dei dati dei cittadini.
Negli USA, invece, si è discusso apertamente di kill switch. In California nel 2024 era stata approvata una legge ambiziosa (il Senate Bill 1047 di cui abbiamo parlato in LeggeZero #39) che avrebbe obbligato gli sviluppatori di IA generaliste molto avanzate a implementare un âinterruttore di emergenzaâ nel propri sistemi. In caso di deriva incontrollata, il modello avrebbe potuto essere spento immediatamente. La proposta, però, ha incontrato la dura opposizione dei provider ed è stata bloccata dal governatore Gavin Newsom che temeva che norme cosĂŹ stringenti potessero allontanare le aziende dallo Stato e frenare la competitivitĂ .
La scena dello spegnere unâintelligenza artificiale, a pensarci bene, era finora materia da film di fantascienza. In â2001: Odissea nello spazioâ (film del 1968) lâastronauta Dave Bowman è costretto a disattivare il supercomputer HAL 9000 pezzo per pezzo, pur di impedirgli di causare una tragedia. Nelle saghe di Terminator o Mission impossible gli esseri umani escogitano manovre disperate pur di spegnere le IA ribelli sfuggite al controllo.
Nel mondo reale, invece, è tutto meno avvincente e spettacolare: in una democrazia, la decisione su chi - e quando - può spegnere unâIA non spetta a un supereroe ma alle istituzioni individuate dalla legge e nei casi previsti dalla norma.
đď¸ Gli eventi di LeggeZero: âCAIO Day: come governare lâIA nella pubblica amministrazioneâ
Immaginate una Pubblica Amministrazione capace di usare lâintelligenza artificiale per semplificare la vita delle persone, rendere i servizi piĂš vicini ai cittadini e liberare energie preziose. Non si tratta di un'utopia, ma di una realtĂ che si costruisce oggi con la formazione e il confronto.
Ă per questo che abbiamo organizzato i CAIO Days: eventi in presenza in cui fornire strumenti alle pubbliche amministrazioni che vogliono governare l'intelligenza artificiale.
Il prossimo si terrĂ ađ a Torino il 26 giugno 2025 (info e iscrizioni qui)
Vi aspettiamo!
đ IA in pillole
Un giudice federale del Southern District of New York ha ordinato a OpenAI di conservare tutte le conversazioni di ChatGPT, anche quelle che gli utenti avevano chiesto di eliminare nelle opzioni di configurazione, per metterle a disposizione come prove nella causa per copyright avviata dal New York Times (di cui abbiamo parlato in LeggeZero #6).
Il provvedimento investe quasi tutti i profili dâuso - ChatGPT Free, Plus, Pro, Team e lâAPI standard - lasciando fuori solo Enterprise, Edu e gli endpoint âZero Data Retentionâ. Le chat saranno tenute separate dai dati di training e saranno accessibili soltanto a un ristretto team di OpenAI, ma la questione è delicata perchĂŠ fra quelle conversazioni potrebbero trovarsi informazioni sanitarie di utenti o segreti aziendali altamente riservati.
OpenAI ha giĂ presentato ricorso contro questa decisione, bollando lâordine come un âeccesso di potereâ, mentre il CEO Sam Altman propone di riconoscere un nuovo status alle comunicazioni con i chatbot che tuteli la confidenzialitĂ delle chat come avviene per i colloqui con medici o avvocati.
Se confermata, la misura potrebbe spingere utenti e imprese verso soluzioni on-device o cifrate, rimodellando le aspettative di privacy dei servizi cloud IA e alterando gli equilibri competitivi di tutto il settore (qui unâinteressante riflessione).La senatrice repubblicana Cynthia Lummis ha presentato al Senato USA il disegno di legge âResponsible Innovation and Safe Expertise Act 2025â (RISE). La proposta accorda agli sviluppatori di IA unâesenzione dalla responsabilitĂ per danni prodotti dai loro sistemi qualora, entro trenta giorni da ogni nuova versione o dalla scoperta di vizi, rendano pubblica la documentazione recante una serie di informazioni minime (come fonte dei dati per addestramento, usi previsti e limiti del sistema) con possibilitĂ di omissis motivati per tutelare segreti industriali.
Lâesenzione viene meno in caso di dolo, colpa grave, frodi o violazione degli obblighi di trasparenza da parte del provider, mentre si precisa che medici, avvocati e altri professionisti (che usano lâIA) restano assoggettati alle ordinarie regole di diligenza diligenza. Sono cioè sempre responsabili dellâoutput di un sistema di IA che usano nellâesercizio della loro professione.
Staremo a vedere se il Congresso approverĂ questa proposta che sembra decisamente vantaggiosa per i provider.Con atto di citazione depositato lâ11 giugno 2025 dinanzi alla United States District Court for the Central District of California, The Walt Disney Company e Universal Pictures hanno citato in giudizio Midjourney Inc. per violazione del copyright, definendo il noto generatore dâimmagini un âabisso infinito di plagioâ, capace di riprodurre senza licenza personaggi quali Darth Vader, Elsa, Shrek e Buzz Lightyear. Nel ponderoso atto di citazione (oltre cento pagine) le major chiedono unâingiunzione che blocchi anche il futuro tool video di Midjourney (attualmente in fase di training) e il risarcimento integrale dei danni, lamentando che Midjourney abbia ignorato precedenti diffide. Gli studios sottolineano che altri provider hanno giĂ introdotto filtri, mentre Midjourney continuerebbe a distribuire output che incorporano marchi e personaggi registrati.
Trattandosi della prima azione giudiziaria dellâindustria hollywoodiana contro un sistema di IA generativa, lâesito potrĂ fungere da leading case sul perimetro del fair use e ridefinire le condizioni di liceitĂ per lâaddestramento e lo sviluppo dei modelli creativi, con ricadute sullâintera filiera audiovisiva. Oppure ci sarĂ un accordo? Prendete i popcorn.Sembra l'inizio di un film horror: la cronologia del tuo browser è sempre stata pubblica, ma tu non ne avevi idea. Ă la stessa sensazione che stanno provando gli utenti della nuova app Meta AI: tantissime persone hanno scoperto che le loro chat, apparentemente private, erano in realtĂ pubbliche. Tra lâaltro se lâaccount è associato a un profilo Instagram pubblico, sicuramente - per opzione predefinita - sono pubbliche anche le conversazioni con il chatbot. Ne è derivata la divulgazione di richieste di aiuto medico, confessioni di evasione fiscale e indirizzi di casa, tutti associati a nomi o voci degli utenti (potete farvi unâidea cliccando qui o qui).
Meta, per tutta risposta, ha precisato che la pubblicazione delle conversazioni richiede scelte consapevoli dellâutente in sede di configurazione, ma critici e associazioni dei consumatori annunciano esposti, sostenendo che lâassenza di disclaimer chiari possa integrare violazioni delle normative sulla protezione dei dati, e ammoniscono: âNulla di quanto immetti in unâIA resta confidenziale!â.
đ IA Meme - #ChatGPTdown edition
Nei giorni scorsi, quando ChatGPT non funzionava, gli utenti si sono riversati sui social (specialmente X e Instagram) per verificare se anche gli altri avessero problemi. In tanti hanno ironicamente postato meme che rivelano una verità scomoda: l'IA è ormai cosÏ integrata nelle nostre routine quotidiane - dalla scrittura delle mail al supporto nelle diagnosi mediche - che la sua assenza, anche temporanea, ci lascia spiazzati e ci fa rendere conto di quanto siamo diventati dipendenti da questi strumenti.
đ Consigli di lettura: SamâŻAltman e il âcervello collettivoâ che stiamo costruendo
SamâŻAltman - il CEO di OpenAI â ha pubblicato sul suo blog personale un lungo post intitolato âThe Gentle Singularityâ. Lâidea di fondo è semplice e potenzialmente inquietante: siamo giĂ oltre lâorizzonte degli eventi, il punto di non ritorno nella corsa verso la superintelligenza artificiale e non possiamo piĂš tornare indietro.
Eppure, sottolinea Altman, la vita quotidiana non è (ancora) fantascienza: niente robot per strada o macchine volanti, nessuna colonia su Marte e continuiamo a preoccuparci per le stesse cose di sempre (come gli esami di maturitĂ ). Nel frattempo, però, abbiamo costruito sistemi âpiĂš intelligenti delle persone in molti ambitiâ e capaci di aumentare la produttivitĂ di chi li usa.
Altman si lancia poi in una piccola previsione che merita di essere appuntata sul calendario:
2025 â sono arrivati agenti capaci di svolgere vero lavoro cognitivo (scrivere codice innanzitutto);
2026 â lâIA comincerĂ a generare intuizioni originali;
2027 â i primi robot generalisti inizieranno a operare nel mondo fisico.
Se dovesse andare cosĂŹ, avverte Altman, nel 2030 un solo professionista potrĂ fare âmolto piĂšâ di quanto fosse possibile nel 2020.âŻ
Câè anche una frase che riassume bene come funziona, secondo lui, questa âsingolaritĂ gentileâ:
CosĂŹ procede la singolaritĂ : le meraviglie diventano routine e poi standard minimo.
(Wonders become routine, and then table stakes)
Altro passaggio interessante del post di Altman riguarda il costo dellâintelligenza artificiale: a questa velocitĂ di evoluzione, il prezzo di unâunitĂ di calcolo potrebbe âconvergere quasi al costo dellâelettricitĂ â. Oggi, ricorda il CEO di OpenAI, una query su ChatGPT consuma circa 0,34âŻWh, lâequivalente di un forno acceso per un secondo scarso (riferimento che sembra fatto per ridimensionare i timori e le critiche relative alla sostenibilitĂ dellâIA).
Naturalmente non sono solo rose e fiori: lâultima parte del post è dedicata alle sfide di allineamento e di accesso diffuso. Dobbiamo assicurarci â scrive Altman â che questi sistemi lavorino per i nostri obiettivi di lungo periodo e che i vantaggi economici non restino concentrati in poche mani (che siano governi, aziende o persone fisiche).
Interessante la metafora finale: "stiamo costruendo un cervello per il mondo". Un cervello che sarĂ estremamente personalizzato e facile da usare per tutti, dove il limite sarĂ rappresentato dalle buone idee piĂš che dalla capacitĂ tecnica di realizzarle. Ovviamente, Altman non parla dellâimpatto che questo cervello collettivo avrĂ (anzi, sta giĂ avendo) sui nostri cervelli individuali: li useremo ancora? per fare cosa?
Insomma, il testo offre un mix di entusiasmo tecnologico e consapevolezza dei rischi che è tipico della Silicon Valley di questo periodo: aiuta a capire quanto vicino (e al tempo stesso fragile) possa essere un salto di produttivitĂ storicamente senza precedenti, ma anche quanta governance serva per non trasformare lâutopia in distopia.
đď¸ I corsi di LeggeZero: âRTD Academy 2025: come governare lâIA nella pubblica amministrazioneâ
đ Grazie per averci letto!
Per ora è tutto, torniamo la prossima settimana. Se la newsletter ti è piaciuta, sostienici: metti like, commenta o fai girare!