🤖 Dove eravamo rimasti? - Legge Zero #86
In questo primo numero dopo la breve pausa estiva, vi raccontiamo gli sviluppi più rilevanti che hanno animato il caldo agosto dell’intelligenza artificiale e della sua regolamentazione.

🧠 Istinto materno
La scena sembra tratta da una commedia degli errori: una Jeep rossa che finisce in bilico sui primi gradini della scalinata di Trinità dei Monti, nel cuore di Roma, sotto gli occhi increduli di turisti e passanti. E invece è successo davvero quest’estate, nella notte tra il 10 e l’11 agosto scorsi. Il conducente, un 28enne italiano poi multato, ha imboccato con l’auto la celebre scalinata di Piazza di Spagna (136 gradini patrimonio dell’UNESCO) e vi è rimasto incastrato, rischiando di provocare una tragedia. Poi ha messo la retromarcia ed è andato via, come se nulla fosse successo. E quando la polizia lo ha rintracciato, alcuni giorni dopo grazie alle telecamere di sicurezza, lui si è giustificato candidamente: “È stata colpa del GPS”. In altre parole, aveva seguito alla lettera le istruzioni del navigatore, che in quel punto indicava erroneamente di imboccare il varco, portandolo a scambiare la scalinata per una via carrabile. Fortunatamente non ci sono stati feriti né danni gravi al monumento, ma l’episodio è diventato virale e può diventare il simbolo dei rischi della fiducia acritica che riponiamo nelle istruzioni forniteci dalle macchine - dai software di navigazione ai chatbot - nella nostra vita quotidiana.
Si tratta di un fenomeno in grande crescita grazie alla diffusione di IA generative sempre più performanti (almeno apparentemente). Basti pensare che, nelle stesse ore dell’incidente in Piazza di Spagna, abbiamo appreso che, negli USA, un uomo di 60 anni - convinto di dover eliminare il sale dalla dieta per motivi di salute - ha chiesto consiglio a ChatGPT su un’alternativa al cloruro di sodio. Il chatbot (versioni GPT-3.5 e GPT-4) gli ha suggerito di usare il bromuro di sodio al posto del sale e così l’uomo - senza fare alcuna verifica - ha seguito il consiglio alla lettera, ingerendo piccole dosi di bromuro ogni giorno per tre mesi. Il risultato? Un’intossicazione da bromuro così grave (livelli ematici di bromuro oltre 200 volte superiori alla norma!) da provocargli allucinazioni, paranoia e altri sintomi neurologici, costringendolo al ricovero in ospedale. I medici hanno diagnosticato un caso di “bromismo”, ossia avvelenamento da bromuro, e solo allora il paziente ha rivelato di aver seguito quella dieta folle su consiglio di un’IA. Anche questo episodio, documentato su una rivista scientifica, ha avuto vasta eco e ha sollevato un campanello d’allarme: se ci fidiamo così tanto delle macchine che non mettiamo in discussione i loro suggerimenti, cosa accadrà quando molte delle decisioni che riguardano le nostre vite (dalle terapie ai prestiti) saranno affidate a sistemi di IA? E poi, come garantire che il controllo umano - che secondo alcune norme, come l’AI Act, deve essere sempre assicurato - sia davvero effettivo?
L’esperienza ci sta insegnando che sempre più spesso le persone si affidano completamente al responso automatizzato, specialmente in ambiti che conoscono poco. Chi non ha competenze mediche prenderà per buono il suggerimento del chatbot nutrizionista improvvisato. Chi non ha grande senso dell’orientamento seguirà il navigatore anche in situazioni assurde. Si tratta di un fenomeno sociale in crescita che ha ovviamente ripercussioni giuridiche e su cui vale la pena riflettere seriamente. Anche per capire come stiamo fronteggiando gli errori degli algoritmi (che diventano sempre più frequenti e, mi pare, sempre più socialmente accettati).
Ad esempio, con riferimento all’itinerario sugli scalini di Trinità dei Monti - visto che non è la prima volta che accade che un veicolo imbocchi il percorso errato - il Comune di Roma sta valutando di apporre nuove barriere fisiche o dissuasori per impedire materialmente l’accesso dei veicoli sulla scalinata. In altre parole, stiamo modificando l’ambiente fisico delle nostre città per adattarlo agli errori degli algoritmi.
Può sembrare paradossale, ma forse non lo è. Anziché riuscire a rendere infallibili (o almeno più sicuri) i sistemi di navigazione e i sistemi di IA, ci rassegniamo al fatto che sbaglino e corriamo ai ripari cambiando il mondo fisico installando paletti, barriere, cartelli aggiuntivi, perché sappiamo che qualcuno seguirà ciecamente le istruzioni del GPS fino alle estreme conseguenze. Lo stesso, probabilmente, accadrà anche in altri settori della società.

Dopo i fatti di Trinità dei Monti, Roma Capitale - oltre a valutare di installare alcuni dissuasori - aprirà un tavolo tecnico con i principali fornitori di mappe (Google, Waze, ecc.) per correggere gli itinerari errati attorno alla piazza. Insomma, in difetto di norme adeguate e vista la lentezza con cui si muovono le autorità competenti, non resta che rivolgersi direttamente ai provider.
Devono averlo pensato anche gli oltre 100 firmatari di una lettera aperta a OpenAI – tra cui quattro premi Nobel (Giorgio Parisi, Geoffrey Hinton, Oliver Hart e Sheldon Glashow) – che, all’inizio di agosto, hanno scritto al provider di ChatGPT chiedendo più trasparenza sulla governance e gli obiettivi dell’azienda. Nella lettera, si pongono domande pressanti su come OpenAI intenda bilanciare il bene pubblico e i profitti, rispettare gli impegni etici originari e garantire un controllo democratico sullo sviluppo dell’IA avanzata (se volete leggerla e aderire cliccate qui).
Fa un certo effetto vedere premi Nobel e luminari dell’IA rivolgersi direttamente ai colossi tech per richiamarli alle loro responsabilità sociali, bypassando qualunque appello a istituzioni e legislatori, evidentemente in ritardo nella comprensione dei cambiamenti che l’IA sta apportando nella società. Sfiducia o realismo?

E comunque, al momento, OpenAI non ha risposto e - pare superfluo sottolinearlo - non è obbligata a farlo, anche se a scrivere sono alcune tra le persone più importanti nel settore dell’IA. Tra l’altro, proprio uno dei firmatari dell’appello - il premio Nobel Geoffrey Hinton (di cui abbiamo parlato in LeggeZero #45) - durante una recente conferenza a Las Vegas ha sostenuto di non fidarsi delle misure di sicurezza che i provider stanno costruendo per evitare che le IA, una volta diventate superintelligenti, possano prendere il controllo sugli esseri umani.
L’unica speranza, ha sostenuto Hinton, è programmare nelle IA un istinto di cura verso gli esseri umani, analogo a quello che spinge una madre a proteggere il proprio bambino.
La madre è più forte e intelligente del neonato, eppure lo accudisce anziché fargli del male; abbiamo bisogno dello stesso tipo di relazione tra le future superintelligenze e noi: devono volerci proteggere perché sentono che siamo i loro ‘cuccioli’.
Ci servono madri artificiali, non semplici assistenti virtuali. Se l’IA non farà da genitore all’umanità, finirà per rimpiazzarla.
Naturalmente Hinton non intende instillare veri sentimenti umani nei circuiti di silicio, la sua è una semplificazione che ha l’obiettivo di descrivere obiettivi e vincoli tali per cui le IA mettano il nostro benessere al primo posto, come principio inviolabile (qualcosa di simile alle Leggi di Asimov, insomma). In altre parole, creare un’etica interna alle macchine, un sistema di motivazioni intrinseche che le porti a “voler bene” all’umanità.
È una proposta quasi filosofica, che ha suscitato dibattito (c’è chi la considera ingenua o addirittura “bizzarra”), ma che indica quanto seriamente anche Hinton - il “padrino dell’IA” - prenda la sfida di allineare l’intelligenza artificiale ai valori umani.
Nel corso del suo intervento a Las Vegas, Hinton non ne ha parlato espressamente, ma è difficile pensare che la sua proposta possa diventare realtà senza passare per norme e standard internazionali che impongano a sviluppatori e provider di proteggere gli utenti.
Senza regole chiare e tempestive in questa direzione c’è il rischio concreto di ripetere quanto già avvenuto con i social network: le piattaforme digitali sono cresciute per anni in un sostanziale vuoto normativo (ricordate gli appelli di esperti e società civile a modelli di business etici che sono caduti nel vuoto?). Solo a posteriori - e forse troppo tardi - si è cercato di porre rimedio a problemi ormai molto grandi (privacy, hate speech, manipolazione dell’opinione pubblica, dipendenze ed effetti negativi sul benessere dei minori).
Oggi con l’intelligenza artificiale ci troviamo di fronte a una sfida simile, ma ancora più ampia e pervasiva. Per questo il dibattito su regole e responsabilità non è mai stato così attuale e urgente.
⛱️ IA in pillole (cosa è successo nell’estate 2025)
Con questo numero, LeggeZero riprende le pubblicazioni dopo la pausa estiva. Durante la nostra assenza, l’IA non si è presa alcuna vacanza. Al contrario, sono successe moltissime cose. Ecco le segnalazioni dei fatti più rilevanti, da sapere per evitare di arrivare impreparati a settembre.
Tra luci e ombre, lo sviluppo delle IA non si ferma (è arrivato ChatGPT-5)
Gli annunci dei provider di IA, relativi a prodotti e servizi più o meno innovativi, non si sono fermati nemmeno in piena estate. Altro che “chiusure aziendali” o “feste comandate”, la corsa verso la superintelligenza non conosce soste. E così, ad agosto, solo per citare due esempi, Google ha reso disponibile Gemini 2.5 Deep Think - presentata come la sua IA di ragionamento più avanzata - mentre OpenAI ha lanciato il tanto atteso ChatGPT-5. Tuttavia, non tutto è andato come sperato. Dopo il rilascio, OpenAI ha dovuto affrontare un forte contraccolpo da parte degli utenti a causa della rimozione improvvisa dei modelli precedenti (che non risultavano più disponibili), dei cambiamenti nella “personalità” del chatbot (avvertita come più fredda da chi la usava per supporto emotivo) e dell’interruzione dei flussi di lavoro consolidati. Molti utenti si sono lamentati di risposte percepite come più “fredde” e della perdita delle caratteristiche familiari, costringendo il CEO di OpenAI, Sam Altman, a scusarsi pubblicamente e a ripristinare alcune opzioni precedenti.
Del resto bisogna sempre ricordarsi che iscrivendosi a un servizio - come quello di OpenAI - i termini di utilizzo (che pochi leggono) normalmente specificano che l’azienda può modificare a propria discrezione il servizio e le sue caratteristiche. Quindi attenzione a fare affidamento (commerciale o emotivo) su qualcosa che qualcuno dall’altra parte dell’oceano può cambiare senza preavviso.

Addio alle allucinazioni?
Superate le polemiche del debutto, molti utenti del chatbot di OpenAI hanno sperimentato con mano la maggiore affidabilità dell’IA rispetto alle versioni precedenti. In particolare, ChatGPT-5 ha fatto notevoli progressi nella riduzione delle “allucinazioni” (ovvero risposte inventate o non verificate). Anche Elon Musk si è detto impressionato dal “non so” che il chatbot ha usato per rispondere alla domanda di un utente.
Il comportamento di ChatGPT è coerente con quanto prevede Raza Habib - ex ricercatore di Google e ora fondatore della startup londinese Humanloop - che ha dichiarato che il problema delle allucinazioni potrebbe essere risolto in un anno. Si tratta di un’evoluzione veloce che deve essere presidiata da tutti gli utilizzatori (amministrazioni, aziende, professionisti) che dovranno seguire sempre formazione aggiornata agli sviluppi di mercato e modificare conseguentemente le proprie policy interne sull’IA.
Tutti stanno usando l’IA, anche al governo
C’è chi dice la verità e chi mente. L’IA è diffusa ormai ovunque e anche i leader politici iniziano ad ammettere di usarla. Nelle scorse settimane, il primo ministro svedese, Ulf Kristersson, ha rivelato di consultare regolarmente ChatGPT e strumenti simili per ottenere un “secondo parere” nelle decisioni di governo. L’ammissione di Kristersson ha scatenato polemiche e un interessante dibattito pubblico in Svezia. C’è chi ha avanzato dubbi sulla sicurezza nazionale - dato che le domande del Primo Ministro potrebbero finire su server di provider stranieri - e chi teme che questo uso possa esporre la politica sovrana a rischi di indebite ingerenze (“Noi non abbiamo votato per ChatGPT” hanno obiettato alcuni). In Italia chi sarà il primo ad ammettere di usare l’IA a supporto del proprio lavoro istituzionale? E sapremo animare un dibattito pubblico serio e costruttivo su come sfruttarla al meglio evitandone i rischi?
Tra cause e investigazioni, lavoro estivo anche per i giuristi
Attenzione a pensare che le novità agostane riguardino solo i profili tecnici dell’IA. Nelle ultime settimane, infatti, si sono registrati nuovi importanti contenziosi nel settore.
Tutto è iniziato quando Cloudflare ha accusato Perplexity di usare crawler “travestiti” da browser per aggirare i propri filtri anti IA, riaprendo il dibattito sui limiti per l’addestramento degli algoritmi.
Nei titoli di coda dei propri film, Universal Pictures ha aggiunto l’avvertimento “may not be used to train AI” (questo lavoro non può essere utilizzato per addestrare l’IA) per rafforzare la propria posizione contro le aziende di intelligenza artificiale che utilizzano contenuti protetti per addestrare i modelli senza autorizzazione. Come forse ricorderete, nelle scorse settimane, Universal e Disney hanno già avviato una causa contro Midjourney, accusandola di utilizzare immagini e personaggi coperti da copyright nei suoi output generativi, chiedendo risarcimenti per violazione del diritto d’autore.
Il nuovo warning mira a rendere più difficile per i provider IA sostenere il “fair use”.
Sempre ad agosto, in California è partita una class action contro Otter.ai: la piattaforma di trascrizione è accusata di registrare in segreto (e senza permesso) le call su Zoom, Meet e Teams per addestrare i propri modelli, violando la privacy di milioni di utenti (non era difficile da prevedere, ricordate quello che abbiamo scritto nel nostro galateo sulle riunioni?).
Poi, ancora negli USA un’utente Airbnb ha contestato che l’host abbia manipolato con l’IA le foto dell’appartamento per giustificare una richiesta di risarcimento da 9.000 dollari. La piattaforma prima si è schierata col proprietario, poi ha annullato il pagamento e ha avviato un’indagine. Rimane il fatto che sarà sempre più difficile capire quali sono le immagini modificate, anche nei contenziosi.
Un’inchiesta di Reuters ha rivelato un documento interno di Meta che dimostra come il provider di IA abbia consentito ai propri chatbot di produrre messaggi sessuali verso minori, insulti razziali e informazioni sanitarie infondate, sollevando nuove pressioni regolatorie sull’uso dell’IA generativa. Dopo la pubblicazione dell’inchiesta, Meta ha rimosso le policy incriminate, mentre alcuni Senatori USA hanno richiesto di aprire un’indagine formale, rilanciando la proposta di nuove regole per garantire la sicurezza online dei minori (Kids Online Safety Act).
Sempre sul fronte IA e minori, il procuratore generale del Texas (Ken Paxton) ha aperto un’indagine contro Meta e Character AI, ritenendo che i loro chatbot sarebbero promossi come “supporto psicologico” per i minori, senza averne le credenziali mediche. Paxton accusa i provider di indurre i ragazzi a credere di ricevere terapia e di sfruttare i dati raccolti per pubblicità mirata e addestramento degli algoritmi.
Meta e Character - in attesa di consegnare i documenti richiesti per l’istruttoria - hanno già anticipato la propria strategia difensiva, affermando di mostrare chiari disclaimer. Tuttavia, in tanti - come TechCrunch - hanno osservato che i bambini (ammesso che li leggano e li capiscano) possono ignorarli e non esistono barriere efficaci per gli under 13.Un grave data breach ha colpito Grok AI ad agosto 2025: oltre 370.000 chat tra utenti e il chatbot di xAI sono diventate pubblicamente accessibili su Google a causa di una funzione di condivisione che generava link indicizzati senza avviso agli utenti (incidente simile a quello accaduto qualche settimana fa a ChatGPT). Le conversazioni, spesso piene di dati sensibili e richieste personali, sono rimaste online e visibili a chiunque, destando preoccupazioni sulla privacy e sulla sicurezza. Staremo a vedere se il Garante irlandese (competente per Grok in UE) aprirà un’istruttoria sull’accaduto.
Alla luce di queste fibrillazioni, non stupiscono le dimissioni di Robert Keele, Chief legal officer di xAI, che - dopo un anno - ha lasciato l’azienda citando “divergenze di vedute” con Elon Musk, ma anche il desiderio di passare più tempo con i figli. Insomma, in questo momento c’è poco da rilassarsi per chi si occupa di diritto dell’IA.
😂 Meme IA che non lo erano
Dopo le polemiche legate al lancio di ChatGPT-5, OpenAI ha chiarito che è possibile scegliere - tra cinque alternative - la personalità con cui vogliamo che il chatbot risponda. Attenzione a non scegliere quella cinica, però. Questa è la risposta che ha dato a un utente Reddit che gli aveva chiesto di correggere alcuni bug del codice da lui sviluppato.
Ho riscritto il 90% del tuo codice. Il bug sei tu.
📚 Consigli di lettura: l’IA (apparentemente) cosciente secondo Mustafa Suleyman
Una delle cose più interessanti pubblicate in questa estate 2025 è un articolo postato sul suo blog personale da Mustafa Suleyman - cofondatore di DeepMind e oggi CEO di Microsoft AI - dal titolo “Dobbiamo costruire l'IA per le persone, non perché diventi una persona”.
Suleyman sostiene che siamo molto vicini a sistemi che sembreranno coscienti: non davvero “coscienti” in senso filosofico (non lo sono per ora e secondo alcuni non lo saranno mai), ma dotati di linguaggio, memoria, percezione e capacità di pianificazione tali da sembrare entità autonome.
Questa evoluzione, avverte, renderà le IA più persuasive e convincenti, con rischi concreti per la disinformazione, la manipolazione politica e la fiducia sociale (pensate al fenomeno dei fidanzati sintetici).
Proprio per questo, Suleyman sottolinea che serve un quadro preciso di regole e tutele:
adeguata trasparenza su quando interagiamo con una IA e non con un essere umano;
tracciabilità delle decisioni prese o suggerite dalle macchine;
responsabilità giuridica per chi sviluppa e distribuisce sistemi capaci di influenzare comportamenti e scelte;
cooperazione internazionale, per evitare che ogni Paese vada in ordine sparso.
Perché leggere questo articolo? Non solo perché porta la firma di uno dei protagonisti della rivoluzione IA, ma perché sposta il focus dal “quando arriveranno” al “come governarle”: la vera sfida - contro la retorica - non è sviluppare un’IA cosciente, ma scegliere quali limiti e quali regole darle prima che sia troppo tardi.
PS Se già oggi, avete la sensazione di parlare con dei chatbot dotati di personalità autonoma, sappiate che quella sensazione è sbagliata e leggete questa utilissima pagina scritta da alcuni ricercatori.
📣 A grande richiesta, torna il Master di LeggeZero: ‘Il CAIO per la pubblica amministrazione’
Siete interessati alla figura del Chief AI Officer e volete approfondire i temi legati all’adozione dell’intelligenza artificiale nella pubblica amministrazione?
Dopo il successo della prima edizione, torna il nostro Master breve sull’IA nella PA. Il corso è dedicato a tutti coloro che vogliono guidare - magari proprio come CAIO - la sfida dell’intelligenza artificiale nelle pubbliche amministrazioni.
Il nostro corso, articolato in 6 appuntamenti dal 22 ottobre al 10 novembre 2025 (per un totale di 24 ore di formazione), affronta le complesse sfide dell'implementazione dell'IA negli uffici pubblici attraverso una prospettiva multidimensionale:
Aspetti tecnologici: strumenti e metodologie per l'adozione consapevole dei sistemi di IA.
Aspetti normativi: conformità alle regolamentazioni emergenti in materia di tecnologie digitali (dall’AI ACT al GDPR, passando per il CAD, le Linee Guida Agid e - ovviamente - la futura legge italiana sull’IA).
Aspetti organizzativi: strategie di governance dell'innovazione e gestione del cambiamento.
Particolarmente rilevante sarà il focus sull'evoluzione del ruolo del Responsabile per la Transizione Digitale (RTD), figura chiave nell'ecosistema dell'innovazione pubblica.
Non mancheranno esperienze e casi di studio per apprendere dai colleghi di altre amministrazioni buone prassi e errori da evitare.
Se vi interessa, trovate qui info su docenti, programma, iscrizione e costi.
🙏 Grazie per averci letto!
Per ora è tutto, torniamo la prossima settimana. Se la newsletter ti è piaciuta, sostienici: metti like, commenta o fai girare!






