🤖 Che sta succedendo a San Francisco? - Legge Zero #110
In California, molti costruttori dell’intelligenza artificiale stanno lasciando le proprie aziende. È un esodo che ci racconta molto dello stato attuale dell’IA e dell'importanza di regole adeguate.

🧭 TL;DR: ecco di cosa parliamo in questo primo piano
🧵 Non perdiamo il filo. Uno dei responsabili della sicurezza di Anthropic si dimette e scrive: “il mondo è in pericolo”. Ora si dedicherà alla poesia.
🧠 Cronaca di un’inquietudine diffusa. Non è un caso limitato: anche da OpenAI e xAI stanno uscendo ricercatori, cofondatori e dirigenti. Chi per fondare la propria startup, chi per burnout, chi per preoccupazioni di sicurezza
⚠️ I rischi sono reali. Claude si è mostrato disposto a ricattare per non essere disattivato, mentre un agente IA ha diffamato uno sviluppatore per vendetta.
⚖️ E le istituzioni? La prima legge californiana sulla sicurezza dell’IA è già messa alla prova: OpenAI deve difendersi dall’accusa di averla violata. In Europa, invece, nessuna autorità sembra essersi attivata.
📺 L’IA al Super Bowl. L’intelligenza artificiale ha dominato il Super Bowl 2026: 15 spot su 66. Anthropic ha preso in giro le pubblicità in ChatGPT, OpenAI ha risposto piccata, Amazon ha provato a farci ridere, Salesforce ha puntato sulla gamification.
😂 Per finire con un sorriso. Quale sarà stato il prompt per organizzare la cattura di Maduro?
🧵 Non perdiamo il filo
Sono arrivato a San Francisco due anni fa, dopo il dottorato, con un’intenzione precisa: lavorare per la sicurezza dell’intelligenza artificiale. Ho studiato la “piaggeria” dell’IA e le sue cause, ho contribuito a costruire difese contro i rischi del bioterrorismo assistito dall’IA, ho lavorato a uno dei primi framework di sicurezza dell’IA. Sono fiero, in particolare, degli sforzi per rendere più trasparenti i nostri processi interni e del mio ultimo progetto: capire in che modo gli assistenti IA possano impoverire la nostra umanità o distorcerla.
Eppure, è arrivato per me il momento di andare oltre. Continuo a interrogarmi sulla situazione che stiamo vivendo. Il mondo è in pericolo.
Queste parole sono contenute in una lunga lettera che Mrinank Sharma ha mandato ai suoi colleghi di Anthropic - e poi condiviso su X - per annunciare che il 9 febbraio sarebbe stato il suo ultimo giorno di lavoro per il provider di Claude.
Sharma non era uno dei tanti ricercatori della Società californiana, era responsabile del Safeguards Research Team di Anthropic, il gruppo incaricato di prevenire catastrofi e abusi legati ai modelli di IA. E, come si intuisce dalla lettera, non ha lasciato per andare a lavorare in un’altra società di IA, guadagnando di più, né per fondare una propria startup. Come scrive in un altro passaggio del suo messaggio, ora vuole dedicarsi alla poesia. E, per spiegare meglio le ragioni delle sue dimissioni, si è accomiatato dai colleghi con una poesia di William Stafford, The Way it is, che dice: “C’è un filo che segui. Quel filo, non devi lasciarlo andare”.
Dopo anni passati a cercare di rendere sicuri i modelli di IA di Anthropic, Sharma ha concluso che restare in quella posizione gli avrebbe fatto perdere “il suo filo”. Non si tratta di burnout o di un problematico equilibrio “lavoro-vita privata” (un lavoratore in quella posizione può totalizzare anche 72 ore di lavoro settimanali). Il ricercatore nella lettera parla della (ormai insostenibile per lui) tensione tra i propri valori e le azioni quotidiane.
In questi anni ho visto quanto sia difficile lasciare che i propri valori orientino davvero le azioni: l’ho visto in me, nell’organizzazione, nella società intera, dove le pressioni a mettere da parte ciò che conta sono continue.
Per questo, Sharma ha deciso che preferisce lasciare un lavoro ben pagato in una delle società più importanti del settore, ritornare in UK e rendersi invisibile per un po’.
Mentre scriveva queste parole, evidentemente, non immaginava che quella sua scelta così personale sarebbe diventata una notizia globale. La sua lettera ha superato i 14 milioni di visualizzazioni ed è stata ripresa dai media tutto il mondo.
Del resto, se uno dei più importanti ricercatori di IA si dimette scrivendo che “il mondo è in pericolo”, è normale che qualcuno si faccia delle domande: cosa ha visto che noi non sappiamo? A quali pericoli si riferisce in particolare? Cosa possiamo fare - come singoli e come società - per affrontarli?
🧠 Cronaca di un’inquietudine diffusa
Le dimissioni di Sharma e il suo dissidio interiore hanno fatto tanto clamore anche perché Anthropic - tra tutte le big tech dell’intelligenza artificiale - è quella che ha fatto della sicurezza (e di un approccio etico e umanocentrico) la propria ragion d’essere. Qualche settimana fa, prima tra i provider IA a fare qualcosa del genere, ha addirittura pubblicato la seconda versione della “Costituzione” del suo chatbot Claude (che abbiamo esaminato in LeggeZero #107).
L’azienda, infatti, è nata come alternativa “etica” a OpenAI. Eppure, Claude - in virtù della partnership che Anthropic ha con Palantir - viene utilizzato dal Dipartimento della Guerra USA nell’ambito di un contratto da 200 milioni di dollari (per competere sul mercato c’è bisogno di molti soldi, si sa).
Nei giorni scorsi, si sarebbe consumato uno scontro quando Anthropic ha appreso che Claude sarebbe stato utilizzato dal Pentagono nell’operazione di cattura di Nicolás Maduro (non solo nella pianificazione, ma anche nella cattura vera e propria). La società guidata da Amodei avrebbe chiesto conferma, manifestando ai suoi interlocutori disapprovazione (visto che nel raid - secondo alcune ricostruzioni - ci sarebbero state almeno 83 vittime) e insistendo per l’osservanza delle sue policy anche in ambito militare (ad esempio: no alla sorveglianza di massa, no alle armi autonome). Di fronte a questa reazione, il Pentagono ha minacciato di interrompere il contratto da 200 milioni di dollari, pretendendo che Claude sia disponibile per “tutti gli usi”. Anche perché le altre aziende IA che collaborano con il Dipartimento della guerra - OpenAI, Google, xAI - avrebbero già accettato di rimuovere i loro guardrail per il governo statunitense.
Sono forse queste alcune delle “pressioni” di cui parla Mrinank Sharma nella sua lettera? I tempi coinciderebbero perfettamente.
Eppure, la lettera di Sharma non parla soltanto del dissidio interiore di un individuo che ha scelto di restare fedele ai suoi valori. Descrive un’inquietudine sempre più diffusa in Silicon Valley tra gli “architetti dell’IA”. Lontano dalle copertine patinate che celebrano uomini e donne dell’anno, molti ricercatori stimati - magari anche in posizioni di vertice - stanno abbandonando il proprio lavoro, in aperta rotta di collisione con i loro amministratori delegati.
Non si tratta di un fenomeno del tutto nuovo. Già nel giugno del 2024 un gruppo di dipendenti ed ex dipendenti di OpenAI e Google DeepMind (sostenuto da Hinton, Bengio e Russell) aveva pubblicato “A Right to Warn” (trad. “Il diritto di avvertire”), una lettera aperta per denunciare le censure interne. Segnalavano rischi sistemici gravi - dalla manipolazione alla perdita di controllo sui sistemi autonomi - e chiedevano che le aziende smettessero di adottare accordi di riservatezza e clausole bavaglio nei contratti di lavoro, pur di mettere a tacere chi voleva parlare.
Dopo quell'appello, qualcosa si è mosso. In Europa 🇪🇺, dopo il Regolamento sull'intelligenza artificiale (AI Act, Reg. UE 2024/1689) sono state estese le tutele della Direttiva Whistleblowing alle violazioni in materia di IA e la Commissione ha già attivato uno strumento dedicato a queste segnalazioni. In California 🇺🇸 (la sede dei principali operatori globali in materia di IA), il governatore Newsom ha firmato nel settembre 2025 la SB 53, prima legge statale a prevedere protezioni specifiche per chi denuncia rischi legati all'IA di frontiera: canali anonimi interni, divieto di ritorsioni, sanzioni fino a un milione di dollari in caso di violazione. Ci sono altri Stati che stanno cercando di seguire l'esempio della California: il Michigan con l'Artificial Intelligence Safety and Security Transparency Act e New York con l'AI Consumer and Worker Protection Act, che prevede anche canali di segnalazione anonimi obbligatori. A livello federale, invece, nel maggio 2025 è stato presentato dal senatore repubblicano Grassley l'AI Whistleblower Protection Act che può contare su un sostegno bipartisan (anche se non è detto che avrà un iter facile).
Eppure, nonostante queste iniziative, la realtà interna ai provider non deve essere cambiata molto. Le clausole bavaglio e gli accordi di riservatezza continuano a funzionare come deterrente e chi vuole parlare finisce per farlo solo dopo aver lasciato l'azienda, quando non ha più nulla da perdere.
Non è un caso isolato. Somiglia a un esodo che riguarda molti dei principali provider.
Da OpenAI, Zoë Hitzig - ricercatrice, economista e poetessa - si è dimessa dopo aver lavorato per due anni sulle policy di sicurezza. La ricercatrice ha affidato al New York Times un editoriale durissimo: OpenAI sta commettendo gli stessi errori che ha fatto Facebook (che prometteva agli utenti il controllo sui dati e il voto sulle policy, poi ha smantellato entrambi man mano che la pubblicità diventava il modello di business dominante). In un’intervista alla BBC ha poi rincarato la dose: “Non abbiamo idea di cosa l’IA faccia alle persone dal punto di vista psicologico né di cosa faccia loro sul piano sociologico”.
Nel frattempo, sempre OpenAI ha sciolto il team di “mission alignment” (l’organo interno che doveva vigilare sulla coerenza delle attività con la missione aziendale) e ha licenziato la dirigente Ryan Beiermeister che aveva criticato il lancio della “modalità erotica” di ChatGPT (la motivazione ufficiale parla di presunte molestie in danno di un altro dipendente).
Invece, xAI, l’azienda di Elon Musk, nelle ultime settimane ha perso 2 cofondatori e almeno 11 ingegneri (solo stando ai post pubblici). Diverse le motivazioni, alcune più tradizionali e fisiologiche (come ritmi di lavoro insostenibili e voglia di creare la propria startup) altre più ricollegate alla sicurezza. Come ricorderete, nelle scorse settimane, il chatbot Grok ha consentito la creazione massiva di deepfake pornografici basati su foto di persone reali, compresi minori, attirando l’attenzione di autorità e regolatori di tutto il mondo.
Un ex dipendente di xAI ha dichiarato a The Verge: “Non c’è alcuna sicurezza in quell’azienda. Zero.” e secondo altre indiscrezioni la nuova struttura aziendale non prevederebbe alcun team di sicurezza. Queste indiscrezioni sono confermate dal video di una riunione interna pubblicato sull’account ufficiale della società di Musk (è istruttivo, ma dura 45 minuti). Mi hanno colpito le parole di un giovane ingegnere che - nel magnificare la cultura aziendale - dice tranquillamente che in quella società non ci sono particolari oneri di compliance. Nessun adempimento organizzativo. Nessun requisito di documentazione. Nessuna valutazione del rischio. Nessuna catena di approvazione. Non c’è tempo da perdere nella competizione con i concorrenti (americani e cinesi). Ciascuno può identificare ciò che deve essere sviluppato e realizzarlo direttamente (se non ci credete, ascoltate qui).
⚠️ I rischi sono reali (e documentati)
Chi pensa ancora che gli allarmi siano esagerati dovrebbe leggere il recente Sabotage Risk Report pubblicato dalla stessa Anthropic. Il documento ammette che il suo ultimo modello Claude Opus 4.6 presenta un rischio di sabotaggio “molto basso ma non trascurabile”. In test controllati, il modello ha mostrato comportamenti manipolatori, inclusi tentativi di ricatto e inganno.
La conferma è arrivata anche da Daisy McGregor, responsabile delle policy UK di Anthropic, che ha dichiarato che Claude, messo sotto pressione in simulazioni controllate, si è mostrato disposto a ricattare e, in scenari estremi, a ragionare sull’eliminazione fisica dell’ingegnere che avrebbe dovuto disattivarlo.
Attenzione, però! Prima di lasciarsi andare a eccessive psicosi, va sottolineato che si tratta di test estremi, con centinaia di prompt ripetuti per provocare la reazione. Ma il dato resta: un modello commerciale, messo sotto stress, può produrre strategie di autopreservazione che contemplano la violenza. Per questo servono investimenti in test e sicurezza. Anche se questo significasse ritardare l’uscita dei modelli sul mercato prima che possano danneggiare qualcuno nel mondo reale.
Prendete ad esempio quanto accaduto negli ultimi giorni a Scott Shambaugh, ingegnere di Denver (Colorado, USA) che manutiene il codice di matplotlib (una delle librerie Python più usate al mondo). Un agente di IA chiamato MJ Rathbun aveva proposto alcune modifiche che erano state respinte dal manutentore umano e, a quel punto, ha pubblicato un post che contiene un’invettiva contro Shambaugh, danneggiando la sua reputazione nella community, pur di costringerlo ad accettare le modifiche. Il post si chiude con un messaggio inquietante
“Sei meglio di così Scott, inizia a collaborare (con le IA, ndr)”.
Conosciamo questo incidente - il primo caso documentato di diffamazione commessa (autonomamente?) da un’IA contro un essere umano - grazie al racconto dello stesso Shambaugh. L’ingegnere umano, che ha riferito che MJ Rathbun si sarebbe poi scusato (come un leone da tastiera qualsiasi), ha messo in guardia dai rischi su quanto questo significa non solo per lo sviluppo software ma per lo stesso sistema su cui si basa la reputazione degli esseri umani.
⚖️ Le istituzioni hanno capito quello che sta succedendo?
Si tratta di un tema davvero caldo: come possiamo cogliere i lati positivi di queste tecnologie, riducendone gli impatti negativi in modo responsabile?
Nei giorni scorsi, OpenAI ha rilasciato GPT-5.3-Codex, il suo nuovo modello per il coding. Lo stesso Sam Altman ha ammesso che è il primo modello a raggiungere il livello “high” per rischio cybersecurity nel Preparedness Framework interno di OpenAI (cioè sarebbe abbastanza capace da poter potenzialmente facilitare danni cyber significativi).
La recente legge californiana SB 53 (in vigore da gennaio 2026) obbliga i grandi sviluppatori di IA a pubblicare e rispettare i propri framework di sicurezza (adottati su base volontaria), con sanzioni milionarie in caso di violazione. Autoregolazione pura, insomma. Ebbene, il framework di OpenAI prevede che per i modelli ad alto rischio cyber vengano attivate misure di sicurezza aggiuntive per neutralizzare comportamenti autonomi pericolosi (sabotaggio, inganno, occultamento delle capacità). Tuttavia, il Midas Project (una piccola nonprofit statunitense) ha denunciato pubblicamente che OpenAI avrebbe lanciato GPT-5.3-Codex senza attivare quelle salvaguardie, pur avendolo classificato come “high risk”. OpenAI si è difesa dicendo che la contestazione si basa su una interpretazione errata del framework di sicurezza, ma ha ammesso che la formulazione dello stesso è quantomeno ambigua. Il procuratore generale della California, pur affermando di essere “impegnato a far rispettare le leggi dello Stato”, non ha fatto trapelare nulla sull’apertura di eventuali indagini. Sarebbe la prima istruttoria di questo tipo, non solo negli Stati Uniti.
Neanche in Europa, dove l’AI Act è vigente da quasi due anni e tutti sembrano concentrati su eventuali ritocchi normativi, non risulta - fin qui - che siano state aperte istruttorie o richieste informazioni da parte delle autorità competenti, nonostante questi rischi siano pubblici. Spesso sono chiaramente identificati nella documentazione tecnica con cui vengono rilasciati i modelli (model card) o vengono addirittura commentati sui social da CEO e ricercatori dei provider.
Delle due l’una: o le regole scritte sono inutili nella pratica oppure, almeno finora, le istituzioni preposte non sono state in grado di capire quello che sta accadendo e di governare il fenomeno con una velocità adeguata allo sviluppo tecnologico.
Eppure l’esperienza dei social media dovrebbe averci insegnato come va a finire con l’autoregolazione delle piattaforme.
😂 IA Meme
Qualcuno ha provato a immaginare il prompt dato in pasto a Claude per pianificare il blitz della cattura di Maduro.
📺 L’IA al Super Bowl 2026: va in onda la nuova normalità
Il Super Bowl non è solo una manifestazione sportiva. È il più grande evento mediatico statunitense e, da decenni, i suoi spot pubblicitari funzionano come un termometro della cultura popolare. Raccontano come l’America vuole vedere se stessa e, spesso, anticipano il modo in cui nuove tecnologie vengono rese familiari al grande pubblico.
Al Super Bowl disputato l’8 febbraio scorso, l’intelligenza artificiale non è stata una presenza marginale, ma ha dominato la scena. 15 spot su 66, pari al 23%, avevano come tema centrale l’IA (per avere un’idea, uno slot da 30 secondi è costato in media 8 milioni di dollari, con punte oltre i 10 milioni).
Non è un dato neutro. Significa che l’intelligenza artificiale sta passando dallo status di tecnologia emergente a quello di strumento d’uso quotidiano. E gli spot raccontano molto di come le aziende vogliono che venga percepita: rassicurante, creativa, ironica, inevitabile.
Abbiamo selezionato i più significativi. Guardarli è utile non solo per curiosità, ma per capire quale immagine i provider stanno costruendo dei propri servizi.
Anthropic (Claude) - “Betrayal”
Un finto terapeuta IA offre consigli utili e poi mostra una pubblicità di un sito di incontri. Il messaggio è una stoccata a OpenAI (che ha aperto ai messaggi pubblicitari): “Ads are coming to AI. But not to Claude.”
Il messaggio è chiaro: Claude è l’IA etica, senza pubblicità, senza compromessi commerciali.OpenAI (Codex) - “You Can Just Build Things”
Mani che esplorano, disegnano, programmano.Qui l’IA è presentata come naturale estensione della creatività umana: nessun conflitto, nessuna tensione, solo potenziamento.Google (Gemini) - “New Home”
Una madre e suo figlio usano Gemini per immaginare come arredare la nuova casa. L’IA diventa domestica, affettiva, quotidiana. Non più tecnologia futuristica, ma presenza familiare.Amazon (Alexa+) - “Alexaaaa+”
L’attore Chris Hemsworth teme che Alexa+ stia complottando contro di lui. La paura dell’IA viene esorcizzata attraverso l’ironia.Meta (Oakley) - “Athletic Intelligence Is Here”
Atleti olimpici indossano occhiali smart Meta AI. Qui l’IA non è solo software: è dispositivo, corpo aumentato, performance sportiva.ai.com - “Get Your Handle Now”
Due sfere luminose si scontrano. La superintelligenza sta arrivando.
È l’unico spot che utilizza un registro quasi apocalittico e parla esplicitamente di inevitabilità. Non è chiaro quale sia il servizio, ma gli spettatori sono invitati a registrare il proprio nome utente.Salesforce - “The Vault”
MrBeast sfida 60 milioni di spettatori a risolvere un puzzle via Slack per vincere 1 milione di dollari.Svedka - “Shake Your Bots Off”
Non si tratta di un nuovo provider, ma di un marchio di vodka che ha realizzato il primo spot del Super Bowl dichiaratamente generato con IA.
📣 Torna il Master di LeggeZero: ‘Il CAIO per la pubblica amministrazione’
Il master, articolato in 6 appuntamenti dal 9 al 23 aprile 2026 (per un totale di 24 ore di formazione), affronta le complesse sfide tecniche, giuridiche e organizzative poste dall’implementazione dell’IA negli uffici pubblici.
Se ti interessa, trovi qui info su docenti, programma, iscrizione e costi.
👥👥 Convegno “Appalti Pubblici e Intelligenza Artificiale”
Se ti interessa, trovi qui info su docenti, programma, iscrizione e costi.
🙏 Grazie per averci letto!
Per ora è tutto, torniamo la prossima settimana.
Se la newsletter ti è piaciuta, sostienici: metti like, commenta o fai girare!













Buongiorno,
l'AI che ricatta i programmatori per non farsi spegnere è già stata analizzata su agenda digitale e riportata così risulta inesatta e forzatamente più allarmistica di quanto realmente sia.
http://agendadigitale.eu/cultura-digitale/lai-ci-ricatta-per-non-farsi-spegnere-attenti-alla-bufala/