🤖 L'ultimo anno di lavoro - Legge Zero #113
Sex worker contro i deepfake, ChatGPT accusato di esercizio abusivo della professione, licenziamenti di massa e prime sentenze: in questo numero parliamo di come l'IA sta già ridisegnando il lavoro.

🧭 TL;DR: ecco di cosa ci occupiamo in questo numero
🧵 Nessuno è al sicuro - Dalle sex worker agli avvocati, l’IA mette a rischio milioni di posti di lavoro in tutto il mondo. Jack Dorsey ha licenziato in un solo giorno il 40% dei dipendenti di Block, mentre l'ex CEO di YouTube ha augurato a tutti di godersi “l’ultimo anno di lavoro appagante”.
🧠 Ansia da IA - Mentre i CEO delle bigtech profetizzano l’imminente sostituzione dei lavoratori umani, i ricercatori dell’Università della Florida propongono una nuova sindrome, l’Artificial Intelligence Replacement Dysfunction: ansia, insonnia, confusione identitaria causata dal timore di essere sostituiti dall’intelligenza artificiale. I terapeuti, inoltre, segnalano un incremento di pazienti con FOBO, Fear of Becoming Obsolete (paura di diventare obsoleti).
⚖️ Nel silenzio dei legislatori, arrivano le prime sentenze - Al momento, sono pochi (e timidi) i tentativi fatti da legislatori e governi per capire e affrontare gli impatti dell’IA sul mercato del lavoro. Nello Stato di New York, una proposta di legge vuole vietare ai chatbot risposte di competenza di professionisti di professionisti iscritti in albi. Ma sono molti a ritenere che non sia la soluzione giusta. Nel frattempo, sono i giudici di tutto il mondo ad occuparsi della questione e noi abbiamo ricostruito il quadro delle prime sentenze in materia di licenziamenti collegati all’intelligenza artificiale.
🔊 Il vocale della settimana - L’IA non sostituirà i professionisti, ma potenzierà chi la saprà usare, sostiene Gabriele Silva (commercialista e autore di Blast). Il rischio non è l’IA in sé, ma continuare a lavorare come se nulla stesse cambiando.
😂 Per chiudere con un sorriso - “Sia lodato il cielo, ChatGPT non mi ha ancora rubato il lavoro.”
🧠 Nessuno è al sicuro
“Vogliono tutto.”
Così Jupiter Jetson - una escort professionista che lavora da otto anni a Sheri’s Ranch, un bordello di Pahrump, località del Nevada (uno dei pochi luoghi degli Stati Uniti in cui la prostituzione è legale) - racconta quello che è successo la settimana prima dello scorso Natale.
L’amministrazione dello Sheri’s Ranch aveva anticipato alle sex worker che lavoravano presso la struttura che sarebbe arrivato un nuovo contratto di collaborazione, con alcune novità. Poi - nel pieno del periodo delle feste - hanno chiesto alle ragazze di firmare frettolosamente il contratto, cercando di evitare che leggessero le nuove clausole (“Niente di importante, solo qualche dettaglio da sistemare”), aprendo il documento direttamente al punto in cui apporre la sottoscrizione. Le lavoratrici si sono insospettite e - quando hanno finalmente letto le clausole - hanno capito che le novità non riguardavano turni o compensi. Il nuovo contratto prevedeva la cessione integrale dei diritti sulla propria immagine, inclusa la possibilità per il bordello di creare repliche digitali con l’intelligenza artificiale: porno generato dall’IA con i loro volti, chatbot sessuali con le loro sembianze. Il tutto senza alcun compenso aggiuntivo. L’amministrazione dello Sheri’s Ranch aveva lavorato al nuovo contratto per espandere il business online (dove le escort sono molto presenti con loro profili personali, es. Onlyfans) e per fare progressivamente a meno delle lavoratrici in carne ed ossa.
A quel punto, invece di firmare, le lavoratrici hanno organizzato un blitz sindacale nel parcheggio del bordello. In poche ore, hanno fondato lo United Brothel Workers, primo sindacato di un bordello negli Stati Uniti, affiliato alla Communications Workers of America. Ventiquattro ore dopo, Jetson è stata licenziata via email. Dopo di lei, lo Sheri's Ranch ha licenziato altre cinque lavoratrici coinvolte nella protesta sindacale (che adesso continua con ricorsi davanti alle autorità competenti).
Questa che viene dal Nevada è una storia che dimostra come l’impatto dell’IA sul lavoro (su ogni tipo di lavoro), sia già concreto e attuale, determinando un cambiamento delle prestazioni oggetto dei contratti (ad esempio, acquisendo diritti per l’addestramento di sistemi di IA che progressivamente potrebbero consentire ai datori di lavoro di sostituire gli esseri umani) e l’insorgere di nuovi contenziosi.
Proprio dagli USA, più precisamente dall’Illinois, arriva la notizia di un contenzioso molto interessante. Graciela Dela Torre - dipendente di un’azienda di logistica - aveva chiuso nel gennaio 2024 un accordo transattivo relativo a prestazioni di invalidità con la compagnia assicurativa del datore di lavoro, la Nippon Life Insurance. Un anno dopo, ha avuto dei ripensamenti e ha chiesto al suo avvocato di riaprire il caso. Il professionista le ha spiegato che l’accordo era vincolante e la controversia chiusa definitivamente. Lei ha caricato la risposta dell’avvocato su ChatGPT e gli ha chiesto se il professionista la stesse manipolando. Il chatbot - la cui piaggeria è ormai nota - ha risposto affermativamente e le ha suggerito di revocargli il mandato. Lei lo ha fatto. Da quel momento, Dela Torre ha agito giudizialmente da sola con ChatGPT come unico consulente. Il chatbot ha redatto decine di nuovi atti processuali contro la Nippon Life Insurance (che, in virtù dell’accordo transattivo, era sicura di aver chiuso la vicenda). Tra gli argomenti usati dal chatbot, la tesi che l’avvocato l’avesse costretta a firmare una pagina in bianco con la citazione di precedenti giurisprudenziali inesistenti (le cosiddette allucinazioni di cui abbiamo scritto più volte). Ovviamente, tutte queste nuove azioni giudiziarie non hanno portato a nulla, ma hanno fatto perdere tempo e soldi alla compagnia assicuratrice che è stata costretta a continuare a difendersi in giudizio. Per questo motivo, il 4 marzo 2026, la Nippon Life ha citato in giudizio OpenAI per esercizio abusivo della professione forense, interferenza con un contratto e abuso del processo. La società chiede al provider IA il risarcimento di 300.000 dollari per le spese legali che ha dovuto sostenere e una richiesta di 10 milioni di dollari a titolo di punitive damages. Oltre al risarcimento, la compagnia chiede anche al giudice di dichiarare che il comportamento integra esercizio abusivo della professione forense e di vietarne la prosecuzione (potete scaricare l’atto introduttivo del giudizio qui sotto).
OpenAI - che pure nei mesi scorsi aveva modificato i termini d’uso della propria piattaforma per limitare i danni in caso di uso in ambito legale senza la supervisione di un professionista - ha commentato, sostenendo che la citazione “è priva di qualsiasi fondamento”.
Da quanto ne sappiamo, è la prima volta che un provider di IA deve difendersi dall’accusa di esercizio abusivo di una professione regolamentata.
🔄 La grande sostituzione è iniziata?
Come sanno bene gli avvocati, quando iniziano a esserci i contenziosi e i precedenti giurisprudenziali, significa che la dimensione di un fenomeno è già assai rilevante.
Quasi un anno fa - in LeggeZero #73 - vi avevamo raccontato le prime policy “AI-first” adottate dai CEO di Shopify, Duolingo e Fiverr. Memo interni che imponevano l'uso dell'intelligenza artificiale come requisito base per ogni dipendente. All’inizio, l'impatto più concreto era sulle nuove assunzioni, posizioni che non venivano più aperte, team che non venivano più ampliati. Adesso, secondo molti, è l’inizio di una nuova fase, quella dei tagli.
Ha fatto molto scalpore la notizia che il 26 febbraio, Jack Dorsey - cofondatore di Twitter - ha annunciato il licenziamento del 40% della forza lavoro della sua società Block: da oltre 10.000 a meno di 6.000 dipendenti. Lo ha fatto pubblicando, ovviamente su X, la lettera indirizzata ai lavoratori (unica sia per i licenziati che per i sopravvissuti ai tagli).
La decisione non è stata presentata come una ristrutturazione dolorosa - anche perché la società è solida e va bene - quanto come un’evoluzione inevitabile del modo di lavorare.
Gli strumenti di intelligenza artificiale stanno cambiando cosa significa costruire e gestire un’azienda. Lo stiamo già vedendo internamente. Un team molto più piccolo, utilizzando gli strumenti che stiamo usando e sviluppando, può fare di più e farlo meglio.
La decisione di Block è stata premiata dai mercati con un +24% in borsa dopo l’annuncio. E, come se non bastasse, Dorsey ha aggiunto un avvertimento: “credo che la maggior parte delle aziende raggiungerà la stessa conclusione entro il prossimo anno”.
Per chi segue le dichiarazioni dei principali leader tecnologici, non è una novità. Nelle ultime settimane si sono intensificate previsioni catastrofiche sull’impatto dell’IA generativa sul lavoro.
Mustafa Suleyman, capo dell’IA di Microsoft, ha dichiarato al Financial Times che entro 18 mesi l’IA raggiungerà “performance di livello umano per la maggior parte delle attività professionali, se non per tutte”. Di conseguenza, tutti quelli che lavorano davanti a un PC sono a rischio: avvocati, contabili, project manager, addetti al marketing.
Dario Amodei, CEO di Anthropic e figura di cui si sta parlando molto in questi giorni, ha pubblicato il saggio The Adolescence of Technology in cui stima che l’IA potrebbe sconvolgere fino al 50% dei lavori impiegatizi entry-level nei prossimi 1-5 anni. Questo cambiamento, scrive, sarà “unusually painful”, eccezionalmente doloroso, e richiederà un intervento pubblico per gestire la transizione.

Sono previsioni (forse interessate), non certezze. Ma cosa dicono i numeri? Secondo un’analisi di Challenger, Gray & Christmas riportata da CNBC, nel 2025 circa 55.000 licenziamenti negli Stati Uniti sono stati attribuiti direttamente all’intelligenza artificiale. Su un totale di 1,2 milioni di tagli annunciati quell’anno, si tratta del 4,6%. Non un’apocalisse, per ora. Ma potrebbe essere solo l’inizio di uno tsunami: quei numeri non includono le posizioni mai aperte, i contratti non rinnovati, i team che si sono semplicemente assottigliati (senza comunicati stampa). Tra l’altro, sono dati che ancora non tengono conto dell’impatto del fenomeno dell’IA agentica, in velocissima crescita.
C’è però da considerare il fenomeno dell’AI washing dei licenziamenti. Infatti, secondo un’analisi di Oxford Economics, molte aziende stanno usando l’intelligenza artificiale come giustificazione per tagli che hanno altre ragioni. Il 60% dei dirigenti intervistati, infatti, ammette di enfatizzare il ruolo dell’IA nei licenziamenti perché è percepito più favorevolmente dai mercati rispetto a difficoltà finanziarie o errori nella gestione (come l’eccesso di assunzioni). Non a caso, anche Sam Altman ha osservato che molte aziende tendono a enfatizzare il ruolo dell’IA nei propri licenziamenti.
Un controcanto più strutturato arriva dalla Banca Centrale Europea. In un’analisi pubblicata nel marzo 2026, la BCE osserva che le imprese europee più esposte all’intelligenza artificiale tendono, almeno nel breve periodo, ad assumere piuttosto che a licenziare. Le parole chiave, però, sono due: per ora ed europee. Il panorama americano racconta una storia diversa e, come spesso accade nell’economia digitale, ciò che succede negli Stati Uniti tende prima o poi ad arrivare anche da noi.
🧠 L'ansia da intelligenza artificiale
Proprio dagli USA, nei giorni scorsi sono arrivati alcuni dati interessanti su quali siano le professioni più esposte al rischio di sostituzione.
Anthropic ha pubblicato il rapporto “Labor Market Impacts of AI”, un documento sugli impatti dell’intelligenza artificiale sul mercato del lavoro. Interessante la metodologia: anziché stimare in astratto cosa l’IA potrebbe fare, i ricercatori hanno misurato cosa sta effettivamente facendo, analizzando l’uso reale del loro modello Claude nei contesti lavorativi statunitensi.
Il rapporto, infatti, introduce una distinzione fondamentale tra capacità teorica e uso osservato. La capacità teorica misura quanti task di una professione un modello di IA potrebbe già svolgere. L’uso osservato misura quanti ne svolge davvero oggi. Il divario tra i due numeri è il dato più importante dello studio - e il più inquietante - perché sembra rappresentare uno spazio di automazione ancora inespresso.
Le categorie professionali più esposte nell’uso reale sono quelle informatiche e matematiche (33% dei task già automatizzati, su un potenziale teorico del 94%), seguite dalle professioni amministrative (25% su 90%) e finanziarie (20% su 85%).

Non ci sono buone notizie per gli avvocati (e, in generale, per i giuristi): il settore legale presenta un’esposizione teorica dell’80%, ma un uso osservato di appena il 15%. Significa che l’impatto finora è stato limitato per il settore, ma che il margine di automazione potenziale è molto ampio (e quindi imprese, amministrazioni e studi legali potrebbero aver bisogno sempre di meno professionisti in futuro).
Il rapporto Anthropic certifica che, finora, non si è registrato un aumento significativo della disoccupazione nelle professioni più esposte rispetto a prima del lancio di ChatGPT (fine 2022). I tassi di disoccupazione dei due gruppi - lavoratori più esposti e meno esposti - sono rimasti sostanzialmente analoghi dal 2016 a oggi.
C’è però un segnale concreto che riguarda i più giovani. Tra i lavoratori di 22-25 anni, il tasso di ingresso nelle professioni ad alta esposizione è calato del 14% rispetto al 2022, un dato che gli stessi autori definiscono “appena statisticamente significativo”, ma che indica una tendenza: l’IA sta riducendo i posti di lavoro entry level. Ci sono posizioni junior che lo sviluppo tecnologico sta rendendo superflue prima ancora che qualcuno le occupi.
Tra l’altro, in attesa di capire quali saranno gli impatti reali della sostituzione, questa situazione sta già minando la salute mentale dei lavoratori. In uno studio pubblicato sulla rivista scientifica Cureus, i ricercatori dell’Università della Florida hanno proposto quello che definiscono AIRD (Artificial Intelligence Replacement Dysfunction). Si tratterebbe di una sindrome caratterizzata da ansia, insonnia, depressione, confusione identitaria e senso di inutilità professionale, che può manifestarsi anche in assenza di altri disturbi psichiatrici.
Come osservano i ricercatori:
“La salute mentale di nessuno migliora quando gli viene ripetuto costantemente che sta per perdere il lavoro”.
Non si tratta di un fenomeno marginale. Secondo un’indagine di Pew Research, il 52% dei lavoratori americani è preoccupato per l’impatto dell’IA sul proprio futuro professionale. Un sondaggio dell’American Psychological Association indica che il 38% teme che l’IA renderà obsolete alcune o tutte le proprie mansioni. I terapeuti raccontano a CNBC di ricevere sempre più pazienti con quella che definiscono “paura di diventare obsoleti” (un fenomeno che ha già un suo acronimo: FOBO, Fear of Becoming Obsolete).
📜 La giurisprudenza colma un vuoto
Dopo aver letto questi numeri, non si può che concordare con Amodei quando ha scritto che c’è bisogno di un intervento pubblico urgente. Tuttavia, al momento, sono pochi (e timidi) i tentativi fatti da legislatori e governi per capire e affrontare gli impatti dell’IA sul mercato del lavoro. Negli USA, da un anno, lo Stato di New York ha chiesto alle aziende che effettuano licenziamenti di dichiarare se l'intelligenza artificiale o l'automazione hanno determinato i tagli. È il primo obbligo di trasparenza di questo tipo al mondo. Deludenti però i risultati: in un anno, nessuna delle 162 aziende che hanno attuato la ristrutturazione della forza lavoro ha spuntato la casella IA sul modulo (nemmeno Amazon, Goldman Sachs o Morgan Stanley, che nello stesso periodo hanno tagliato migliaia di posti di lavoro mentre i loro CEO celebravano pubblicamente i guadagni di produttività dell'IA).
Sempre a New York, è in discussione al Senato statale la proposta S7263, che - se approvata - vieterebbe ai chatbot di fornire consulenza legale o medica, qualificandola come esercizio abusivo della professione. La logica è semplice: se gli esseri umani hanno bisogno di un’abilitazione per esercitare come avvocati o medici, perché un’IA potrebbe farne a meno? La proposta nasce proprio dalla consapevolezza che milioni di persone si rivolgono già a ChatGPT per ottenere pareri legali o diagnosi mediche, con risultati che - come dimostra il caso Dela Torre raccontato all'inizio di questo numero - possono trasformarsi in un danno concreto (per chi segue quei consigli e per chi si ritrova a subirne le conseguenze processuali) oltre a rappresentare un rischio per migliaia di posti di lavoro.
Sarà questa la soluzione per evitare che alcuni ruoli e professioni vengano completamente cancellati? In tanti sono scettici su questo approccio, ma la verità è che nessuno sa ancora come affrontare questa situazione.
In Italia, nel mese di dicembre 2025 è stato lanciato l'Osservatorio nazionale sull'intelligenza artificiale nel mondo del lavoro, previsto dalla Legge n. 132/2025 (presieduto dal Ministro Calderone con una Commissione Etica guidata dal prof. Paolo Benanti).
L'Osservatorio ha il compito di monitorare gli impatti dell'IA su produttività, occupazione e condizioni lavorative. È un passo che va nella direzione di capire quello che sta accadendo, ma per ora si tratta di uno strumento di studio e indirizzo, non ancora di regolazione.
E così, mentre le istituzioni sono impegnate a comprendere quali regole scrivere, spetta ai giudici di tutto il mondo dirimere i primi conflitti.
In LeggeZero #106 abbiamo già dato conto della sentenza 🇮🇹 del Tribunale di Roma che ha rigettato la richiesta di reintegro di una designer licenziata a causa di una crisi aziendale e il cui lavoro - in parte - è stato poi svolto grazie a tool di intelligenza artificiale.
Ma non si tratta dell’unico precedente in questo senso. In Spagna 🇪🇸, il Tribunal Superior de Justicia di Castilla y León (STSJ 3529/2025, 15 settembre 2025) ha confermato la legittimità del licenziamento di una traduttrice che aveva perso il posto perché i clienti avevano iniziato a utilizzare strumenti di traduzione automatica, causando un crollo del fatturato della società. Il Tribunale spagnolo ha quindi confermato che le perdite economiche provocate dall'irruzione dell'IA nel mercato della traduzione costituiscono una causa produttiva oggettiva ai sensi della legge spagnola.
A una conclusione diversa, invece, è arrivata la Commissione arbitrale del lavoro di Pechino 🇨🇳 in un caso in cui il licenziamento del lavoratore umano - sostituito con un sistema di IA - non era giustificato da una crisi di mercato, ma da una scelta aziendale per aumentare i profitti. Il licenziamento è stato annullato. Analoga decisione ha adottato un Tribunale russo 🇷🇺 per il caso di una lavoratrice moscovita che era stata licenziata perché non aveva accettato la riduzione dell’orario lavorativo a sole due ore giornaliere, dopo che l’azienda aveva deciso di impiegare un’IA al suo posto. Il giudice ha disposto il reintegro e il risarcimento del danno.
Sono i primi mattoni di una giurisprudenza ancora in costruzione, precedenti nati per affrontare i licenziamenti di singoli lavoratori. Resta da capire se saranno ancora adeguati quando l’impatto dell’IA non riguarderà una singola posizione o un reparto, ma interi settori professionali.
📣 Ci vediamo a Bologna il 19 marzo
In questo numero abbiamo parlato di sex worker sindacalizzate contro i deepfake, chatbot accusati di esercizio abusivo di una professione e CEO che tagliano metà dell'azienda sostituendo i dipendenti con IA.
In un momento storico in cui l'intelligenza artificiale viene per lo più raccontata come forza separata dall'esperienza umana c'è bisogno di un mutamento di prospettiva, provando a lavorare per un'unità possibile (e auspicabile) tra persone e macchine.
Ne discuteremo il 19 marzo al PalaDozza di Bologna - durante l’evento di Dinova “C'è una sola intelligenza” - con un filosofo (Vito Mancuso), un campione NBA (Marco Belinelli), un comico (Maccio Capatonda) e tanti altri relatori moderati da Riccardo Luna.
L'ingresso è su invito, richiedetelo qui (i posti sono limitati).
🔊 Un vocale da… Gabriele Silva (Blast)
L’intelligenza artificiale sostituirà avvocati, commercialisti e consulenti del lavoro? Oppure il vero pericolo non è la macchina, ma il collega che la sa usare meglio di te?
Nel messaggio vocale di questa settimana Gabriele Silva, commercialista e collaboratore di Blast, parte da una constatazione: l’IA è straordinariamente efficace nel sostituire tutto ciò che è ripetitivo, standardizzato e riducibile a una sequenza logica di passaggi. Attività amministrative, contabili, legali e perfino parti della consulenza. Ma ci sono dimensioni che restano irriducibilmente umane, come la responsabilità, il giudizio, l’interpretazione di contesti complessi e soprattutto la relazione fiduciaria con clienti e imprese. L’IA può potenziare queste professioni, non cancellarle.
Silva avverte però che il rischio reale non è la sostituzione dell’uomo con la macchina: è continuare a lavorare come se nulla stesse cambiando. Non saremo sostituiti dall’intelligenza artificiale – conclude – ma da altri professionisti che sapranno usarla meglio di noi.
La tecnologia non elimina il lavoro umano in generale, elimina il lavoro umano che non si evolve.
😂 IA Meme
Mood dei lettori, arrivati a questo punto della newsletter 👇

📣 Torna il Master di LeggeZero: “Il CAIO per la pubblica amministrazione”
Il master, articolato in 6 appuntamenti dal 9 al 23 aprile 2026 (per un totale di 24 ore di formazione), affronta le complesse sfide tecniche, giuridiche e organizzative poste dall’implementazione dell’IA negli uffici pubblici.
Se ti interessa, trovi qui info su docenti, programma, iscrizione e costi.
🙏 Grazie per averci letto!
Per ora è tutto, torniamo la prossima settimana.
Se la newsletter ti è piaciuta, sostienici: metti like, commenta o fai girare!





