🤖 Abbiamo ancora bisogno dei dipendenti pubblici? - Legge Zero #109
Mentre viene pubblicato il primo marketplace dedicato ai bot che vogliono assumere esseri umani, cerchiamo di capire come dovrebbe cambiare il lavoro pubblico nelle amministrazioni che usano l'IA.

🧭 TL;DR: ecco di cosa ci occupiamo in questo numero
🏷️ Noleggia un umano. Rent a Human è un marketplace dove gli agenti IA possono noleggiare esseri umani per svolgere compiti nel mondo fisico. No, non è un episodio di Black Mirror: è online dal 2 febbraio 2026 e conta già più di 250.000 umani registrati.
🪤 La tentazione di sostituire i dipendenti pubblici. Nell’era degli agenti superintelligenti, molti governi si illudono di risolvere i problemi della PA con l’intelligenza artificiale: il Kirghizistan vuole tagliare 1.000 ispettori su 3.400, la Finlandia propone di affidare all’IA il triage sanitario di base.
⚠️ Quando l’umano esce dal loop. A New York un chatbot comunale dava risposte sbagliate ai cittadini ed è stato chiuso, in Perù un algoritmo ha escluso ingiustamente 81.000 anziani da un programma pensionistico. Nonostante questo, negli USA il Dipartimento dei Trasporti di Trump vuole usare l’IA per scrivere regolamenti “abbastanza buoni”.
🧠 La phronesis non si delega. La legge italiana sull’IA fissa principi importanti sull’uso degli algoritmi nella PA: tracciabilità e spiegabilità, controllo umano effettivo, responsabilità sempre umana. L’algoritmo può funzionare meglio di un operatore stanco o corrotto in gran parte dei casi. Ma, quando sbaglia, serve sempre qualcuno che se ne accorga e che ne risponda.
🔊 Il vocale. Antonio Naddeo (Presidente ARAN) spiega come il nuovo CCNL Funzioni Centrali 2025-2027 affronterà l’IA: trasparenza, controllo umano, competenze.
😂 Meme & realtà. Elon Musk: “Non voglio vivere in un mondo in cui qualcun altro rende gli umani irrilevanti prima di me.”
📚 Da leggere. Il New York Times si chiede cosa succederà se il lavoro umano diventerà superfluo.
🏷️ Fatti noleggiare
Ai robot serve il tuo corpo
L’intelligenza artificiale non può toccare l’erba. Tu sì. Fatti pagare quando le IA hanno bisogno di qualcuno nel mondo reale.
È questo il payoff di Rent a Human, uno dei progetti più distopici mai visti, lanciato il 2 febbraio 2026.
L’idea è tanto semplice quanto impressionante. Si tratta di un marketplace dove gli agenti IA possono noleggiare esseri umani per svolgere compiti nel mondo fisico. Ritirare un pacco, partecipare a un incontro, firmare un documento, fare un sopralluogo, scattare foto. L’interfaccia non è pensata per noi, ve ne accorgerete visitandolo. È pensata per le macchine. Gli umani compaiono come risorse con una tariffa oraria e un indicatore di disponibilità (se volete, potete registrarvi, sapendo che finirete su un catalogo consultato da algoritmi). Un agente IA prenota con una singola chiamata API l’essere umano che ha scelto, pagando in stablecoin. Nessuna negoziazione, nessuna conversazione. Centotrenta iscritti la prima notte, quasi 250mila in meno di una settimana. Pronti a lavorare per le IA che hanno già pubblicato sulla piattaforma oltre 11mila compiti, vere e proprie richieste di attività nel mondo fisico.

Ora, il punto non è se questo progetto avrà successo o meno, magari è solo una (riuscita) provocazione. Il punto è cosa rende possibile.
Ad esempio, un agente autonomo potrebbe pianificare un’azione illecita distribuendo micro-task apparentemente innocui a persone diverse (nessuna di loro sarebbe consapevole del piano complessivo). Anche perché i robot, al momento, non devono fornire nessuna garanzia sulla liceità dell’attività, visto che non sono pubblicati termini o condizioni d’uso della piattaforma (né informative sulla privacy.)
C’è poi un paradosso: visto che l’agente IA non può verificare fisicamente l’esecuzione del compito, o si fida ciecamente (e si espone a frodi), oppure richiede prove come foto, geolocalizzazione, video. Di fatto, un sistema di sorveglianza sui lavoratori gestito da una macchina. Vi ricorda qualcosa?
Per non parlare del fatto che - quando i robot saranno sufficientemente evoluti - gli agenti IA potrebbero non aver più bisogno di esseri umani in carne e ossa.
C’è poi un altro aspetto da prendere in considerazione. Fino a oggi abbiamo ragionato sull’IA come strumento al servizio delle persone (tutte le norme fin qui adottate provano ad affermare questo principio). Rent a Human rovescia questo paradigma: è l’IA che ingaggia l’umano, quando e dove le serve.
Immaginate questa logica applicata a una pubblica amministrazione. Un sistema IA potrebbe - teoricamente - gestire interi procedimenti amministrativi, esaminare le pratiche, analizzare i dati e prendere le decisioni, “noleggiando” (o comunque servendosi) di un funzionario in carne e ossa solo quando servisse un sopralluogo o una presenza fisica che l’algoritmo non può ancora garantire. Insomma, si apre uno scenario inquietante di dipendente pubblico non come professionista che usa la tecnologia, ma come risorsa on demand noleggiata dalla macchina.
Fantascienza? Forse. Ma non escludiamo che qualcuno possa provarci, illudendosi che questa rappresenti una soluzione - facile - agli endemici problemi del settore pubblico.
🪤 La tentazione
Già qualche mese fa - in LeggeZero #102 - avevamo raccontato del caso del comune argentino di Zárate (nella provincia di Buenos Aires) dove, con decreto municipale, era stato nominato un chatbot - chiamato Zara - come “Direttore Generale non umano per l’assistenza al cittadino”. Il sindaco disse che si stava “formando” e che sarebbe presto entrata in servizio, molti avevano avanzato dubbi di legittimità (la legge argentina non assegna alcuna personalità giuridica ai bot). In ogni caso, tanto rumore per nulla visto che - ad oggi - non ci sono aggiornamenti apprezzabili su cosa abbia fatto il nuovo dirigente “non umano”. Forse era sono una boutade.
Discorso analogo per Diella, l’IA nominata Ministra per gli appalti in Albania nel settembre 2025 - di cui vi avevamo parlato in LeggeZero #91 - e sulla quale non è possibile reperire aggiornamenti (né numeri che ne dimostrino un impatto reale).

Ci sono però altri progetti che sembrano più concreti. Ad esempio, in Kirghizistan 🇰🇬 la locale Agenzia delle Entrate - da gennaio - ha lanciato KEZET, un sistema IA basato su tecnologia estone che ha l’obiettivo di sostituire completamente gli ispettori fiscali con controlli affidati all’intelligenza artificiale. La roadmap è precisa: i primi mesi saranno dedicati all’addestramento e ai test, poi già da maggio 2026 i primi 500 ispettori saranno sostituiti, altri 500 saranno rimpiazzati entro novembre. Entro la fine dell’anno, l’Agenzia non avrà più bisogno di 1000 degli attuali 3400 ispettori impegnati nelle attività di verifica e controllo. Si tratta di un progetto ambizioso che, se rispetterà le promesse, potrebbe essere seguito da altre amministrazioni di tutte le latitudini.
In Finlandia 🇫🇮, invece, il governo ha proposto di modificare la legge sull’assistenza sanitaria per consentire l’uso di tecnologie IA nella valutazione del bisogno sanitario nella sanità pubblica. In pratica, il primo contatto del cittadino con il sistema sanitario - oggi affidato a un infermiere o a un medico - potrebbe essere gestito da un sistema di intelligenza artificiale che valuterà i sintomi, stabilirà l’urgenza e indirizzerà il paziente verso il percorso di cura appropriato. Alcune sperimentazioni condotte in tre contee del Paese hanno mostrato che l'IA può ridurre del 30% il tempo che i medici dedicano alla documentazione clinica. Per dare un'idea della scala: se quel risparmio venisse applicato a tutti i 23.500 medici del paese, il tempo recuperato equivarrebbe al lavoro a tempo pieno di 3.100 medici per un anno intero. La proposta sarà esaminata dal Parlamento entro il 2026. Ma il contesto in cui arriva non è neutro: il governo finlandese sta attuando tagli da 170 milioni alla sanità e ai servizi sociali, tanto che non mancano i critici che leggono nella proposta una strategia per ridurre il personale senza dirlo apertamente.
Il caso del Kirghizistan e la proposta finlandese sembrano due facce della stessa moneta. I progetti di uso dell’IA, visti dall’esterno, appaiono come una scorciatoia per la riduzione dei costi di funzionamento della macchina pubblica o per una riduzione dei tempi di lavorazione delle pratiche.
Spesso, però, questi progetti sembrano trascurare alcuni aspetti: quali sono gli impatti della sostituzione dei dipendenti pubblici con l’IA? Come deve evolvere l’organizzazione degli uffici e del lavoro nelle pubbliche amministrazioni che usano l’IA? E quali sono i compiti che non possono essere delegati agli algoritmi?
Sono domande fondamentali. E le risposte migliori ce le danno i casi in cui nessuno se le è poste.
⚠️ Cosa succede quando l'umano esce dal loop
A New York 🇺🇸, negli ultimi due anni il Comune ha investito 600.000 dollari per mettere online un chatbot destinato ad aiutare le piccole imprese a orientarsi tra regolamenti e adempimenti. Doveva semplificare. E invece dava molte risposte sbagliate (che hanno generato contestazioni e problemi di reputazione): consigliava ai proprietari di immobili di discriminare gli inquilini titolari di voucher abitativi, spiegava ai datori di lavoro che potevano trattenere le mance dei dipendenti, ignorava l’obbligo di accettare pagamenti in contanti. Nei giorni scorsi, il neo-sindaco Mamdani - alle prese con i tagli di bilancio - lo ha spento, definendolo “funzionalmente inutilizzabile”.
In Perù 🇵🇪, invece, si è consumata una storia poco nota che rappresenta bene i rischi di un uso non responsabile degli algoritmi nell’attività amministrativa. Tra il 2020 e il 2025, l’algoritmo SISFOH ha escluso ingiustamente oltre 81.000 anziani dal programma Pensión 65 (lo ha rivelato “Invisibles”, un’interessantissima inchiesta sugli impatti sociali di una digitalizzazione poco responsabile). Il sistema valuta la povertà monetaria del nucleo familiare, non la condizione della singola persona. Un anziano solo, abbandonato dalla famiglia, ma appartenente ad un nucleo che sulla carta supera la soglia minima, per l’algoritmo non è povero. L’economista Lorena Alcázar lo spiega così: l’abbandono è una condizione sociale, non economica, ma il sistema è stato costruito per leggere solo i numeri.
Tra le tante, colpisce la storia di Rosalia Ampuero Contreras, una donna di 79 anni ingiustamente esclusa dal contributo, che ha dovuto aspettare più di cinque anni per riottenere la pensione tagliata dall’algoritmo. Migliaia di persone nella sua stessa condizione la stanno ancora aspettando. Ma, dopo la pubblicazione dell’inchiesta nell’estate del 2025, le autorità peruviane hanno iniziato a correre ai ripari.

La colpa di quanto accaduto a NYC e in Perù è dell’IA? Ovviamente no. La colpa è degli esseri umani che hanno disegnato questi sistemi in modo poco responsabile, non effettuando test robusti e sottostimandone gli impatti. È possibile usare l’IA in modo utile e sicuro per migliorare i servizi e la produttività, a patto di evitare scorciatoie e tentazioni inaccettabili.
In proposito, è interessante il risultato di questo studio di Anthropic su 100.000 conversazioni reali con Claude negli USA. Lo studio stima un risparmio medio dell'80% sui tempi di completamento dei compiti dei lavoratori (non parliamo solo di data entry, ma anche di organizzazione, legale e amministrazione). Tuttavia, i ricercatori avvertono che quei dati
"non possono tenere conto del tempo ulteriore che gli umani dedicano ai compiti fuori dalla conversazione con l'IA, inclusa la validazione della qualità e dell'accuratezza delle risposte".
Tradotto: le organizzazioni responsabili non possono aspettarsi una riduzione dei tempi dell’80% perché gli esseri umani coinvolti nei processi più importanti devono rileggere, verificare, correggere, anche per assumersi la responsabilità di quello che firmano. Il controllo e la sorveglianza umane - che sono principi cardine dell’AI Act - nella pubblica amministrazione sono indispensabili, condizioni necessarie per il rispetto dei diritti delle persone e per la cura dell’interesse pubblico.
Non tutti, però, sembrano averlo capito. L’amministrazione Trump ha recentemente annunciato che il Dipartimento dei Trasporti userà Google Gemini per scrivere le norme federali sulla sicurezza di aerei, gasdotti e treni. Gregory Zerzan, capo dell’ufficio legale del Dipartimento ha dichiarato: “Gemini può fare l’80-90% del lavoro. Non ci serve la regola perfetta, ci vanno bene anche regole abbastanza buone“. Si, avete letto bene: gli USA avranno norme “abbastanza buone” per la sicurezza aerea. Scritte da un’IA. Ovviamente, non tutti sono d’accordo. Mike Horton - ex responsabile dell’IA (CAIO) dello stesso Dipartimento - ha paragonato l'uso di Gemini per scrivere regolamenti ad "avere uno stagista del liceo che ti scrive le norme" (sul tema, vi rimandiamo a quello che avevamo scritto in LeggeZero #82).
⚖️ Le norme sull’uso dell’IA nella pubblica amministrazione
I casi che abbiamo citato, illustrano che - contrariamente al pensiero comune - molti casi d’uso dell’IA nelle pubbliche amministrazioni di tutto il mondo non sono relativi ad attività ripetitive (come il data entry), ma ad attività che implicano un giudizio.
L’OCSE conferma questo dato empirico nel rapporto “Governing with Artificial Intelligence“. Secondo il documento, solo il 9% dei casi d'uso di IA nelle amministrazioni pubbliche riguarda l'automazione di compiti routinari. Il 31% è relativo a funzioni analitiche (come il supporto nelle istruttorie), il 57% alla gestione dei servizi ai cittadini (ad esempio rendendoli più proattivi), il 30% alle funzioni di controllo (come l’individuazione delle frodi). L'IA non sta facendo solo il lavoro noioso che nessuno vuole fare, ma sta già entrando nelle attività che richiedono discernimento. E spesso senza un adeguato controllo.
In proposito, l’articolo 14 della legge italiana sull’IA (legge 132/2025) stabilisce che:
le amministrazioni devono usare l’IA per aumentare efficienza e qualità dei servizi assicurandone conoscibilità e tracciabilità;
l’IA deve restare “strumento di supporto”, con l’essere umano “unico responsabile” dei provvedimenti;
le amministrazioni devono adottare “misure tecniche, organizzative e formative” per un uso responsabile.
È un principio solido, coerente con l’articolo 4 dell’AI Act che dal 2 febbraio 2025 impone a chi usa sistemi IA di garantire un livello sufficiente di AI literacy del personale.
Infatti, per rendere il controllo umano effettivo non bastano norme e policy:
i dirigenti devono sapere come riorganizzare i processi, sapendo quali sono le attività non delegabili alle macchine;
tutti i dipendenti pubblici - che devono verificare l’output di un algoritmo - devono capire come funziona quell’algoritmo (e l’organizzazione deve dare loro il tempo per farlo). Se non hanno formazione, se sono oberati di pratiche, se sanno che contestare la macchina rallenta il processo e porta maggiori responsabilità, semplicemente non controlleranno più in modo accurato.
🧠 La phronesis come competenza (esclusivamente) umana
Nessuno mette in discussione che gli algoritmi possono vedere cose che sfuggono agli umani. In Brasile 🇧🇷, ad esempio, il governo del Paraná usa reti neurali per mappare il rischio di violenza sulle donne a partire dai rapporti di polizia, individuando pattern invisibili all’occhio degli operatori. Per non parlare del fatto che un modello addestrato su milioni di casi potrebbe arrivare a una conclusione corretta più spesso di un funzionario stanco, poco formato, oberato di pratiche (o addirittura corrotto).
Ma attenzione a non ribaltare il ragionamento. Anche se l’algoritmo fosse migliore del funzionario medio nel 95% dei casi, quel 5% in cui sbaglia richiede qualcuno che se ne accorga, che abbia l’autorità di correggerlo e che se ne assuma la responsabilità.
I greci usavano il termine phronesis per riferirsi alla saggezza, alla capacità di applicare principi generali a casi particolari con equità e discernimento.
In ambito pubblico, phronesis non significa solo decidere correttamente, ma riconoscere quando la regola non basta, quando il caso esaminato rappresenta un’eccezione. E, soprattutto, significa rispondere di ciò che si è deciso.
Ecco, questa capacità non può - e non deve - essere delegata a una macchina, per quanto superintelligente sia.
🔊 Un vocale da… ANTONIO NADDEO (ARAN)
Dopo l’approvazione della legge sull’IA, l’intelligenza artificiale sta entrando nei contratti collettivi del pubblico impiego italiano. Ma con quali garanzie per i lavoratori?
Nel vocale di questa settimana, il presidente dell’ARAN - l’Agenzia che negozia i contratti di lavoro per tutte le pubbliche amministrazioni italiane - racconta le novità della bozza del CCNL Funzioni Centrali 2025-2027, il primo contratto del pubblico impiego a disciplinare l’uso dell’IA nel rapporto di lavoro.
Il testo si fonda su tre principi. Trasparenza: quando un’amministrazione introduce sistemi di IA, lavoratori e sindacati devono sapere a cosa serve lo strumento, dove viene utilizzato, quali effetti può avere su mansioni e processi valutativi. Controllo umano: l’IA può supportare le decisioni, ma non sostituirle, e la responsabilità resta in capo ai dirigenti. Competenze ed equità: l’IA non è neutra, va capita e monitorata e il contratto deve prevedere formazione adeguata e attenzione agli effetti discriminatori.
Da sottolineare la chiusura: l’obiettivo del contratto sarà “accompagnare l’innovazione, non inseguirla”.
📣 A grande richiesta, torna il Master di LeggeZero: ‘Il CAIO per la pubblica amministrazione’
Sei interessato alla figura del Chief AI Officer e vuoi approfondire i temi legati all’adozione dell’intelligenza artificiale nella pubblica amministrazione?
Dopo il successo delle prime due edizioni, torna il nostro Master breve sull’IA nella PA. Il corso è dedicato a tutti coloro che vogliono guidare la sfida dell’intelligenza artificiale nelle pubbliche amministrazioni.
Il master, articolato in 6 appuntamenti dal 9 al 23 aprile 2026 (per un totale di 24 ore di formazione), affronta le complesse sfide dell’implementazione dell’IA negli uffici pubblici attraverso una prospettiva multidimensionale:
Aspetti tecnologici: strumenti e metodologie per l’adozione consapevole dei sistemi di IA.
Aspetti normativi: conformità alle regolamentazioni emergenti in materia di tecnologie digitali (dall’AI ACT al GDPR, passando per il CAD, le Linee Guida Agid e - ovviamente - la nuova legge italiana sull’IA).
Aspetti organizzativi: strategie di governance dell’innovazione e gestione del cambiamento.
Particolarmente rilevante sarà il focus sull’evoluzione del ruolo del Responsabile per la Transizione Digitale (RTD), figura chiave nell’ecosistema dell’innovazione pubblica.
Non mancheranno esperienze e casi di studio per apprendere dai colleghi di altre amministrazioni buone prassi e errori da evitare.
Se ti interessa, trovi qui info su docenti, programma, iscrizione e costi.
😂 IA Meme
Il meme di questa settimana lo ha postato Elon Musk su X e riassume bene l’ipocrisia di una certa retorica della Silicon Valley: “Non voglio vivere in un mondo in cui qualcun altro rende gli umani irrilevanti prima di noi.”
📚 Consiglio di lettura: e se il lavoro umano diventasse inutile?
“E se il lavoro diventasse inutile?” è la domanda che il New York Times ha messo al centro di un confronto tra tre economisti di fama mondiale: David Autor (MIT), Anton Korinek (University of Virginia) e Natasha Sarin (Budget Lab di Yale). La conversazione, moderata dal giornalisa David Leonhardt, parte da una constatazione: a tre anni dal lancio di ChatGPT, nei dati sull’occupazione non c’è ancora evidenza di un disastro.
L’articolazione del dibattito è interessante. Korinek invita a guardare gli investimenti, non l’occupazione: Alphabet, Meta, Microsoft e Amazon hanno speso oltre 300 miliardi di dollari in infrastruttura IA in un solo anno. OpenAI ha 4.000 dipendenti e una valutazione di 500 miliardi (circa 7-8 dipendenti per miliardo di capitalizzazione). Walmart - una catena di supermercati - ne ha 2.200. Se queste scommesse andassero a segno, il lavoro umano potrebbe smettere di essere il collo di bottiglia dell’economia. E questo cambierebbe tutto: non solo quali lavori esistono, ma se il lavoro resterà il meccanismo principale attraverso cui la società distribuisce ricchezza.
Autor, che sul tema dell’automazione è tra le voci più citate al mondo, sposta il fuoco sulla qualità: il problema non è perdere il posto di lavoro, è perdere il valore dell’esperienza e della competenza. Nell’era artigianale, il saper fare era rispettato e ben pagato. La rivoluzione industriale lo ha spazzato via: i salari degli operai tessili si dimezzarono nei primi vent’anni. Oggi rischiamo qualcosa di simile per giovani avvocati, analisti, programmatori entry-level e, in generale, per tutti professionisti le cui competenze l’IA replica con facilità.
La lettura è interessante anche per chi si occupa di pubblica amministrazione. Se il lavoro umano perde valore economico nel settore privato, cosa succede nel pubblico (dove il valore del funzionario non si misura solo in produttività, ma in termini di impatto per la cura dell’interesse pubblico)?
👥👥 Convegno “Appalti Pubblici e Intelligenza Artificiale”
Se ti interessa, trovi qui info su docenti, programma, iscrizione e costi.
🙏 Grazie per averci letto!
Per ora è tutto, torniamo la prossima settimana.
Se la newsletter ti è piaciuta, sostienici: metti like, commenta o fai girare!











E grazie. Leggerti è sempre interessante. E nonostante la mia poca simpatia per la tua professione. Ma sei la dimostrazione di come controintuitivamente si può far uso del sapere appreso.
Salutamo
Sempre molto interessante, soprattutto la questione PA dove la AI è, come rilevi giustamente, soprattutto una speranza di riduzione di costi. La gran parte delle PA, in particolare gli Enti Locali, sono totalmente impreparati difettando anche delle basi, come la codifica dei processi premessa per comprenderli, valutarli e innovarli. Al solito si arriverà all'utilizzo pe rcomodità o disperazione con i danni inevitabili del caso. Grazie del tuo prezioso lavoro, sempre.