🤖 L'IA è già a scuola, ora insegniamola! - Legge Zero #88
In tutto il mondo gli studenti stanno ritornando sui banchi di scuola. L'IA è già nelle loro tasche, ma sanno davvero utilizzarla? Cosa dovremmo insegnare loro per renderli adulti consapevoli?

🧠 Scrivere è pensare
Scrivere articoli scientifici non è solo riportare risultati, è anche un modo per scoprire nuovi pensieri e nuove idee.
Scrivere ci costringe a pensare, non nel modo caotico e non lineare in cui la mente normalmente vaga, ma in modo strutturato e intenzionale.
Scrivendo possiamo organizzare anni di ricerca, dati e analisi in modo efficace, identificando il messaggio principale e l’influenza del nostro lavoro. Questa non è solo un’osservazione filosofica, è supportata da evidenze scientifiche: ad esempio, la scrittura manuale può portare a una connettività cerebrale diffusa e ha effetti positivi su apprendimento e memoria.
Con queste parole inizia l’editoriale - pubblicato nel mese di giugno 2025 dalla rivista scientifica Nature Reviews Bioengineering - con l’inequivocabile titolo “Writing is thinking” (cioè “scrivere significa pensare”).
Pur riconoscendo che i LLM possono essere utili per migliorare la leggibilità, aiutare nella sintesi delle fonti e superare il blocco dello scrittore, il pezzo invita la comunità scientifica a non delegare completamente la scrittura alle macchine, per non perdere la riflessione e la creatività insite nel processo. Viene osservato poi che, se un articolo è generato interamente da IA, si corre il rischio di leggere i “pensieri” di una macchina invece che quelli del ricercatore, con rilevanti conseguenze anche sulla responsabilità e sull’autenticità del pensiero scientifico. Per non parlare dei limiti “noti” dei LLM, come la tendenza alle “allucinazioni” (generazione di contenuti errati o fantasiosi), e della maggiore difficoltà di revisionare e verificare articoli prodotti da IA rispetto a quelli scritti da esseri umani.
Nonostante questo - ne sono sicuro - alcuni dei ragazzi che riprenderanno la scuola in questi giorni penseranno che scrivere (magari per i compiti) non sia più un'attività necessaria per un essere umano, visto che ormai possiamo affidarla all'intelligenza artificiale.

Ma se è vero che “scrivere ci insegna a pensare”, allora la diffusione di strumenti di IA generativa tra gli studenti pone un interrogativo cruciale: se l’intelligenza artificiale può aiutarci in molti compiti (dalla scrittura alla risoluzione di problemi),cosa dovrebbe fare la scuola?
Prima di rispondere, vale la pena sottolineare che è stato già rilevato il fenomeno per cui i ragazzi usano l’IA molto più dei loro genitori: per cercare informazioni, per avere supporto emotivo e - ovviamente - per lo studio.
Negli USA, l’uso dell’IA tra gli adolescenti è ormai strutturale: già nel 2024 tra i 13–17 anni il 26% dichiarava di aver usato ChatGPT per i compiti (circa il doppio rispetto al 2023) e tra i 16–17enni la percentuale saliva al 31%, pur restando una maggioranza che non lo utilizzava. Nel Regno Unito, secondo i dati del Children’s Media Lives Tracker 2025 di Ofcom, il 54% dei ragazzi tra gli 8 e i 15 anni ha utilizzato almeno una volta un tool di IA generativa, dato che sale al 79% per i ragazzi tra i 13 e i 17 anni (tra gli adulti il dato relativo all’uso è il 33%, un vero e proprio age gap). In Italia, invece, secondo una ricerca condotta da Skuola.net ed Elis sugli studenti delle scuole superiori, il 51% dei ragazzi usa l'IA "molto spesso" o "spesso" (rispetto al 34% del 2024), mentre solo il 16% dei ragazzi non l'ha mai usata (rispetto al 25% del precedente anno). Questa ricerca contiene un altro dato interessante: l’81% dei ragazzi intervistati vorrebbe che l’IA fosse introdotta come competenza curriculare.
La risposta potrebbe sorprendere: il fatto che gli studenti usino già l’IA non significa che sappiano maneggiarla nel modo corretto né che sapranno usarla proficuamente quando entreranno nel mondo del lavoro per ritagliarsi un proprio spazio nella competizione con le macchine (competizione destinata ad essere sempre più proibitiva).
Perché mai la scuola dovrebbe “insegnare l’IA”, se già tantissimi studenti (e adulti) la usano spontaneamente? Le ragioni principali sono due: competitività e uso umano-responsabile. Competitività significa dare ai giovani le competenze per non restare indietro in un mondo del lavoro e della ricerca dove l’IA sarà centrale; uso responsabile significa fornire strumenti critici ed etici per governare la tecnologia ed evitare che la stessa possa essere utilizzata in modo dannoso per se stessi e per gli altri (umani).
È quindi necessario che la scuola insegni anche l’IA stessa (e il suo uso responsabile), così da mantenere centrale quel pensiero critico e quella creatività umana che - per ora - neanche il miglior chatbot può sostituire.
Ritorno a scuola (con l’IA)
Molti Paesi si stanno muovendo velocemente in questa direzione con strategie ad hoc, molto diverse tra loro, proprio a partire dall’anno scolastico appena iniziato.
🇨🇳 Dal 1° settembre, ad esempio, l’IA è diventata materia di studio obbligatoria per tutti gli studenti cinesi a partire dai sei anni (ne abbiamo parlato in LeggeZero #76). Si parte con almeno 8 ore l’anno di lezioni di IA alle elementari, per poi aumentare carico e complessità alle medie (introducendo programmazione, simulazioni e progetti pratici) e alle superiori (con moduli specialistici su machine learning, etica dell’IA, big data e cybersecurity). L’obiettivo dichiarato è duplice: da un lato colmare il digital divide interno dando a tutti gli studenti - di città e campagne - le stesse opportunità formative avanzate; dall’altro, preparare una generazione di professionisti che permetta alla Cina di consolidare la leadership globale nell’IA entro il 2030.
🇪🇪 In Estonia, invece, in questi giorni è partita l’attuazione del programma “AI Leap 2025”. Nella sua prima fase, l’iniziativa coinvolge circa 20.000 studenti delle classi terze e quarte delle scuole superiori e 3.000 insegnanti, che avranno accesso gratuito a una selezione di applicazioni didattiche basate su IA. Parallelamente, i docenti stanno ricevendo formazione intensiva per imparare a utilizzare al meglio questi strumenti. L’obiettivo è triplice: personalizzare i percorsi di apprendimento per gli studenti, ridurre i compiti amministrativi a carico degli insegnanti e raccogliere dati utili per migliorare le politiche educative. Nel 2026 è prevista una seconda fase che estenderà il programma anche alle scuole professionali, raggiungendo altri 38.000 studenti e 2.000 docenti.
🇺🇸 Negli USA - forse per rispondere all’iniziativa della Cina (principale rivale nella corsa globale alla supremazia nell’IA) - il Presidente Trump ha firmato un ordine esecutivo per integrare l’IA nell’istruzione con un’apposita strategia. Più recentemente, è scesa in campo direttamente la First Lady, Melania Trump, che ha lanciato una Task Force governativa sull’educazione all’IA e una sfida nazionale rivolta a scuole e studenti (la Presidential AI Challenge). L’obiettivo, nelle parole di Melania, è preparare i bambini d’America a quella che vede come “la più grande leva di progresso nella storia degli Stati Uniti”, guidandone la crescita con entusiasmo ma anche con attenzione alle tematiche di sicurezza.
I principali player tecnologici hanno risposto, sostenendo il programma. Microsoft ha deciso di fornire gratuitamente il suo Copilot AI (integrato in Office 365) a tutti gli studenti universitari USA per 12 mesi e finanzia con 1,25 milioni di dollari premi per insegnanti innovatori che usino l’IA in classe (uno per ogni Stato). Dal canto suo, Google ha annunciato che metterà a disposizione il suo modello Gemini for Education in ogni scuola superiore del Paese e investirà anche 150 milioni di dollari in tre anni in progetti per l’educazione all’IA e il benessere digitale. Anche Anthropic ha aderito alla strategia di Melania Trump investendo 1 milione di dollari in tre anni per il programma di cybersicurezza della Carnegie Mellon University e sviluppando un corso IA per la scuola dell’obbligo (i cui materiali saranno liberamente riutilizzabili in quanto rilasciati sotto licenza Creative Commons).
Leggendo le dichiarazioni dei soggetti che nei giorni scorsi hanno partecipato al primo incontro di questa taskforce emerge in modo chiaro che pubblico e privato sono impegnati - insieme - per migliorare, attraverso l’IA, l’efficacia del sistema educativo e mantenere la leadership tecnologica globale.
🇦🇪 Negli Emirati Arabi, a partire da questo anno scolastico, l'intelligenza artificiale diventa una materia obbligatoria in tutte le scuole pubbliche, dalla materna (cioè dai 4 anni) fino alle superiori, con un curriculum strutturato e progressivo che include anche aspetti etici e pratici.
🇩🇰 In Danimarca, invece, l’IA non è diventata ancora materia curriculare ma è stato annunciato in via sperimentale un progetto che consentirà agli studenti di utilizzare l’IA negli esami orali d’inglese (dal 2008 è già consentito poter usare internet nel corso degli esami). Durante la prova, gli studenti riceveranno l’argomento da trattare e avranno un'ora di tempo durante la quale potranno utilizzare tutti gli strumenti disponibili, inclusa l'IA generativa. Successivamente, dovranno sostenere la presentazione orale davanti a un esaminatore. L'obiettivo dichiarato è "preparare gli studenti nel miglior modo possibile per la realtà che incontreranno dopo la scuola".
🇮🇹 In Italia, il Ministero dell'Istruzione e del Merito ha recentemente emanato le Linee guida nazionali per l'introduzione dell'IA nelle scuole (DM n.166 del 9/8/2025), recependo i principi dell'AI Act europeo e adottando un approccio di graduale apertura all’uso di sistemi di intelligenza artificiale in ambito scolastico. Il documento - che approfondiremo più avanti in questa newsletter - è frutto della scelta di non vietare l'IA a scuola ma di governarla, riconoscendo che è già presente nelle tasche degli studenti e nei computer dei docenti. In particolare, le linee guida - pur non contenendo ancora alcuna indicazione sull’insegnamento dell’IA - puntano a incoraggiarne gli usi didattici virtuosi, imponendo paletti chiari per prevenire abusi, sempre nel rispetto del GDPR e del Regolamento Europeo sull’IA.
Insegnare l’IA o educare all’IA?
Tutte queste iniziative - sia pure molto differenti tra loro - dimostrano come sia sempre più diffusa la consapevolezza dell’importanza di insegnare l’IA a studenti e docenti.
Attenzione però a pensare che si tratti di una visione tecnocentrica. Tutt’altro. L’evoluzione dell’intelligenza artificiale e il suo crescente impatto sulla società ci impongono almeno tre livelli di insegnamento:
insegnare cos’è e come funziona l’intelligenza artificiale (ad esempio spiegare a grandi linee come un modello generativo impara dai dati, quali sono i suoi punti deboli, cosa sono le allucinazioni, ecc.), affinché gli esseri umani non la vivano come magia indistinta ma come prodotto dell’ingegno umano, con logiche e limiti specifici;
insegnare come usarla proficuamente, ovvero quali strategie adottare per ottenere risultati utili (saper fare le domande giuste a ChatGPT, scegliere gli strumenti appropriati per ciascun compito, valutare quando è opportuno/non opportuno delegare un’attività a un algoritmo;
insegnare come usarla in modo responsabile: un compito non può finire chiedendo la soluzione a un chatbot, lo studente va guidato a controllare la veridicità delle risposte, a confrontarle con altre fonti, a farsi domande sui possibili errori o bias, a comprendere se quell’uso dell’IA sta violando i diritti o la dignità di altri esseri umani (come per i deepfake). Nell’era del GDPR e dell’AI Act, anche l’educazione civica digitale merita, infatti, di essere aggiornata.
Insomma, per insegnare l’IA è necessario capire cosa vogliamo preservare e rafforzare tra le prerogative dell’essere umano. E la scuola, lungi dall’uscirne sminuita, può essere rafforzata da questa sfida: tornando a puntare sui processi cognitivi profondi (spirito critico, pensiero laterale, etica, lavoro di squadra) e lasciando alle macchine i compiti ripetitivi, potrebbe formare studenti preparati sia tecnicamente sia umanamente. Studenti capaci ancora di scrivere e, quindi, di pensare.
⚖️ Le Linee guida del Ministero per l’istruzione per l’introduzione dell’Intelligenza Artificiale nelle scuole
Come abbiamo anticipato sopra, il Ministro dell'Istruzione, con il Decreto Ministeriale n. 166 del 9 agosto 2025, ha introdotto all'interno della Piattaforma Unica un nuovo Servizio Digitale dedicato all’IA, con l’obiettivo di accompagnare scuole, studenti e famiglie verso un uso più consapevole dell’IA.
Il Servizio sarà operativo entro ottobre 2025 e si compone di due sezioni: la prima sezione è dedicata alle Linee Guida ministeriali sull’uso dell’IA, mentre la seconda offre una mappa nazionale delle sperimentazioni scolastiche e un'area riservata alle scuole per condividere progetti, compilare schede e checklist e accedere a strumenti metodologici.
In particolare, le Linee Guida forniscono una guida operativa per l'introduzione dell'IA nelle istituzioni scolastiche, richiamando principi fondamentali già indicati nell’AI Act, come la centralità della persona, la tutela dei diritti e della dignità, equità, trasparenza, sicurezza dei minori e protezione dei dati personali.
All’interno delle linee guida è proposto un modello di introduzione dell’IA che si basa su quattro pilastri chiave:
(i) i principi di riferimento ossia le regole generali che orientano l'uso dell'IA secondo i valori del sistema scolastico;
(ii) i requisiti etici, tecnici e normativi necessari per garantire trasparenza, sicurezza, affidabilità e conformità al GDPR;
(iii) il framework di implementazione, ovvero gli strumenti pratici che accompagnano le scuole dalla progettazione dei percorsi di IA fino alla valutazione dei risultati ottenuti;
(iv) comunicazione e governance, che assicurano che le direttive ministeriali siano costantemente allineate alle iniziative e ai progetti realizzati nei singoli istituti.
Un punto molto interessante riguarda l’attenzione rivolta a tutti gli attori operanti nella comunità scolastica dal dirigente allo studente. Infatti, per il dirigente scolastico, l’IA può rappresentare uno strumento strategico per ottimizzare processi routinari, supportare l’analisi dei dati decisionali, monitorare documenti programmatici, pianificare la formazione dei docenti, organizzare orari/spazi e migliorare la comunicazione con studenti, famiglie e territorio. Per il personale amministrativo, l’IA può semplificare le attività ripetitive, ridurre errori e migliorare l’efficienza, agevolando la gestione delle richieste, delle comunicazioni periodiche e dell’inventario dei beni, alleggerendo così il carico di lavoro. Anche i docenti possono sfruttare l’IA per personalizzare la didattica, creare materiali innovativi, organizzare attività extracurriculari, redigere valutazioni e supportare il tutoraggio collaborativo, stimolando il pensiero critico e la partecipazione attiva. Infine, gli studenti possono trarre beneficio da percorsi personalizzati, integrazione di risorse multidisciplinari, approfondimenti in tempo reale, feedback immediati e strumenti inclusivi, che favoriscono autonomia, curiosità e competenze digitali avanzate.
Le Linee Guida - pubblicate dopo un confronto con l’Autorità Garante per la Protezione dei dati personali - affrontano anche i rischi derivanti dall’utilizzo dell’IA e propongono azioni di mitigazione per ridurli, affinché l’IA diventi uno strumento trasversale a supporto della comunità scolastica, della didattica, della gestione amministrativa e dell’apprendimento.
⚖️ OpenAI introduce il “parental control” su ChatGPT (solo dopo essere stata coinvolta nel suicidio di un minore)
I ragazzi usano molto l’IA, non solo per lo studio. Spesso ricorrono ai chatbot come confidente o come supporto emotivo. E questo uso può essere pericoloso.
A tal proposito, se vi interessate di IA, sicuramente avrete letto che OpenAI è finita al centro di polemiche per il caso di un adolescente che si è tolto la vita dopo aver interagito lungamente con ChatGPT. La famiglia del ragazzo ha avviato un'azione legale contro il provider di IA per il ruolo che il chatbot avrebbe avuto nella tragedia.
Solo dopo questa notizia, OpenAI ha annunciato che nei prossimi giorni introdurrà il parental control sui propri prodotti. Le nuove misure permetteranno ai genitori di monitorare e limitare l'uso di ChatGPT da parte dei figli minorenni, inclusa la possibilità di impostare restrizioni sui contenuti, limitare il tempo di utilizzo e ricevere notifiche sull'attività. OpenAI ha inoltre implementato filtri più stringenti per identificare conversazioni potenzialmente dannose e indirizzare gli utenti vulnerabili verso risorse di supporto psicologico.
La tempistica dell'annuncio ha sollevato interrogativi sulla reattività dell'azienda: critici ed esperti di sicurezza digitale sottolineano come queste protezioni essenziali arrivino solo dopo un evento tragico, quando potevano essere integrate fin dal lancio pubblico della piattaforma. Il caso ha riacceso - anche negli USA - il dibattito sulla responsabilità delle aziende tech nel proteggere i minori online e sulla necessità di una regolamentazione più severa per l'intelligenza artificiale conversazionale, soprattutto quando interagisce con utenti vulnerabili.
Di sicuro, il parental control di OpenAI potrebbe diventare presto uno standard per tutti i chatbot IA.
💊 IA in pillole
Quale mondo del lavoro troveranno gli studenti tra qualche anno? Il Los Angeles Times riporta che gli USA nei primi otto mesi del 2025 hanno perso circa 892.000 posti di lavoro. La California è stata particolarmente colpita con 135.241 posti di lavoro in meno, principalmente nel settore tecnologico. Tra le cause cause principali ci sarebbe l’IA, menzionata come motivo di oltre 10.300 licenziamenti. Del resto, recentemente lo stesso CEO di Salesforce, Marc Benioff, ha confermato di aver licenziato 4.000 dipendenti del supporto clienti, riducendo il team da 9.000 a 5.000 persone grazie all’IA.
Uno studio della Stanford University, basato sui dati delle retribuzioni del lavoratori USA mostra che il calo dell’occupazione ha colpito i più giovani (lavoratori tra i 22 e i 24 anni). I ricercatori suggeriscono che i dipendenti alle prime esperienze siano i più colpiti dall’automazione portata dall’IA, sia con riferimento allo sviluppo software sia in relazione alle attività di assistenza. Invece, sono stabili o in crescita i dati relativi all’occupazione dei lavoratori con più esperienza.
Il mondo del lavoro sta cambiando. Ad esempio, questo articolo descrive il fenomeno per cui molti freelance stiano trovando nuove opportunità lavorative correggendo i difetti dei contenuti generati dall'intelligenza artificiale. Ad esempio, i grafici vengono ingaggiati per sistemare loghi generati dall’IA con linee sbagliate e testi senza senso, mentre gli scrittori sono chiamati a riscrivere articoli che suonano come troppo artificiali.
😂 IA Meme
Pare che i ragazzi non stiano utilizzando l’IA solo per i compiti…
📚 Consigli di lettura: gli effetti dell’IA sull'educazione (secondo una studentessa)
Cosa succede davvero quando l'intelligenza artificiale entra nelle aule scolastiche? Qual è l’impatto di ChatGPT & co. i sul modo di studiare dei ragazzi? A queste domande risponde "I'm a High Schooler. AI Is Demolishing My Education", un articolo pubblicato su The Atlantic e firmato da Ashanty Rosario, studentessa di ultimo anno in una scuola superiore pubblica di New York.
L'articolo offre una prospettiva dal campo: quella di chi vive quotidianamente l'invasione dell'IA nelle classi. Rosario racconta episodi concreti e preoccupanti: compagni che usano ChatGPT per studiare i classici della letteratura, trasformando discussioni che dovrebbero essere profonde e appassionate in esercizi di copia-incolla. O studenti che fotografano i compiti di matematica e li caricano sull'IA per ottenere soluzioni istantanee.
Il problema, spiega l'autrice, non è solo spacciare per propri gli output di un’IA, ma qualcosa di più profondo: la perdita dell'urgenza e del senso di sfida. Le scadenze hanno perso significato perché l'IA permette di completare qualsiasi compito in pochi secondi. È scomparsa quella "produttività frenetica" dell'ultimo minuto che tutti - almeno una volta - abbiamo provato. La mentalità dominante è diventata: "Perché preoccuparsi di imparare davvero quando puoi prendere un bel voto facendo fare tutto il lavoro a una macchina?"
Anche le attività extracurriculari non sono al sicuro. Rosario racconta come persino il team di dibattito della sua scuola - che considerava un rifugio per il pensiero critico - sia stato contaminato dall'IA, con studenti che usano chatbot per costruire argomenti e fare ricerche, svuotando di significato un'attività che dovrebbe sviluppare capacità argomentative personali.
L'autrice non demonizza completamente l'IA, riconoscendo che può essere utile come strumento di studio (per esempio per fare quiz di ripasso), ma avverte sui rischi a lungo termine: "Questa tecnologia sta producendo una generazione di eterni novizi, incapaci di pensare o agire da soli". La preoccupazione è che, abituandosi a delegare tutto all'IA, i ragazzi stiano perdendo competenze essenziali come la determinazione, il pensiero critico e la capacità di lavorare sotto stress.
Perché leggere questo articolo? Perché offre una testimonianza diretta di chi vive sulla propria pelle la rivoluzione dell'IA nell'educazione, andando oltre i dibattiti teorici per mostrarci la realtà quotidiana delle aule. È una lettura preziosa per genitori, insegnanti e chiunque si interroghi sul futuro dell'apprendimento. L’autrice propone anche soluzioni concrete: esami orali, compiti personalizzati legati all'attualità.
Si tratta di un grido d'allarme lucido e propositivo che merita l’attenzione di tutti (istituzioni, docenti, genitori e studenti) prima che sia troppo tardi per correggere la rotta.
📣 A grande richiesta, torna il Master di LeggeZero: ‘Il CAIO per la pubblica amministrazione’
Siete interessati alla figura del Chief AI Officer e volete approfondire i temi legati all’adozione dell’intelligenza artificiale nella pubblica amministrazione?
Dopo il successo della prima edizione, torna il nostro Master breve sull’IA nella PA. Il corso è dedicato a tutti coloro che vogliono guidare - magari proprio come CAIO - la sfida dell’intelligenza artificiale nelle pubbliche amministrazioni.
Il nostro corso, articolato in 6 appuntamenti dal 22 ottobre al 10 novembre 2025 (per un totale di 24 ore di formazione), affronta le complesse sfide dell'implementazione dell'IA negli uffici pubblici attraverso una prospettiva multidimensionale:
Aspetti tecnologici: strumenti e metodologie per l'adozione consapevole dei sistemi di IA.
Aspetti normativi: conformità alle regolamentazioni emergenti in materia di tecnologie digitali (dall’AI ACT al GDPR, passando per il CAD, le Linee Guida Agid e - ovviamente - la futura legge italiana sull’IA).
Aspetti organizzativi: strategie di governance dell'innovazione e gestione del cambiamento.
Particolarmente rilevante sarà il focus sull'evoluzione del ruolo del Responsabile per la Transizione Digitale (RTD), figura chiave nell'ecosistema dell'innovazione pubblica.
Non mancheranno esperienze e casi di studio per apprendere dai colleghi di altre amministrazioni buone prassi e errori da evitare.
Se vi interessa, trovate qui info su docenti, programma, iscrizione e costi.
🙏 Grazie per averci letto!
Per ora è tutto, torniamo la prossima settimana. Se la newsletter ti è piaciuta, sostienici: metti like, commenta o fai girare!




