🤖 Primo giorno di scuola (con IA) – Legge Zero #40
L’intelligenza artificiale è entrata nelle scuole dove sta trasformando il modo di apprendere. Ma istituzioni e docenti sono pronti? Formazione e policy possono guidare un'integrazione efficace.
🧠 A scuola di IA
Ormai ci siamo, le vacanze stanno finendo davvero: il primo giorno di scuola è alle porte per oltre 7 milioni di studenti.
Le emozioni che proveranno i ragazzi sono senza tempo, ma non c’è dubbio che gli strumenti usati dagli studenti del 2024 per studiare e fare i compiti saranno modernissimi.
Da un sondaggio condotto alcuni mesi fa nelle scuole italiane è emerso che
il 71% dei ragazzi dai 16 ai 18 anni usa l'IA per cercare informazioni, il 60% per fare i compiti, il 33% per imparare, il 18% per rispondere ai test, il 21% la usa come assistente personale (per scrivere e mail per esempio), il 13% per scrivere saggi.
(Fonte: RaiNews)
Insomma, l’IA è già nelle scuole di tutto il mondo e la velocità con cui i ragazzi hanno capito come utilizzare ChatGPT & co. è inversamente proporzionale a quella con cui le istituzioni stanno reagendo a questa nuova rivoluzione. Del resto, non è facile capire come inserire efficacemente queste tecnologie nell’attività scolastica. Nelle scorse ore, il Ministro dell’istruzione, Giuseppe Valditara, ha annunciato una sperimentazione che si terrà in 15 classi spalmate su quattro regioni (Calabria, Lazio, Toscana e Lombardia) dove l’IA sarà impiegata per la personalizzazione della didattica. Se la sperimentazione si chiuderà con risultati positivi sarà estesa ulteriormente.
In UK, invece, il Governo ha recentemente annunciato lo stanziamento di 4 milioni di sterline per un progetto che ha l’obiettivo di spingere le aziende tecnologiche a creare strumenti di IA capaci di ridurre il carico di lavoro degli insegnanti, aiutandoli ad esempio nella correzione dei compiti. Il Governo sta mettendo a disposizione programmi, materiali didattici, valutazioni (anonime ovviamente) in modo che i provider di IA possano addestrare i propri modelli su contenuti affidabili e certificati, riducendo errori e allucinazioni (qui un approfondimento pubblicato sul The Guardian in merito a questo progetto). Se tutti i tempi saranno rispettati, i primi risultati tangibili di questa politica saranno visibili nella primavera del 2025 (in chissà quale scenario tecnologico, vista la velocità con cui i fornitori migliorano le loro soluzioni).
Nel frattempo, non è possibile fare nulla? Dobbiamo comportarci come gli struzzi, fingendo che l’IA non stia già cambiando profondamente la vita di studenti e professori?
Non esattamente, un approccio ‘dal basso’ - in due step - è possibile e potrebbe essere utilissimo anche per il lavoro delle istituzioni, non solo in ambito scolastico.
Innanzitutto, è necessario lavorare sulla formazione di base sull’intelligenza artificiale, per studenti e docenti. ‘Cos’è un LLM e come funziona? Cosa sono le allucinazioni? Quali sono i limiti delle risposte fornite da un Chatbot?’ Se ponete a un adolescente queste domande, non è detto che conosca le risposte giuste. Un conto è saper usare un chatbot, un altro sapere come funziona.
Il secondo passaggio è l’adozione di policy, anche a livello di singolo istituto in attesa che ci siano quelle nazionali, in cui definire gli usi consentiti dell’IA e quelli vietati.
Questi documenti si possono scrivere in modo semplice e poco burocratico, come dimostra questo esempio che riportiamo qui sotto (in inglese) e che potrebbe essere un punto di partenza per chi vuole governare - e non subire - questo passaggio storico.
📔 I corsi di LeggeZero
A proposito di formazione (e di quanto sia importante non solo a scuola), il 24 settembre 2024 tornano i webinar di LeggeZero con un corso sull’AI Act dedicato alle pubbliche amministrazioni e ai loro fornitori.
🔊 Un vocale da… Alessandra Poggiani (CINECA)
Negli ultimi anni, il mercato dell'intelligenza artificiale, in particolare quella generativa, ha visto una crescita straordinaria. Nel vocale di questa settimana, il Direttore Generale di CINECA ci illustra come questa espansione sia strettamente legata alla disponibilità di infrastrutture sempre più potenti, come il supercomputer Leonardo, uno dei più potenti al mondo. Con una capacità di 250 PFlops, Leonardo viene impiegato per accelerare la ricerca scientifica, progettare nuovi farmaci e persino allenare LLM in italiano.
📰 Il MIT di Boston 🇺🇸 pubblica un database degli oltre 700 rischi legati all’impiego dell’IA
Cosa può andare storto con l’IA? Un gruppo di ricercatori del MIT (Massachusetts Institute of Technology) ha individuato e classificato oltre 700 tipologie di rischi connessi allo sviluppo e all’uso dell’intelligenza artificiale. Lo scopo del progetto è quello di fornire a decisori pubblici e operatori del settore uno strumento concreto a supporto dell’analisi e della gestione dei rischi legati all’IA, oltre che per identificare nuovi rischi non ancora documentati dai ricercatori. I risultati della ricerca sono stati resi disponibili nell’AI Risk-Repository, un database pubblico e in costante aggiornamento.
Le casistiche vanno da rischi già noti e attuali, come la generazione di contenuti fuorvianti e discriminatori o la violazione della privacy, fino a rischi sistemici di carattere socioeconomico e ambientale. Nel database sono stati censiti anche i rischi potenzialmente catastrofici per l’umanità, come la perdita di controllo sull’AGI (l’intelligenza artificiale generale che ancora non esiste) o sulle armi autonome e, persino, i rischi per il benessere dell’IA, come, ad esempio, la cancellazione di agenti artificiali intelligenti malfunzionanti.
📰 Negli USA 🇺🇸, lavoratori dell’industria dei videogiochi Vs. IA
Dopo quello di attori e sceneggiatori di Hollywood (di cui abbiamo parlato in LeggeZero #1) è in corso un altro sciopero di lavoratori che protestano per l’uso dell’IA. Si tratta di quello indetto dai lavoratori dell’industria dei videogiochi USA, ovvero gli umani che prestano immagine o voce ai protagonisti dei diversi videogames.
Dopo un mese di protesta, gli scioperanti - rappresentati dal sindacato SAG-AFTRA - hanno già raggiunto un primo risultato: l’accordo con 80 aziende di videogiochi sui termini relativi all'uso dell'intelligenza artificiale. In base a questo accordo, le voci e i movimenti dei performer non possono essere replicati dalle IA senza il loro consenso e senza un giusto compenso.
Ma la lotta non è ancora finita: lo sciopero continua nei confronti di grandi aziende come Disney, Warner Bros. ed Electronic Art Prodction che non hanno ancora accettato queste condizioni.
⚖️ UE 🇪🇺, USA 🇺🇸 e UK 🇬🇧 firmano trattato sull'IA del Consiglio d'Europa
Nei giorni scorsi, a Vilnius, Unione Europea, Stati Uniti e Regno Unito hanno firmato la convenzione del Consiglio d'Europa sull'intelligenza artificiale adottata dal Comitato dei Ministri del Consiglio d’Europa il 17 maggio scorso (ne scrivemmo in LeggeZero #25).
Questa convenzione rappresenta il primo accordo internazionale legalmente vincolante sull'IA, in linea con l'AI Act dell'UE. Il trattato stabilisce un approccio comune per garantire che i sistemi di IA rispettino i diritti umani, la democrazia e lo stato di diritto, promuovendo al contempo l'innovazione e la fiducia nelle nuove tecnologie.
Caratteristiche chiave del trattato:
Approccio basato sul rischio.
Principi per un'IA affidabile: trasparenza, robustezza, sicurezza, governance dei dati e protezione.
Trasparenza nei contenuti generati dall'IA e nelle interazioni con i sistemi IA.
Rafforzamento della documentazione, accountability e rimedi.
Sostegno all'innovazione sicura attraverso sandbox regolatori.
Obblighi di gestione del rischio e documentazione.
Meccanismi di supervisione delle attività IA.
Divieto per sistemi IA incompatibili con i diritti umani, la democrazia o lo stato di diritto.
La Convenzione sarà implementata nell'UE attraverso l'AI Act, assicurando regole armonizzate nel mercato europeo.
Questo segna un avanzamento significativo nella governance globale dell'intelligenza artificiale e rappresenta la conferma che il resto del mondo sta assumendo - come riferimento - i principi della regolazione europea (su questo punto, trovate un’interessante analisi di TechCrunch qui).
⚖️ Il Garante privacy olandese 🇳🇱 sanziona una società per aver realizzato illecitamente un database per il riconoscimento facciale
Clearview AI, una società statunitense operante nel settore del riconoscimento facciale, è stata recentemente sanzionata dall’Autorità olandese per la protezione dei dati con una multa di 30,5 milioni di Euro per gravi violazioni del GDPR, la normativa europea in materia di trattamento dei dati personali (il provvedimento può essere consultato qui).
Secondo il Garante olandese, l’azienda avrebbe utilizzato, senza consenso, miliardi di immagini raccolte da Internet con la tecnica dello scraping (di cui abbiamo parlato in LeggeZero #24) per alimentare un sistema di riconoscimento facciale. Agli individui identificati tramite queste immagini è stato assegnato un codice biometrico univoco che la società offre ai suoi clienti per "identificare rapidamente sospetti, persone di interesse e vittime, al fine di risolvere e prevenire crimini".
La sanzione si inserisce in un contesto di altre iniziative analoghe in Europa, intraprese ben prima dell’approvazione dell’AI Act che vieta il riconoscimento facciale, sia pur con limitate eccezioni (nel 2022 Clearview AI era stata sanzionata anche dal Garante privacy francese con una multa di 20 milioni di Euro).
⏮️ Update
Nuovo capitolo della saga giudiziaria “Autori Vs. Provider di IA” (v. LeggeZero #21, LeggeZero #24 e LeggeZero #32). Alcuni scrittori - tra cui Andrea Bartz, Charles Graeber e Kirk Wallace Johnson - hanno avviato una class action contro Anthropic. Secondo gli autori, infatti il LLM Claude sarebbe stato addestrato con un dataset open source chiamato “The Pile” al cui interno è presente una sezione denominata “Books3” che contiene una moltitudine di opere – anche di autori notissimi come Stephen King – piratate e pubblicate senza rispettare il copyright e i relativi diritti di sfruttamento economico delle opere.
Secondo l'accusa, Anthropic avrebbe utilizzato consapevolmente il materiale in questione, sfruttando inoltre contenuti provenienti da siti come Bibliotik, noti per condividere illegalmente materiale protetto da copyright. Se volete leggere l’atto introduttivo della controversia, lo potete scaricare qui (in inglese).
Se queste azioni giudiziarie dovessero essere accolte, i provider sarebbero in seria difficoltà. Pensate al risarcimento chiesto a OpenAI dal New York Times: oltre 7,5 miliardi di dollari (LeggeZero #6). Per questo motivo, sta prendendo piede la strategia di stipulare accordi con gli editori: costano poco (tra 1 e 5 milioni di euro) ed evitano i rischi del contenzioso (trovate un’analisi molto puntuale pubblicata da The Verge).
Spostandoci sul fronte dati personali, il Garante privacy irlandese (Data Protection Commission) ha archiviato il procedimento aperto nelle scorse settimane nei confronti di X che voleva addestrare la propria IA con i dati degli utenti europei (LeggeZero # 37). La decisione di archiviazione è arrivata dopo l’impegno preso da X di rinunciare a utilizzare i dati degli iscritti per finalità di addestramento. In ogni caso, l’Autorità irlandese ha chiesto a tutti gli altri Garanti europei di prendere una posizione congiunta sulle questioni privacy cruciali per l’addestramento di un modello IA in modo da chiarire ai provider cosa possono fare e cosa è vietato (se ricordate, ne avevano parlato anche Zuckerberg ed Ek nell’editoriale su The Economist di cui abbiamo scritto in LeggeZero #38).
Ci siamo occupati più volte di quanto sia veloce l’evoluzione dei robot umanoidi (ne abbiamo parlato ad esempio in LeggeZero #32 e LeggeZero #37). L’ultimo arrivato - in ordine di tempo - è NEO della 1X Technologies, progettato per l'assistenza domiciliare e con capacità simili a quelle umane in termini di movimento e interazione (comunica con il linguaggio del corpo). Se, guardando il video, avete l’impressione che si tratti di una persona in carne e ossa… non siete gli unici.
😂 IA Meme
L'intelligenza artificiale ci promette di liberare tempo... che useremo per risolvere i problemi che crea?
😂 IA Meme che non lo erano
I Dor Brothers, gruppo di creativi che lavora con strumenti di IA, ha testato le potenzialità di Grok (l’IA di X) per creare un video ‘satirico’ che rappresenta Elon Musk, Mark Zuckerberg, Kamala Harris, Joe Biden, Vladimir Putin e Papa Francesco mentre brandiscono armi o saccheggiano negozi.
Alzi la mano chi, dopo averlo guardato, non ritiene urgente la regolamentazione dei deepfake.
📚 Consigli di lettura: le 100 persone più influenti nell’IA secondo Time
Time ha pubblicato ‘TIME 100 AI’ la lista aggiornata delle persone più importanti al mondo nel settore dell’intelligenza artificiale.
La lista - divisa in quattro categorie (leaders, innovators, thinkers e shapers) - è un’interessante lettura per conoscere protagonisti ancora poco famosi come la quindicenne Francesca Mani, attivista per la tutela delle vittime di deepfake, e il 77enne Andrew Yao, uno dei più importanti informatici cinesi, che lo scorso autunno ha chiesto l’istituzione di un organismo di regolamentazione internazionale per l'IA.
Alcune scelte possono far discutere: c’è Scarlett Johansson, non pervenuto Elon Musk. L’unico italiano in lista è Silvio Savarese di Salesforce.
📣 Eventi
ComunicherAI: AI act e copyright - Webinar, 11.09.2024
Il tempo delle donne - Milano, 13/15-09.2024
Dreamforce - San Francisco (USA) - 17/19.09.2024
🙏 Grazie per averci letto!
Per ora è tutto, torniamo la prossima settimana. Se la newsletter ti è piaciuta, commenta o fai girare.