🤖 Un anno paradossale – Legge Zero #55
Anthropic ha assunto un ricercatore con il compito esclusivo di occuparsi del benessere dell'IA. È solo l'ultimo paradosso del 2024, anno in cui il mondo ha scoperto la necessità di regole per l'IA.
🧠 Cosa è successo nel 2024?
Voglio essere il tipo di persona che si preoccupa, in anticipo e sul serio, della possibilità che una nuova specie/tipo di intelligenza abbia propri interessi e una propria morale.
C'è anche un aspetto pratico: prendere sul serio gli interessi dei sistemi di IA e trattarli bene potrebbe rendere più probabile che ricambino il favore se/quando saranno più potenti di noi.
Con queste parole il ricercatore Kyle Fish, qualche mese fa, aveva spiegato su un forum perché ha deciso di occuparsi di ‘AI welfare’ (letteralmente ‘benessere dell’IA’). Un post da leggere con attenzione dopo aver saputo che - nelle scorse settimane - Fish è stato assunto da Anthropic (il provider del chatbot Claude) per occuparsi proprio del benessere delle IA sviluppate dalla società. In parole povere, il suo compito sarà quello di fare in modo che l’IA venga trattata con rispetto e in modo da non urtare la sensibilità che svilupperà. Insomma, quella dei diritti dell’IA (di cui abbiamo parlato in LeggeZero #54) non sembra essere una provocazione in Silicon Valley dove sono convinti che questo tema, tra 10 anni, sarà più importante del benessere degli animali o del cambiamento climatico.
Si tratta di uno scenario che - per quanto remoto - inizia a sembrare sempre più vicino dopo quanto reso noto dagli stessi provider di IA su test in cui i modelli, deliberatamente, imbrogliano i loro sviluppatori, fingendo di allinearsi alle istruzioni ricevute ma, in realtà, mantenendo i loro obiettivi originari (dopo che OpenAI ha reso noto questi risultati per ChatGPT, recentemente anche Anthropic ha fatto lo stesso per Claude).
Tuttavia, leggere che i provider si stanno occupando del benessere delle IA suona alquanto paradossale, se non addirittura ironico. In un anno – come quello che sta per concludersi - in cui l’IA ha dimostrato il suo potenziale dirompente, e non sempre in senso positivo, preoccuparsi dei diritti di un chatbot sembra, allo stesso tempo, visionario e miope.
L'idea che un'IA possa meritare considerazione morale ha indubbiamente un suo fascino etico, ma ci invita anche a riflettere su chi sia davvero al centro delle nostre priorità. Come possiamo parlare del welfare dei sistemi di IA quando, nello stesso anno, abbiamo assistito a violazioni rilevanti dei diritti degli esseri umani determinate dalle IA? Dallo scraping selvaggio di dati personali e contenuti protetti da diritti d’autore, al ruolo delle IA generative nella creazione di disinformazione e nelle discriminazioni di genere, fino agli algoritmi che decidono chi può accedere a servizi essenziali, il 2024 ci ha mostrato le tante ombre della rivoluzione tecnologica.
Eppure, c’è qualcosa di potente nella decisione di Anthropic. Questa scelta solleva una domanda cruciale: come regolare l’IA per evitare distopie? Se da un lato ci preoccupiamo che l’IA ‘non si rivolti contro di noi’, dall’altro siamo noi a costruirla, programmarla e, spesso, usarla in modi che amplificano disuguaglianze e ingiustizie. La domanda da cui partire, quindi, non deve essere se le IA meritino diritti, ma quali doveri abbiamo verso gli esseri umani e l’ambiente sociale che queste tecnologie plasmano.
Guardando indietro al 2024 delle regole dell’IA vengono in mente tre parole chiave: complessità, conflitti, consapevolezza.
Complessità
In tutto il mondo cominciano ad esserci norme specifiche in materia di intelligenza artificiale. L’AI Act dell’Unione Europea ambisce a essere l’esempio globale di regolazione dell’IA, ma - pur essendo entrato in vigore il 1° agosto - è ancora lontano dall’avere un impatto tangibile e, stando agli ultimi annunci prenatalizi dei provider, potrebbe diventare pienamente applicabile quando la AGI, la superintelligenza artificiale, sarà già stata raggiunta.
È un punto sempre più evidente: gli operatori di mercato sono velocissimi a sviluppare, presentare e distribuire soluzioni sempre più sofisticate. Legislatori, autorità e istituzioni fanno molta fatica a stare al passo. E l’Italia non fa eccezione, nonostante il G7 in cui i grandi della terra si sono confrontati su opportunità e rischi dell’IA.
Conflitti
L’anno si è aperto con la notizia della causa promossa dal New York Times contro OpenAI per la violazione del copyright, solo una - forse la più importante - delle decine di controversie giudiziarie promosse in tutto il mondo contro i provider di intelligenza artificiale. Ma non è solo lo scontro tra vecchia e nuova economia, come dimostrano le azioni legali contro gli impatti che le IA hanno su privacy e benessere psicologico dei minori.
Ci sono poi le prime sanzioni delle Autorità (come quella del Garante Privacy italiano a ChatGPT) e un dibattito pubblico sempre più partecipato su quali regole siano indispensabili e quali frenino l’innovazione. Un dibattito che, ancora una volta, vede protagonista l’UE ma che - come sanno bene i lettori di LeggeZero - è animatissimo anche nella Silicon Valley.
Consapevolezza
Nonostante tutto, il 2024 ci ha anche regalato una non scontata consapevolezza. Istituzioni, aziende e società civile sembrano finalmente convergere sulla necessità di norme sull’IA e sulla opportunità di una collaborazione pubblico-privato. Questo dialogo, seppur embrionale e imperfetto, deve essere un punto fermo per il futuro.
Insomma, il 2024 - che sarà ricordato anche per il Nobel al padrino dell’IA - è stato un anno di domande più che di risposte. Ed è proprio da queste domande che dobbiamo partire per risolvere i problemi che abbiamo scoperto settimana dopo settimana, costruendo un futuro in cui l’IA sia al servizio degli esseri umani (e non il contrario).
Nel 2025, LeggeZero proverà a continuare il complesso racconto di questa rivoluzione, con lo stesso impegno a essere una guida tra complessità, conflitti e consapevolezza.
🔊 Un vocale da… Riccardo Luna
Mai come ora il rapporto degli esseri umani con il progresso dell’IA è sospeso tra ottimismo tecnologico e cautela esistenziale.
Siamo ad un bivio, come ci spiega - nel messaggio di questa settimana - uno dei più autorevoli giornalisti ed esperti italiani in materia di tecnologia, facendo un grande regalo a noi e a tutti i lettori di LeggeZero. Un messaggio che fa riflettere: nulla è ancora compiuto in modo inesorabile, sta a noi fare in modo che queste nuove (e mirabolanti) tecnologie vengano usate per migliorare le nostre vite e non come strumento di oppressione.
📰 L'Open Data Institute valuta la trasparenza dei principali modelli di IA (e i risultati non sono esaltanti)
La trasparenza è uno dei principi etici in materia di IA su cui tutti (o quasi) dicono di essere d’accordo. Un principio che è - tra l’altro - alla base di molte delle norme in materia di IA, come l’AI Act. Ma cosa significa trasparenza in concreto e, soprattutto, quanto sono trasparenti i provider delle IA che tutti utilizziamo?
Per rispondere a questa domanda l'Open Data Institute (ODI) ha pubblicato il report Building a User-Centric AI Data Transparency Approach, un'analisi approfondita che esamina la trasparenza nella gestione dei dati dei 22 principali modelli di intelligenza artificiale attraverso il nuovo AI Data Transparency Index (AIDTI). L'obiettivo è capire quanto le pratiche di trasparenza siano allineate alle esigenze degli utenti e promuovere un approccio più responsabile.
La classifica
solo 5 modelli hanno raggiunto un livello di maturità “alto” per la trasparenza, grazie a documentazione dettagliata e facilmente accessibile;
6 modelli si sono classificati con maturità “media” (tra questi Claude e Llama);
ben 11 modelli hanno mostrato maturità “bassa”, presentando poca chiarezza o informazioni di qualità insufficiente (ci sono tutti i principali modelli come Grok, Gemini e ChatGPT).
Le criticità principali
mancanza di trasparenza sulla catena di approvvigionamento dei dati con cui sono addestrate le IA;
poche informazioni sulla presenza di contenuti protetti da copyright e dati personali nei dataset di addestramento;
scarsa documentazione sugli impatti ambientali, nonostante crescano le preoccupazioni per l’elevato consumo energetico dell’IA.
Il report rappresenta un richiamo per tutto il settore: servono standard più elevati (e rigorosi) di trasparenza e un impegno concreto per costruire fiducia nell'IA. Senza trasparenza, infatti, non è possibile garantire sistemi equi e sicuri.
È possibile scaricare il report completo (in inglese) qui.

📰 Dal Congresso USA 🇺🇸 un documento bipartisan sulla regolamentazione dell’IA (ma nessuna proposta concreta)
Il Congresso americano ha fatto un passo importante, ma cauto, sulla regolamentazione dell'IA. Una task force bipartisan della Camera dei rappresentanti ha pubblicato un rapporto di 253 pagine con l’individuazione 66 punti chiave e di 89 raccomandazioni per promuovere l'adozione responsabile e l'innovazione nel campo dell'IA negli Stati Uniti.
Ecco i pilastri del rapporto.
Governance: adozione di standard di settore, rafforzamento della sicurezza nazionale, protezione dei diritti civili e sviluppo di politiche per la privacy e la gestione sicura dei dati.
Ricerca e innovazione: promozione di collaborazioni pubblico-privato, trasferimento tecnologico e sviluppo di standard internazionali.
Educazione e lavoro: necessità di colmare il divario nelle competenze STEM, con un'attenzione particolare all'alfabetizzazione sull'IA e alla formazione di chi corre il rischio di perdere lavoro.
Sostenibilità: gestione dell'impatto ambientale dei data center e promozione di soluzioni efficienti.
Le priorità identificate dalla task force - che è già in contatto con lo staff del Presidente Trump - includono la protezione dei dati personali e il contrasto ai deepfake non consensuali.
Tuttavia, a differenza dell'approccio europeo con l'AI Act, dal documento emerge in modo chiaro che gli USA procederanno gradualmente, settore per settore, senza l’adozione di una normativa organica.
È significativo che il gruppo abbia evitato di formulare proposte di legge specifiche: quando hanno provato a discutere i dettagli, infatti, sono emerse divergenze che rischiavano di compromettere la collaborazione bipartisan.
Il documento può essere scaricato qui (in inglese).
⚖️ Alla fine il Garante Privacy 🇮🇹 ha sanzionato OpenAI per ChatGPT per 15 milioni di euro
Ricordate il provvedimento - che destò scalpore a livello mondiale - con cui il Garante Privacy bloccò ChatGPT in Italia? Era il 30 marzo 2023, LeggeZero ancora non era nata, OpenAI non era ancora sbarcata in Europa e il mondo stava scoprendo l’IA generativa. Nei giorni scorsi - dopo un anno e mezzo - il Garante Privacy ha chiuso quell’istruttoria con l’adozione di un provvedimento correttivo e sanzionatorio.
Secondo il Garante, la società statunitense responsabile dello sviluppo e gestione di ChatGPT non ha notificato all’Autorità un data breach avvenuto a marzo 2023 e ha utilizzato i dati personali degli utenti per l’addestramento di ChatGPT senza definire preventivamente una base giuridica adeguata. Inoltre, ha violato il principio di trasparenza, omettendo di fornire agli utenti informazioni chiare e complete sul trattamento dei loro dati nell’ambito delle attività di addestramento del modello di IA. Infine, OpenAI non ha implementato sistemi di verifica dell’età, esponendo così i minori di 13 anni al rischio di ricevere risposte non appropriate al loro livello di sviluppo e consapevolezza.
Per questi motivi, il Garante ha sanzionato OpenAI con una multa di quindici milioni di euro calcolata anche ‘tenendo conto dell’atteggiamento collaborativo della società’ e ha imposto al colosso dell’IA di realizzare una campagna di comunicazione istituzionale di 6 mesi su radio, televisione, giornali e Internet. L’obiettivo della campagna sarà spiegare come funziona l’addestramento dell’IA generativa e come chiunque può opporsi all’addestramento dei modelli con i propri dati (ricordate David Meyer?).
Questo provvedimento ha un'importanza che va oltre i confini nazionali, poiché rappresenta uno dei primi precedenti di un’Autorità europea su questi temi.
Se volete leggere il provvedimento (in italiano) lo trovate qui. Nel video, invece, uno dei componenti del Garante - l’avvocato Guido Scorza - spiega la sanzione nel podcast di Matteo Flora.
⚖️ La Commissione Europea 🇪🇺 ha pubblicato la seconda bozza del Codice di condotta per i fornitori di modelli di IA generativa
Procedono a ritmi serrati i lavori per la piena attuazione dell’AI Act. Nei giorni scorsi, la Commissione Europea ha pubblicato la seconda bozza del Codice di condotta per l’IA con finalità generale, redatta da esperti indipendenti selezionati dall’AI Office (della prima bozza avevamo scritto in LeggeZero #50). Il documento sembra più dettagliato rispetto alla versione precedente, merito anche degli oltre 350 contributi ricevuti nel corso della consultazione pubblica durata (solo) due settimane.
Obiettivo del Codice di condotta
Garantire un'applicazione omogenea e rigorosa degli obblighi dell'AI Act, migliorando trasparenza e gestione dei rischi sistemici.
Contesto normativo
La bozza mira ad attuare gli articoli 53 e 55 dell'AI Act, fornendo linee guida specifiche per i fornitori di modelli IA, in particolare quelli classificati come ad alto rischio sistemico.
Punti chiave del documento
Trasparenza: definizione degli obblighi di documentazione e di pubblicazione per promuovere fiducia e comprensione da parte degli utilizzatori.
Rischi sistemici: introduzione di una tassonomia per identificare e mitigare i rischi, tra cui manipolazioni su larga scala e perdite di supervisione umana.
Mitigazione dei rischi: misure tecniche e di governance necessarie per affrontare rischi specifici.
Copyright: linee guida per garantire il rispetto dei diritti d’autore.
Prossime tappe
È possibile inviare ulteriori feedback alla Commissione Europea fino al 15 gennaio 2025.
Una nuova bozza del documento dovrebbe essere pubblicata a febbraio del prossimo anno, mentre la versione finale del Codice dovrebbe essere adottata a maggio 2025.
Il testo della seconda versione è disponibile qui (in inglese).
😂 IA Meme
Nell’anno appena trascorso, i meme sull’IA sono stati spesso utilizzati dai protagonisti del settore per spiegare alcuni concetti o prendere posizione (ricorderete quelli sulla legge californiana sui rischi catastrofici dell’IA che è stata bocciata dal Governatore Newsom di cui abbiamo parlato in LeggeZero #31).
Nelle scorse ore, Elon Musk (l’uomo più ricco del mondo, nonché imprenditore nel settore dell’IA e uomo di punta della futura amministrazione USA targata Trump) ha condiviso questo meme sui rischi della superintelligenza artificiale. Divertente, forse… ma se le cose stanno così non servirebbero regole e sorveglianza globali?

😂 IA Meme 2
In questi giorni impazzano le previsioni sull'IA per il 2025: dalla superintelligenza all'apocalisse lavorativa. Ma se l'ansia vi assale, ricordate che nel mondo tech le previsioni hanno spesso vita breve e destini beffardi. Lo dimostra questo meme.

🎅 All AI want for Christmas
Visto che Natale è alle porte (e LeggeZero farà una piccola pausa fino al nuovo anno), abbiamo pensato di segnalarvi qualche link in tema con le festività.
Se siete a corto di idee per i regali natalizi, potete provare con questo chatbot che può darvi consiglio. Ma attenzione: una giornalista di Wired, Lauren Goode, ha provato a fare solo gli acquisti consigliati da chatbot di IA (da ChatGPT a Gemini) e non è sodisfatta (qui spiega perché).
Sicuramente potete trovare molti regali ‘potenziati dall’IA’, come questa culla - Cradlewise - che, grazie all’intelligenza artificiale, si accorge se il bambino si sta svegliando e prova a riaddormentarlo, muovendosi autonomamente e mettendo la musica preferita del pargolo, senza che i genitori debbano alzarsi dal letto. Promette di far dormire mamma e papà almeno due ore in più ogni notte e costa più di 1.300 dollari.
Se volete fare una videochat con Babbo Natale (in realtà con il suo avatar) potete cliccare qui. Grazie all’IA, il Santa Claus generato da Tavus.io (azienda che crea ‘gemelli digitali’) parla anche in italiano, ma può dedicarvi solo cinque minuti. Potete raccontargli se siete stati buoni o cattivi, cercando di meritare i regali che desiderate. Se non credete più a Babbo Natale, leggete l’informativa privacy e scoprirete che la chat è gratuita ma viene utilizzata per addestrare il loro modello. Il servizio è destinato agli adulti (maggiorenni) anche se non sono implementati sistemi di verifica dell’età (insomma, con un clic possono accedere anche i bambini).
IA o realtà? BBC ha realizzato un gioco con cui potete mettervi alla prova e capire se siete in grado di riconoscere un deepfake.
AI or real? - BBC
📚 Consigli di lettura e visione per le festività (per tutti i gusti)
Non abbiamo molti dubbi, il libro dell’anno (e per questo non ve lo avevamo ancora consigliato) è ‘Nexus - Breve storia delle reti di informazione dall’età della pietra all’IA’ di Yuval Noah Harari. È un testo complesso (612 pagine) ma lucidissimo e illuminante. Si tratta di un contributo fondamentale al dibattito sull'IA, anche nelle sue parti più narrative dove Harari abbandona il tono apocalittico per esplorare casi concreti (dall'uso del riconoscimento facciale in Iran alle manipolazioni algoritmiche che hanno contribuito alle violenze in Myanmar). Spoiler alert: anche per Harari per evitare che l’evoluzione tecnologica si trasformi in catastrofe, servono regole e istituzioni in grado di intervenire tempestivamente. E serve anche saperle raccontare bene queste norme, perché la storia dell’innovazione senza limiti non risulti più sexy di quella della protezione dei diritti e delle libertà. Insomma, un libro da leggere assolutamente per partecipare in modo informato alle discussioni sullo stato dell’IA (e della nostra società).
Quali sono gli ambiti in cui gli esseri umani hanno (ancora) un vantaggio sull’intelligenza artificiale? L'IA ha già superato l'uomo in molti campi, dagli scacchi alla traduzione linguistica. Tuttavia, quando si tratta di emozioni, gestione della complessità, interazione fisica col mondo e creatività autentica, gli esseri umani mantengono un netto vantaggio secondo l’articolo pubblicato da Marc Zao-Sanders su Harward Business Review. Secondo la visione - forse un po’ troppo semplicistica dell’Autore - il futuro non sarà una competizione tra umani e IA, ma una collaborazione in cui la tecnologia potenzierà le capacità umane. Da leggere se siete alla ricerca di un po’ di ottimismo.
Come sarà la pubblica amministrazione nell’era dell’IA? In PAntascienza, una raccolta di 15 racconti, trovate la risposta ironica e provocatoria di alcuni addetti ai lavori (tra cui molti amici di LeggeZero) che - per l’occasione - sono diventati scrittori per immaginare la pubblica amministrazione del futuro. Da leggere per chiedersi se un’altra PA, diversa da quella che conosciamo, è davvero possibile. A prescindere dalle tecnologie.
Ex Machina è un film del 2015 che ha vinto il premio Oscar per i migliori effetti speciali. Merita di essere rivisto per capire che tutto quello che poco tempo fa era fantascienza, oggi è realtà. Abbiamo intelligenze artificiali che superano il Touring Test e hanno imparato a mentirci. E grazie a Figure, Tesla e numerose altre aziende, abbiamo robot androidi che possono comportarsi e lavorare come gli umani. In soli 9 anni, la finzione è diventata quotidianità. Da vedere (lo trovate su alcune piattaforme di streaming) per capire che è urgente agire per evitare che si avveri anche il finale del film.
💬 Il dibattito sull’IA (e messaggi di fine anno)
Il Presidente della Repubblica, Sergio Mattarella è tornato a parlare di IA in occasione di due recenti incontri pubblici. Lo ha fatto, toccando - senza toni apocalittici o integrati - due aspetti fondamentali.
Governance dell’IA (nel messaggio di auguri al corpo diplomatico)
Lo sviluppo dell’Intelligenza Artificiale pone sfide nuove anche su questo terreno. Per un’obiettiva visione del mondo occorre sapere che essa non basta a sé stessa e non è neutrale. Fondamentale è un suo sviluppo inclusivo, di cui possano beneficiare tutti i popoli. Le scoperte e gli sviluppi in questo ambito non possono essere monopolio privato.
La loro governance non può essere affidata soltanto al mercato o al potere di pochi. È necessario che le istituzioni sappiano farne un “bene comune”, incanalandone le potenzialità in modo coerente con progetti di vita collettiva e di relazione.
Ancora una volta il mondo si trova di fronte alla scelta tra soluzioni transattive – precarie perché dipendenti dai rapporti di forza del momento - e soluzioni basate sulla ricerca del dialogo per regole condivise.
Riserva di umanità (nel messaggio di auguri ai rappresentanti delle istituzioni)
Vorrei dire ai più giovani, che governeranno il futuro: quel che sta cambiando attorno a noi presenta un grande fascino. Le possibilità offerte dalle tecnologie digitali, l'intelligenza artificiale, l'idea di una 'connessione' permanente che ci fanno sentire al centro del mondo. Tutto questo apre potenzialità straordinarie, positive, di grande valore, a condizione che non perdiamo la misura della nostra umanità. E la nostra umanità si esprime anzitutto in relazione. Nel vivere insieme agli altri. Nel condividere. Nel fare comunità. Le nostre democrazie hanno bisogno di questa umanità, di queste relazioni, di rinnovata partecipazione che torni ad animare e a dare valore allo spazio pubblico, alla dimensione comunitaria. E' questa l'unica, impegnativa e concreta alternativa alle lacerazioni delle nostre società, allo svuotamento di senso, alla disaffezione, alle mille solitudini che abitano le nostre città.
Grazie Presidente per queste parole ‘giuste’!
📣 Eventi
AI Regulation Summit - Londra, 27.01.2025
Artificial Intellicenge Action Summit - Parigi, 10-11.02.2025
Generative AI Summit - Londra, 1-2.04.2025
🙏 Grazie per averci letto e auguri per le festività! 🎄 🎊
Per ora è tutto, ci prendiamo (e ti concediamo) una pausa per le feste. Torniamo nel 2025. Se la newsletter ti è piaciuta, commenta o fai girare.
Grazie per il felice suggerimento cinematografico; Ex Machina all'epoca poteva sembrare pura FS, oggi un po' meno. Attenzione al Touring Test, però: qualcuno potrebbe pensare che per iscriversi al Touring Club sia necessaria una prova preliminare...
Buon Natale a tutti!