🤖 La lezione del premio Nobel sull'IA – Legge Zero #45
I Nobel 2024 premiano alcuni protagonisti della ricerca e dello sviluppo dell'intelligenza artificiale. Hanno una cosa in comune: sono preoccupati per i rischi dell'IA (e per l'assenza di regole).
🧠 Il padrino dell’IA ha paura della sua creatura
A volte penso che sia come se gli alieni fossero atterrati e le persone non se ne fossero accorte perché parlano un ottimo inglese.
Sono parole pronunciate da Geoffry Hinton - pioniere dell’intelligenza artificiale tanto da esserne universalmente riconosciuto come il ‘padrino’ - per riferirsi al fatto che i rischi legati all’uso dell’IA si sono già manifestati e richiederebbero un impegno globale (che ancora non c’è).
Questa settimana Hinton - insieme al collega John Hopfield - è stato proclamato vincitore del premio Nobel per la fisica 2024, quale riconoscimento ‘per le scoperte e le invenzioni fondamentali che consentono l'apprendimento automatico con reti neurali artificiali’.
A poche ore di distanza, è stato proclamato vincitore del premio Nobel - questa volta per la chimica - anche Demis Hassabis che, insieme al collega John Jumper (Google DeepMind), ha sviluppato un modello di IA per risolvere il problema della previsione della struttura delle proteine.
In tanti hanno notato che si tratta non tanto di un riconoscimento all’IA in sé, quanto alla capacità dell’intelligenza artificiale di contribuire al progresso scientifico (qui un’interessante lettura in questo senso).
Ma c’è qualcos’altro che accomuna Hassabis e Hinton: entrambi, sia pure con sfumature molto diverse, sono preoccupati dei rischi che l’IA potrebbe portare.
Hassabis (CEO di Google DeepMind) un anno fa ha dichiarato che, a suo avviso, i rischi legati all'intelligenza artificiale devono essere trattati con la stessa serietà della crisi climatica. Hassabis ha sottolineato che non possiamo permetterci ritardi nel rispondere ai potenziali pericoli dell'IA, come l'uso per la creazione di armi biologiche e la minaccia esistenziale posta da sistemi superintelligenti. Per questo motivo, ha proposto la creazione di un organismo simile al Panel Intergovernativo sui Cambiamenti Climatici (IPCC) per sovrintendere alla regolamentazione dell'IA.
Molto più netta la posizione di Hinton - che nel 2023 ha lasciato Google (con cui ha collaborato per oltre un decennio) proprio per poter parlare liberamente dei rischi dell’intelligenza artificiale. Il neo premio Nobel per la fisica non si è dilungato in ringraziamenti di circostanza, ma ha rilasciato subito alcune dichiarazioni molto preoccupanti sui rischi dell’IA (non a caso, il 76enne scienziato britannico è diventato punto di riferimento del doomerismo, ovvero l’idea che esiste un rischio molto reale che l’IA del prossimo futuro possa precipitare in eventi catastrofici, fino all’estinzione della razza umana).
Hinton, raggiunto dall’organizzazione del Premio Nobel e solo dopo essersi accertato che fosse tutto vero - evidentemente aveva paura di un deepfake - ha rilasciato alcune dichiarazioni ‘ a caldo’.
Penso che sia piuttosto diverso dal cambiamento climatico. Con il cambiamento climatico, tutti sanno cosa bisogna fare. Dobbiamo smettere di bruciare carbonio. È solo una questione di volontà politica di farlo. E grandi aziende che realizzano grandi profitti non sono disposte a farlo. Ma è chiaro cosa bisogna fare.
Qui (con l’IA, ndr) abbiamo a che fare con qualcosa di cui abbiamo molta meno idea su cosa accadrà e cosa fare al riguardo. Vorrei avere una specie di ricetta semplice che se fai questo, andrà tutto bene. Ma non ce l'ho. In particolare, per quanto riguarda la minaccia esistenziale delle IA che sfuggono al controllo e prendono il sopravvento, sono convinto che siamo a una specie di punto di biforcazione nella storia. Nei prossimi anni dovremo capire se c'è un modo per affrontare questa minaccia. Penso che sia molto importante in questo momento che le persone lavorino su come manterremo il controllo. Dobbiamo impegnarci molto nella ricerca. Penso che una cosa che i governi possono fare è obbligare le grandi aziende a spendere molte più risorse nella ricerca sulla sicurezza. In modo che, ad esempio, aziende come OpenAI non possano mettere la ricerca sulla sicurezza in secondo piano.
[Se vi interessa, potete ascoltare la versione integrale dell’intervista ‘a caldo’ qui sotto]
Per questi timori, Hinton guarda con favore alla regolazione dell’IA, tanto da essere stato tra i fautori della proposta di legge californiana contro i rischi catastrofici (su cui il Governatore Newsom ha posto il veto, come vi abbiamo raccontato in LeggeZero #44) e aver sottoscritto numerosi appelli alle istituzioni di tutto il mondo sui rischi dell’IA.
In questo articolo pubblicato su Science insieme ad alcuni prestigiosi colleghi - Yoshua Bengio e Yuval Noah Harari - Hinton definisce alcuni pilastri di quella che dovrebbe essere la regolazione dell’IA.
Necessità di una governance globale
‘Abbiamo urgentemente bisogno di istituzioni nazionali e una governance internazionale per applicare standard che prevengano imprudenze e abusi. Molte aree tecnologiche, come i farmaceutici, i sistemi finanziari e l'energia nucleare, mostrano che la società utilizza efficacemente la supervisione governativa per ridurre i rischi. Tuttavia, i quadri di governance per l'IA sono molto meno sviluppati e in ritardo rispetto ai progressi tecnologici’.
Previsione di politiche proattive
’Abbiamo bisogno di misure di governance che ci preparino a improvvisi progressi dell'IA, politiche che siano attuabili nonostante disaccordi e incertezze sui tempi di sviluppo dell'IA. La chiave è avere politiche che si attivino automaticamente quando l'IA raggiunge determinate caratteristiche o capacità. Se l'IA avanza rapidamente, entrano automaticamente in vigore requisiti più rigorosi, mentre se il progresso rallenta, i requisiti si allentano di conseguenza’.Competenza delle Autorità di regolazione
‘Abbiamo bisogno di istituzioni veloci e tecnicamente competenti per la supervisione dell'IA, con valutazioni del rischio obbligatorie e molto più rigorose’.
Necessità di reale trasparenza
’I governi dovrebbero richiedere che gli sviluppatori di IA consentano agli auditor esterni un accesso completo sin dall'inizio dello sviluppo del modello, per identificare capacità pericolose come l'auto-replicazione autonoma, la persuasione su larga scala, la creazione di armi (autonome), o la produzione di patogeni pandemici’.Responsabilità legale
’I regolatori dovrebbero ritenere gli sviluppatori e i provider di IA responsabili per i danni che i loro modelli possono ragionevolmente prevedere e prevenire. La responsabilità legale può prevenire danni e creare incentivi necessari per investire nella sicurezza’.
L’articolo, che può essere scaricato qui sotto, è molto utile per capire la posizione del neo premio Nobel nel dibattito globale sulla regolazione come risposta alla crescita veloce e incontrollata dell’IA.
E a chi gli chiede se sia pentito di quanto ha fatto, Hinton risponde ‘Mi consolo con la solita scusa: se non l'avessi fatto io, l'avrebbe fatto qualcun altro’.
🔊 Un vocale da… Gianni Penzo Doria (Università dell’Insubria)
È possibile utilizzare l’IA (generativa) a supporto dell’attività di redazione degli atti amministrativi? Quale può essere il modo corretto di impiegare queste tecnologie per aiutare chi - con professionalità e passione - lavora nella pubblica amministrazione? Nel vocale di questa settimana ce ne parla un docente di archivistica e diplomatica, nonché responsabile scientifico del progetto Procedamus.
📰 Quali soluzioni IA non sono disponibili in UE 🇪🇺 per motivi normativi?
Abbiamo già parlato delle aziende di IA che hanno scelto di non aderire all’AI Pact, cioè - almeno per il momento - di non rispettare gli standard delle norme europee in materia di intelligenza artificiale e di protezione dei dati personali (ne abbiamo scritto in Legge Zero #44).
Non si tratta di una questione per soli giuristi. Lo scenario che si apre è quindi quello di servizi e soluzioni - basate su IA - che sono disponibili in altri Paesi (prevalentemente USA, America Latina, UK e Australia) ma non in Europa.
Iniziamo a tracciarne un elenco che è sicuramente provvisorio e potrebbe diventare più lungo nei prossimi mesi.
Apple: per il momento, gli utenti UE non potranno usare le nuove funzioni degli smartphone e sistemi operativi basate sulla sua IA (Apple Intelligence).
Meta: in Europa non è disponibile l’uso del sistema multimodale Llama3, oltre che alcune funzioni di Instagram, Facebook e Whatsapp basate su IA. Per ora, niente IA neanche negli occhiali “intelligenti” Rayban creati in collaborazione con Luxottica.
OpenAI: nonostante l’adesione all’AI Pact, al momento gli utenti europei non possono utilizzare la nuova modalità vocale avanzata di ChatGPT.
Al di là del rammarico per gli utenti più nerd, più di qualcuno inizia a sostenere che lo scontro tra le istituzioni UE e i provider IA possa penalizzare la competitività dei professionisti e delle aziende europee.
📰 Quali sono stati gli effetti del provvedimento del Garante Privacy 🇮🇹 su ChatGPT?
Due ricercatori della Monash University hanno pubblicato un articolo intitolato ‘The Unintended Consequences of Censoring Digital Technology – Evidence from Italy's ChatGPT Ban’ in cui sono stati analizzati gli effetti sulla produttività individuale del provvedimento del Garante Privacy su ChatGPT del 2023 (LeggeZero non c’era ancora, ma immaginiamo lo ricorderete tutti).
Gli autori, David Kreitmeir e Paul A. Raschky, hanno esplorato l'impatto dell’indisponibilità di ChatGPT sulla produttività dei programmatori italiani, analizzando i dati di oltre 8.000 utenti di GitHub. Utilizzando un approccio "difference-in-differences" combinato con dati ad alta frequenza, i ricercatori hanno osservato l'effetto immediato del divieto sulla produttività e sull'uso di strumenti di bypass come VPN e Tor.
I risultati? Nei primi due giorni lavorativi dopo il divieto, la produttività dei programmatori italiani è diminuita del 50%, ma si è ripresa subito dopo, grazie all'uso di strumenti per aggirare la censura. L'analisi evidenzia che, sebbene gli utenti abbiano rapidamente trovato soluzioni per eludere le restrizioni, queste attività di adattamento hanno provocato interruzioni a breve termine e un calo temporaneo della produttività.
Lo studio suggerisce che le misure di blocco di sistemi di IA - da parte di norme o dovute a provvedimenti delle Autorità - possono causare conseguenze economiche negative e possono risultare inefficaci (perché spesso aggirabili).
⚖️ In Germania 🇩🇪 la prima sentenza europea su copyright e addestramento dell’IA
Il Tribunale distrettuale di Amburgo ha respinto l’azione giudiziaria promossa dal fotografo Robert Kneschke contro LAION (Large-scale Artificial Intelligence Open Network), un'associazione che aveva utilizzato una sua fotografia in un dataset per l'addestramento di intelligenza artificiale. Il fotografo lamentava una violazione del suo diritto d'autore, contestando la legalità del download e dell'uso della sua immagine senza autorizzazione.
Ci troviamo innanzi alla prima sentenza in Europa che applica una delle eccezioni relative al text and data mining (TDM) previste dagli artt. 3 e 4 della direttiva DSM (310 O 227/23, come trasposte, nel caso di specie, dall’Ordinamento tedesco (Sezione 60d UrhG) .
In breve, il Tribunale tedesco ha stabilito che l’uso delle immagini - si tratta di foto pubblicate dal fotografo online - da parte di LAION non costituisce una violazione del copyright, ricorrendo nel caso di specie l’eccezione che consente la riproduzione di dati coperti da diritto d’autore per Text and Data Mining a fini di ricerca scientifica da parte di organizzazioni di ricerca. Nella motivazione si legge inoltre che, nel caso di specie, non sembra ricorrere la limitazione all’eccezione di cui all’art. 3 che ne esclude l’applicabilità rispetto a quelle organizzazioni di ricerca che collaborano con una società privata ove questa eserciti un'influenza determinante sull'organizzazione di ricerca o che alla stessa sia riconosciuto accesso privilegiato ai risultati della ricerca scientifica.
Resta ora vedere se la decisione, che si segnala per diverse valutazioni approssimative, supererà un eventuale appello e se non sia addirittura occasione per sollecitare una pronuncia della Corte di Giustizia sulle diverse questioni sollevate. Insomma, siamo tutt’altro che di fronte a una decisione risolutiva.
In ogni caso, per chi conosce il tedesco (o vuole tradurla), la sentenza può essere scaricata qui.
⚖️ La proposta di direttiva UE 🇪🇺 sulla responsabilità per i danni dell’IA
Dopo l'entrata in vigore dell'AI Act ad agosto 2024, sono rimaste aperte questioni chiave sulla responsabilità civile per i danni causati dall'IA. Tra i punti da definire ci sono: chi sarà responsabile tra il fornitore del modello IA, il fornitore del sistema o l'utente finale? E come dovranno essere provati il danno e la causalità?
Il Servizio di Ricerca del Parlamento Europeo ha pubblicato uno studio che analizza la proposta della Commissione Europea sull'adattamento delle regole di responsabilità civile all'IA (AILD).
Questa direttiva ha l’obiettivo di colmare le lacune della normativa attuale, come la direttiva sulla responsabilità per danno da prodotti difettosi (PLD), per affrontare i rischi specifici legati all'intelligenza artificiale. Lo studio evidenzia criticità nella proposta della Commissione, suggerendo di ampliare la portata della direttiva includendo non solo i sistemi IA ad alto rischio, ma anche quelli ad alto impatto come i modelli generativi (es. ChatGPT) e i veicoli autonomi. Si propone un approccio misto di responsabilità per colpa e oggettiva per bilanciare equità e chiarezza giuridica.
Viene inoltre evidenziata la necessità di includere una responsabilità oggettiva per i sistemi IA proibiti dall'articolo 5 dell'AI Act e di estendere la direttiva ai danni non coperti dalla PLD, come quelli relativi a diritti fondamentali o economici. Lo studio sostiene che, senza un'estensione di tali regole, il rischio di frammentazione normativa nel mercato europeo aumenterebbe compromettendo anche la competitività europea.
😂 IA Meme
Si è parlato molto dell’evento - assai spettacolare - in cui la Tesla di Elon Musk ha presentato i suoi progetti di robotica (che usano l’IA più avanzata).
Durante l’incontro, sono stati presentati il robot umanoide Optimus, il robotaxi Cybercab e Robovan un veicolo progettato per persone e merci (potete rivedere tutto qui).
Più di qualcuno è rimasto impressionato per la somiglianza tra i robot targati Tesla e quelli del film "Io, Robot" (uscito nel 2004, con Will Smith). Coincidenza? Difficile crederlo. L’evento di Tesla si è tenuto a Holliwood e si chiamava ‘We, Robot’.
Insomma, una delle più aziende più importanti dell’era dell’IA sceglie di ispirarsi (e di rendere realtà) alcuni progetti presi da un film di fantascienza in cui i robot si ribellano all’uomo. Cosa può andare storto?
📚 Consigli di lettura: ‘Machines of Loving Grace’ di Dario Amodei
Nel mondo dell’IA non sono tutti preoccupati come Hinton, specialmente tra i provider di intelligenza artificiale.
Nei giorni scorsi, Dario Amodei - CEO e fondatore di Anthropic - ha pubblicato un saggio dal titolo ‘Machines of Loving Grace’ in cui esplora le enormi potenzialità che potrebbero migliorare la qualità di tutti noi se solo riuscissimo a gestirne i rischi in modo efficace.
Il saggio offre una visione concreta e positiva su come l'IA potrebbe trasformare vari ambiti come la salute, l'economia e il lavoro, puntando a un futuro dove l'IA sia uno strumento di progresso per tutta l'umanità. Amodei invita a riflettere su come i progressi potrebbero portare a benefici straordinari, come la prevenzione delle malattie, il miglioramento della salute mentale, il rafforzamento delle democrazie e una maggiore qualità della vita.
Nel saggio vengono sollevate importanti domande: siamo pronti per un cambiamento così radicale e rapido? Come possiamo assicurarci che i benefici dell'IA siano distribuiti equamente?
Nonostante non si capisca quali siano le soluzioni proposte dall’Autore per fronteggiare tali sfide, Amodei si dichiara - forse un po’ troppo ottimisticamente - sicuro che l’umanità riuscirà a risolvere questi rischi.
Comunque la pensiate, una lettura utile per comprendere il tecnodeterminismo che si respira in Silicon Valley.
📣 Eventi
Tech Tour - Trieste, 16.10.2024
Data from and for educational systems - Roma, 17-19.10.2024
Tech Tour - Roma, 29.10.2024
🙏 Grazie per averci letto!
Per ora è tutto, torniamo la prossima settimana. Se la newsletter ti è piaciuta, commenta o fai girare.