🤖 La legge di Kasparov – Legge Zero #30
I sistemi di IA sono sempre più performanti, anche nella risoluzione delle controversie. Eppure, quando testati nella pratica, hanno deluso. È ora di uscire dalla contrapposizione uomo-macchina.
🧠 Chi vince la partita?
Un uomo “debole”, più una macchina, più un processo migliore, sono superiori a una macchina molto più potente lasciata da sola e, soprattutto, a un uomo forte, con una macchina e un processo inferiore.
È questa la “Legge di Kasparov”. Prende il nome, lo scrivo solo per i lettori più giovani, da Gary Kasparov, uno dei più grandi giocatori di scacchi di tutti i tempi, ma soprattutto uno dei primi uomini battuti sul suo campo dall’intelligenza artificiale. Era la seconda metà degli anni ‘90 e Kasparov perse contro Deep Blue, un sistema realizzato da IBM. La reazione del campione fu però spiazzante. Come ha ricordato lui stesso in una recente intervista, decise di “allearsi” con la macchina per giocare, da quel momento in poi, non contro, ma insieme all’IA. La legge di Kasparov apre la strada non solo a un nuovo modo di giocare a scacchi (i cosiddetti “Scacchi avanzati”), ma indica un percorso che può essere intrapreso in tutti i settori della società, uscendo - anche giuridicamente - dalla contrapposizione uomo - macchina.
La legge di Kasparov mi è tornata in mente quando ho letto l’ultimo numero della
dal titolo “In AI we trust” in cui - confrontando alcune decisioni della Corte Suprema USA con gli output ottenuti da Claude 3 Opus (un LLM di Anthropic) - l’Autore giunge alla conclusione che già oggi un modello con finalità generali, non specializzato, può produrre decisioni della stessa qualità di quelle scritte da esseri umani, molto più velocemente e con grandi margini di miglioramento. La domanda sorge spontanea: anche nel campo giudiziario assisteremo a quello che sta accadendo in altri settori? In questo articolo pubblicato sul sito della BBC, Thomas Germain tratta l'impatto dell'intelligenza artificiale sul settore editoriale. Benjamin Miller, nome fittizio di un vero lavoratore, racconta come la sua azienda abbia adottato un sistema di IA per ridurre i costi, portando al licenziamento di molti scrittori. Miller e pochi altri hanno continuato a lavorare, principalmente per rivedere il testo generato dall'IA. Finché, alla fine, anche Miller è stato licenziato. In nome dell’efficienza e della riduzione dei costi, il suo controllo - umano - non era più necessario.Eppure, quando si passa dalle simulazioni (dimostrative) alla pratica, appare chiaro che non è possibile, oltre che giusto, delegare completamente all’IA determinate attività umane, specialmente l’amministrazione della giustizia. Nei giorni scorsi, l’organizzazione non governativa Algorithm Watch ha pubblicato questo approfondimento legato a quanto sta accadendo in Polonia dove l’IA è stata introdotta in due distinti progetti come strumento per far fronte alla carenza di arbitri nella risoluzione delle controversie (giungendo a promettere una decisione entro 40 ore dall’invio dei documenti). Gli attivisti denunciano che questi progetti non hanno prodotto i risultati fin qui attesi e che - come avevamo già scritto in LeggeZero #29 - gli umani si fidano troppo degli output dell’IA. Ben presto, poi, si porrà un altro problema, quello delle responsabilità. Cosa succederà se l’essere umano sbaglierà discostandosi dalla decisione dell’IA? Pagherà di tasca propria mentre non gli accadrà nulla nel caso in cui abbia avallato la decisione algoritmica?
La collaborazione proficua tra uomini e macchine passa dalla promozione di una cultura che superi la reciproca contrapposizione, dalla formazione e dalla definizione di regole sulla responsabilità, che non disincentivino il pensiero critico.
🔊 Un vocale da… Marta Colonna (PagoPA S.p.A.): saremo in grado, come esseri umani, di esercitare il nostro potere-dovere di controllo sull’IA? riusciremo a rendere efficaci tutte le norme che parlano di sorveglianza umana come presidio contro i rischi dell’intelligenza artificiale? Nel vocale di questa settimana ce ne parla la Direttrice Affari Legali e Compliance della Società che gestisce alcune tra le infrastrutture digitali più importanti del Paese.
📰 Pubblicato il primo Global Index 🌍 sull'IA responsabile
Il Global Center on AI Governance - in collaborazione con agenzie governative di USA e Canada - ha pubblicato la prima edizione del ‘Global Index on Responsible AI’, un rapporto che mette a confronto 138 Paesi sulle politiche adottate per garantire lo sviluppo e l’adozione responsabile dell’intelligenza artificiale. L'indice valuta la performance dei paesi in tre dimensioni principali: diritti Umani e IA, governance dell'IA responsabile e capacità dell'IA responsabile (se ve lo state chiedendo, l’Italia si colloca in 7ma posizione in un quadro in cui i Paesi del vecchio continente si avvantaggiano dell’azione dell’UE).
Alcune considerazioni che emergono dalla lettura del rapporto:
Governance dell'IA: la presenza di strategie nazionali non garantisce necessariamente un'IA responsabile.
Protezione dei diritti umani: nella maggior parte dei Paesi ancora non sono obbligatori meccanismi che impongano valutazioni del rischio prima dello sviluppo e implementazione di IA.
Cooperazione internazionale: la cooperazione internazionale è fondamentale per promuovere l'IA responsabile e l'UNESCO gioca un ruolo chiave.
Uguaglianza di genere: l'uguaglianza di genere è una delle aree più critiche, con poche iniziative governative specifiche.
Inclusione e equità: i diritti delle minoranze sono ancora poco tutelati.
Il rapporto – la cui metodologia, trattandosi della prima rilevazione, sarà sicuramente affinata nelle future edizioni - fa comprendere comunque l'importanza di definire criteri chiari per misurare il reale impatto di strategie e atti normativi e della necessità di un lavoro strutturato delle organizzazioni della società civile (ancora poco attive su questi temi).
📰 McDonald's sospende l’uso dell’IA negli USA 🇺🇸
McDonald's ha deciso che - per ora - farà a meno dei sistemi di IA utilizzati in più di 100 dei suoi drive - through negli Stati Uniti, verosimilmente anche a causa dei numerosi errori condivisi dagli utenti sul web.
Il sistema, basato su un software di riconoscimento vocale, è stato testato sin dal 2019. Tuttavia, la tecnologia si è dimostrata inaffidabile, con ordini bizzarri come il gelato al bacon o l’aggiunta di ordini non richiesti (come centinaia di dollari in pepite di pollo in questo video postato su TikTok).
McDonald's ha annunciato che il test dell’IA sarà terminato entro la fine di luglio, ma rimane fiduciosa che in futuro la tecnologia sarà utilizzata nei suoi ristoranti.
Nonostante le preoccupazioni iniziali sull'automazione e la possibile perdita di posti di lavoro, quindi, è chiaro che sostituire i lavoratori umani non è (ancora) così semplice come previsto.
⚖️ A che punto è il DDL del Governo italiano 🇮🇹 su IA?
Se siete nostri lettori, probabilmente ricorderete che lo scorso 23 aprile il Consiglio dei Ministri ha approvato un disegno di legge (DDL) in materia di intelligenza artificiale (ci abbiamo dedicato il primo piano di uno dei nostri numeri più letti, LeggeZero #22, a cui vi rimandiamo per un’analisi approfondita).
In queste settimane, il DDL è stato incardinato al Senato per l’inizio dell’esame del Parlamento che è chiamato ad approvarlo nei prossimi mesi (con le modifiche che si renderanno necessarie a seguito del dibattito parlamentare e del confronto con esperti, mercato e società civile).
Non è facile azzardare previsioni sulla sua approvazione finale - sicuramente occorreranno alcuni mesi prima che il testo venga licenziato da Camera e Senato - per cui vi suggeriamo di seguirne l’evoluzione direttamente dalla pagina dedicata sul sito del Senato.
Nel frattempo, vi segnaliamo due cose:
Il DDL è stato assegnato alle commissioni riunite 8ª (Ambiente, transizione ecologica, energia, lavori pubblici, comunicazioni, innovazione tecnologica) e 10ª (Affari sociali, sanità, lavoro pubblico e privato, previdenza sociale). Ma sono richiesti anche i pareri delle commissioni 1ª (Aff. costituzionali), 2ª (Giustizia), 3ª (Aff. esteri e difesa), 4ª (Unione europea), 5ª (Bilancio), 6ª (Finanze), 7ª (Cultura, istruzione), 9ª (Industria e agricoltura). Insomma, l’IA è trasversale a tutte le materie di cui si occupa il Parlamento (e tutti vogliono, giustamente, dire la propria).
Nei giorni scorsi i servizi studi del Senato e della Camera dei deputati hanno già pubblicato un corposo dossier (119 pagine) sul DDL. È una lettura molto utile per comprendere meglio le implicazioni della proposta governativa. La trovate qui.
⚖️ Dal Garante Privacy di Hong Kong 🇭🇰 arrivano le raccomandazioni su privacy e intelligenza artificiale
Il PCPD, l'Autorità per la protezione dei dati personali di Hong Kong, ha pubblicato un interessante documento in cui chiarisce i suoi orientamenti per assicurare la conformità dei sistemi di IA alla normativa locale in materia di protezione dei dati personali.
Il documento, intitolato "Artificial Intelligence: Model Personal Data Protection Framework", definisce un modello per le organizzazioni che intendono sviluppare, implementare e utilizzare sistemi di IA che trattano dati personali.
Questi i punti in cui è articolato il framework:
1. Definire una strategia e un sistema di governance
2. Condurre una valutazione del rischio e garantire la supervisione umana
3. Eseguire una personalizzazione dei modelli di IA
4. Favorire la comunicazione e il coinvolgimento con gli stakeholder
Il documento - per quanto riferito a un contesto normativo diverso da quello europeo - fornisce diversi consigli (anche organizzativi) e checklist utili a tutte le latitudini, confermando la bontà dell’approccio di gestione del rischio che l’AI Act ha reso un modello globale.
😂 IA Meme
Il momento in cui realizzi che l’IA ti sta rubando il lavoro (fonte: @Ravi Prasad).
💬 Il dibattito sull’IA
“Non lavorate sui Large Language Models!”
Mentre tutto il mondo parla dei modelli linguistici di grandi dimensioni - che sono alla base della IA generativa - il guru Yann LeCun (Meta) invita studenti e ricercatori a lavorare su altro. Chi lavora nell’IA può occuparsi di progetti più divertenti e di grande impatto.
Lo ha detto nel corso di un suo discorso, diventato poi un meme e ripostato anche da LeCun su X.
📚 Consigli di lettura: “Hypersuasion – On AI’s persuasive power and how to deal with it” di Luciano Floridi
Questa settimana vi segnaliamo il recentissimo articolo "Hypersuasion – On AI’s persuasive power and how to deal with it" di Luciano Floridi, pubblicazione che analizza le profonde implicazioni etiche e sociali del potere persuasivo dell'intelligenza artificiale.
Floridi discute come le tecnologie persuasive siano state potenziate dall'IA, permettendo una personalizzazione dei messaggi su scala senza precedenti. Questo fenomeno, definito come ‘hypersuasion’, rappresenta la capacità dell'IA di influenzare le credenze e i comportamenti delle persone in modo intenso e trasformativo.
Secondo l’Autore, per affrontare e ridurre l’impatto negativo dell’hypersuasion è necessario un approccio globale, sia a livello individuale che sociale, che comprenda la protezione della privacy, la promozione di una concorrenza leale tra i diversi attori di mercato, l’assegnazione chiara delle responsabilità e una solida alfabetizzazione delle persone. Naturalmente è altrettanto necessario un quadro normativo adeguato e di autorità che siano in grado di fare rispettare le nuove norme.
📚 Consigli di ascolto: il podcast della Camera dei Deputati sull’IA a supporto del lavoro parlamentare
La Camera dei Deputati è stato il primo Parlamento Europeo ad avviare un progetto per la sperimentazione dell’IA generativa a supporto del lavoro parlamentare. Lo ha fatto con un’indagine conoscitiva e una call aperta ai progetti di Università e centri di ricerca (ne abbiamo scritto in LeggeZero #12).
La risposta dei ricercatori è stata molto significativa: 29 proposte presentate da almeno 15 tra centri di ricerca e Università.
In attesa di conoscere quali saranno i progetti vincitori, è possibile ascoltare un episodio del podcast della Camera dei deputati in cui sono illustrati i risultati del lavoro fin qui svolto e quali sono le peculiarità dell’uso dell’IA generativa nel lavoro parlamentare. Lo trovate qui sotto.
Buon ascolto!
📣 Eventi
Leaders League Alliance Summit: Law & Innovation - Miami (USA), 25.06.2024
Open HUB: Abruzzo generatore di competenze - Pescara, 01.07.2024
Intelligenza artificiale, natura e parchi - Pisa, 02-07.2024
🙏 Grazie per averci letto!
Per ora è tutto, torniamo la prossima settimana. Se la newsletter ti è piaciuta, commenta o fai girare.