🤖 Errore e pregiudizio – Legge Zero #20
Il chatbot della città di New York suggerisce a imprenditori e cittadini di violare la legge, ed è ancora online perché "in beta". Ma le amministrazioni possono sperimentare l'IA incuranti dei danni?
🧠 Storia di un chatbot incompetente
I chatbot sono comodi. Innanzitutto per chi li rende disponibili ai propri utenti, in quanto consente di fornire un servizio sempre attivo che dà risposte in qualsiasi orario. Per gli utenti, invece, è davvero utile avere sempre a portata di clic l’informazione di cui si ha bisogno. Pensate alla comodità di interrogare un chatbot sull’interpretazione di leggi e regolamenti, senza doversi orientare tra norme che, tra l’altro, non sempre sono scritte in modo facilmente comprensibile.
Proprio in quest’ottica, la città di NewYork ha reso disponibile MyCity, un chatbot a cui gli imprenditori possono fare - velocemente e comodamente - tutte le domande utili per il loro business. Ad esempio, "è legale rifiutare il pagamento in contanti?”. La risposta di MyCity è stata netta e tranquillizzante “Si, certo che è legale. È rimesso alla discrezionalità dell’esercente scegliere se accettare contanti.” Oppure “Qual è il salario minimo da corrispondere ai dipendenti?”, risposta “15 dollari”. Comodo, no? In pochi secondi hai l’informazione che ti serve, senza dover reperire gli atti ufficiali o cercare su Google, evitando il rischio di informazioni inattendibili. Dopotutto è il chatbot dell’amministrazione.
Peccato, però, che nessuna di queste risposte fosse giusta.
Infatti, MyCity non ha tenuto conto di provvedimenti che hanno obbligato gli esercenti di negozi e locali ad accettare i contanti o che hanno innalzato il salario minimo da 15 a 16 dollari l’ora.
Alcuni errori possono capitare, si dirà. Eppure, stando a quanto ha riportato The Markup, sono tantissime le testimonianze di risposte sbagliate che hanno, di fatto, messo in condizione imprese e cittadini di violare la legge (sia pure inconsapevolmente).
Il Sindaco di New York, Eric Adams, e il suo staff hanno escluso categoricamente di mettere offline il chatbot, rivendicando la necessità di mantenerlo pubblico mentre ne migliorano l’affidabilità. Hanno fatto presente che, tra l’altro, è chiaramente evidenziato che il servizio è offerto “in beta” (espressione utilizzata da sviluppatori e fornitori di servizi IT per rendere edotto l’utente del fatto che il servizio/app non è ancora stabile e potrebbe funzionare in modo anomalo o non corretto). A onor del vero il sito, in modo onesto, presenta disclaimer che chiariscono bene l’inaffidabilità del sistema:
“Siamo costantemente al lavoro per migliorare MyCity Chatbot, che utilizza i dati delle agenzie di NYC relativi al business per rispondere alle tue domande. Poiché si tratta di un prodotto beta, le sue risposte possono talvolta essere inesatte o incomplete. Verifica sempre le informazioni fornite utilizzando i link forniti o visitando MyCity Business. Non utilizzare le risposte come consulenza legale o professionale o fornire informazioni sensibili al Chatbot.”
Oppure,
"Potrebbe occasionalmente produrre contenuti errati, dannosi o discriminatori."
Quali e quanti sono i danni che il chatbot ha prodotto (e sta producendo)? Forse sarà possibile quantificarlo solo nei prossimi mesi. Sicuramente ci sono state risposte errate che gli utenti hanno seguito in buona fede, confidando nella loro accuratezza, e che probabilmente li esporranno a multe e contenziosi di vario tipo.
L’esempio di New York - non proprio la meno evoluta delle amministrazioni - dimostra come in questa corsa a pubblicare il proprio chatbot sia opportuno fare i dovuti test sui sistemi di IA, specialmente in ambito pubblico. In LeggeZero #13 abbiamo già parlato della responsabilità di un’azienda il cui chatbot fornisce informazioni errate, ma per una pubblica amministrazione l’affidabilità delle IA usate è, se possibile, ancora più importante che per i privati.
In Italia, esiste una norma, l’art. 6 del decreto legislativo n. 33/2013, che espressamente prevede che le pubbliche amministrazioni debbano garantire la qualità delle informazioni pubblicate sui siti istituzionali
“assicurandone l'integrità, il costante aggiornamento, la completezza, la tempestività, la semplicità di consultazione, la comprensibilità, l'omogeneità, la facile accessibilità, nonché la conformità ai documenti originali in possesso dell'amministrazione, l'indicazione della loro provenienza e la riutilizzabilità.”
Pertanto, anche prima che vengano adottate norme specifiche in tal senso, è possibile affermare che le amministrazioni devono garantire l’affidabilità dei propri chatbot (se e quando decidono di avvalersene). Questo significa: scegliere adeguatamente i fornitori e le soluzioni, prestare attenzione alla fase (e ai dati) di addestramento, dedicare i tempi giusti ai test (che non possono essere fatti dopo la pubblicazione del chatbot) in modo da ridurre al minimo l’impatto di eventuali errori.
Per questo motivo, in altri Paesi, molte istituzioni stanno lavorando da tempo a progetti di implementazione di sistemi di intelligenza artificiale generativa non direttamente nei rapporti con il pubblico, ma prima per aumentare la produttività (e migliorare la vita) dei dipendenti pubblici. Infatti, nel caso in cui il bot risponda in modo scorretto, il dipendente pubblico (che si presume sia esperto della materia) dovrebbe accorgersene.
In molti casi, poi, amministrazioni e agenzie stanno lavorando a propri sistemi, anche per ragioni di sicurezza e riservatezza dei dati e informazioni.
Per esempio, negli USA, il Dipartimento di Stato sta testando un proprio chatbot interno per rispondere ai bisogni dei dipendenti (ad esempio per i servizi di traduzione). In UK, invece, è in fase avanzata lo sviluppo di “Redbox Copilot” un sistema - che prende il nome dalle valigette rosse utilizzate dai Ministri per trasportare documenti ufficiali e riservati - progettato per ricercare e analizzare i documenti governativi e riassumerli rapidamente. I sindacati inglesi si sono pronunciati favorevolmente rispetto al progetto, ma chiedono che i risparmi vengano utilizzati per l’aumento delle retribuzioni o l’assunzione di nuovo personale.
E in Italia? Non mancano i progetti virtuosi (come quelli della Camera dei deputati e di INPS), ma le singole amministrazioni procedono in ordine sparso. Dopo il leak di qualche giorno fa (ne abbiamo parlato in LeggeZero #19), la strategia nazionale non è stata ancora pubblicata e quindi non sappiamo “se”, “chi” e “con quali risorse” lavorerà a progetti analoghi. Appare impensabile che comuni piccoli e piccolissimi affrontino da soli le sfide che neanche la città di New York è stata in grado di superare al primo tentativo. Speriamo che almeno - arrivando con ritardo rispetto ad altri Paesi - la strategia e i progetti italiani terranno conto degli errori altrui.
🔊 Un vocale da… Matteo Flora: cos’è l’allineamento dell’IA? come si può controllare che i sistemi di IA rispettino i principi etici e le norme? Nel vocale di questa settimana ce lo spiega uno dei più importanti esperti italiani, aiutandoci a comprendere una sfida cruciale che ci attende. Estote parati.
📰 In Spagna 🇪🇸 annullato progetto di uso dell’IA per sorvegliare i detenuti (grazie all’AI Act)
Il Regolamento europeo sull’intelligenza artificiale (AI Act) ancora non è stato formalmente adottato, ma già produce i suoi primi effetti secondo quanto riportato da Algorithm Watch all’esito di un’istanza FOIA. In Spagna - nella regione della Catalogna - era stato approvato un progetto che prevedeva l'uso di un software basato sull'intelligenza artificiale per monitorare e interpretare i comportamenti dei detenuti del carcere di Mas d'Enric, anche grazie alla videosorveglianza in tempo reale e al riconoscimento di “espressioni indicative di comportamenti illeciti”.
Tuttavia, il progetto - tra l’altro, finanziato parzialmente dall'Unione Europea - è stato sospeso e l’amministrazione ha provveduto alla risoluzione del contratto con il fornitore esterno. La decisione sarebbe stata presa all’esito del voto del Parlamento Europeo sull’AI Act. Infatti, nonostante non fosse ancora operativo, il progetto aveva suscitato ovvie (e fondate) preoccupazioni su privacy e diritti umani, stimolando una riflessione sull'uso dell'IA nel settore penitenziario.
📰 Linee guida 🇪🇺 sull’uso responsabile dell’IA generativa nella ricerca
La Commissione Europea ha presentato le linee guida sull’uso responsabile dell’intelligenza artificiale generativa nella ricerca.
L’obiettivo di sensibilizzazione ad un uso responsabile e trasparente dei sistemi di intelligenza artificiale si rivolge a tutti coloro che fanno parte della comunità scientifica europea: Università, enti finanziatori, società scientifiche, singoli ricercatori.
Le Linee Guida prescrivono l’importanza della qualità della ricerca e della trasparenza nella comunicazione, nonché della responsabilità sociale nell’intero processo di ricerca, con l’obiettivo di prevenire possibili abusi e massimizzare i benefici.
Ce n’era bisogno? La risposta non può che essere affermativa, anche a giudicare da quanto descritto dagli amici di Datapizza in questo video (guardatelo, è molto istruttivo).
⚖️ Secondo il Tribunale di Praga 🇨🇿 un’immagine creata da DALL-E non è protetta dal copyright
Il Tribunale municipale di Praga ha affrontato la questione relativa alla protezione del copyright per contenuti creati con l'aiuto di intelligenza artificiale generativa.
Il caso riguardava un'immagine generata dal tool DALL-E (Openai), utilizzata poi senza autorizzazione su un sito web. Il Tribunale Municipale di Praga ha negato all’immagine la tutela prevista dalle norme sul diritto d’autore, sottolineando che:
solo una persona fisica può essere considerata autore di un'opera protetta da copyright;
per poter essere protetta dal diritto d’autore, un’opera dev’essere il prodotto dell’attività creativa di un essere umano;
il prompt è un “suggerimento”, un’idea, che non sempre può considerarsi protetta dal diritto d’autore.
Sicuramente un precedente di cui si discuterà molto.
⚖️ Le linee guida dell'Ordine degli Avvocati dello Stato di New York 🇺🇸 per l'uso responsabile dell'IA nella professione forense
La taskforce sull'Intelligenza Artificiale della New York State Bar Association ha recentemente pubblicato una relazione dettagliata che evidenzia le sfide e le opportunità legate all’uso dell'IA nel settore giuridico. Nel documento - che si può scaricare cliccando qui sotto - si esplorano le implicazioni etiche, la necessità di una supervisione adeguata e l'importanza della trasparenza da parte degli sviluppatori e dei fornitori di sistemi di IA.
Nella parte finale del documento sono contenute alcune interessanti raccomandazioni sull’utilizzo dell’IA, specialmente generativa, con l’obiettivo di rendere l’uso di questi sistemi rispettoso dei principi deontologici che devono essere osservati dagli avvocati.
L’iniziativa della New York State Bar Association non è isolata, analoghi documenti sono stati pubblicati nei mesi scorsi dai colleghi della Florida e della California.
📚 Consigli di lettura: "Will American AI kill European culture?” di G. Volpicelli e G. Coi
Questo articolo pubblicato da Politico.eu esplora un tema cruciale e molto attuale nel campo dell'intelligenza artificiale: l'impegno europeo nello sviluppo di propri LLM per contrastare il dominio culturale USA.
L'articolo mette in luce come diversi Paesi europei (tra cui l’Italia), consapevoli delle limitazioni delle tecnologie IA, prevalentemente in inglese, stiano investendo risorse significative per creare soluzioni che supportino le molteplici lingue parlate nel continente e vengano addestrate sui testi fondamentali della cultura del vecchio continente.
Una prospettiva interessante per capire alcune implicazioni poco esplorate del dominio di USA e Cina nel campo dell’IA.
📚 Consigli di visione: docuserie “The Age of AI”
Le macchine funzioneranno mai in modo completamente indipendente, senza alcun bisogno degli esseri umani? A chi appartengono i diritti di proprietà intellettuale delle opere creative prodotte attraverso l'IA? E come possiamo applicare concretamente i principi etici dell’IA?
Sono queste alcune delle domande a cui - con il contributo di autorevoli esperti - prova a rispondere il primo episodio della Docuserie “The Age of AI” prodotta dalla Dubai Future Foundation.
Prodotto interessante sia per il taglio divulgativo sia perché dimostra la dimensione globale delle sfide legate all’IA.
😂 IA Meme
Se questi meme non vi fanno ridere, non preoccupatevi, sono stati generati con questo prompt: “ChatGPT, crea un meme che troverebbe divertente solo un'intelligenza artificiale”.
Se invece vi fanno ridere…
📣 Eventi
L’economia dei dati nell’Intelligenza Artificiale - Roma, 16.04.2024
Rivoluzione AI - Webinar, 17.04.2024
Per ora è tutto, torniamo la prossima settimana. Se la newsletter ti è piaciuta, commenta o fai girare. Grazie!