🤖 Avvocato, ho ragione? – Legge Zero #11
Negli USA le "allucinazioni" di ChatGPT fanno danni e arrivano in Tribunale. Chi risponde per gli errori e le invenzioni dell'IA: il fornitore o gli utenti?
Da quando l’avvento dell’IA generativa ha riempito le giornate di tutti noi, avvocati inclusi, in tanti ci siamo chiesti come sarebbe cambiato il nostro lavoro. Accanto ai tecnoentusiasti – gruppo che, ovviamente, ci include –, non è mancato chi ha lanciato l’allarme preconizzando la scomparsa della professione e dei professionisti, sostituiti, appunto, da tool di IA che, grazie ai modelli predittivi, avrebbero potuto finalmente rispondere alla temibile domanda che tante volte ci sentiamo rivolgere: “Avvocato, mi dica, ho ragione? Quante probabilità ho di vincere?”.
Il tempo e i fatti sembrano, però, dar conto di tutta un’altra realtà e, a quanto pare, degli avvocati c’è ancora bisogno (per fortuna?), per tanti motivi. Uno di questi è il fenomeno delle “allucinazioni” dell’intelligenza artificiale. Per il Dizionario Treccani, il termine fa riferimento a un’errata percezione dell’essere umano.
allucinazióne s. f. [dal lat. alucinatio -onis]. – Fenomeno psichico, provocato da cause diverse, per cui un individuo percepisce come reale ciò che è solo immaginario.
Per il Cambridge Dictionary, invece, “hallucinate” è stata la parola del 2023, avendo assunto tutto un’altro significato, “relativo a quando i sistemi di intelligenza artificiale come ChatGPT, che generano testi che imitano la scrittura umana, contengono e producono allucinazioni, cioè informazioni false, distorte o dannose”.
Chi ha provato i sistemi di IA generativa si è sicuramente scontrato, almeno una volta, con un’allucinazione e, quando se ne è accorto, ne avrà ricavato una sensazione di scarsa affidabilità del tool.
Le allucinazioni non sono importanti solo in relazione alla sicurezza e precisione dell’IA, ma rilevano anche da un punto di vista giuridico. Nei giorni scorsi, ad esempio, la Corte d’appello della Georgia (USA) ha rigettato la richiesta di archiviazione dell’azione per diffamazione promossa da un conduttore radiofonico Mark Walters contro OpenAI per fatti che risalgono al maggio 2023. Nella denuncia di Walters si legge che un giornalista (Fred Riehl) ha chiesto a ChatGPT informazioni su una determinata vicenda giudiziaria e, in risposta, ChatGPT pare abbia riferito, evidentemente a causa di un’allucinazione, che Walters fosse coinvolto in tale vicenda, in qualità di imputato, con l’accusa di frode. Il danno reputazionale del personaggio pubblico è intuibile e Walters dice di essersi visto costretto ad agire contro OpenAI per il riconoscimento, tra l’altro, di un risarcimento del danno.
A fronte di tali accuse, la difesa di OpenAI non ha destato sorprese, fondandosi per lo più sull’argomentazione che i risultati generati da ChatGPT non possono essere considerati pienamente attendibili e che l’utente, nei termini e condizioni del tool, è avvisato della non affidabilità e del valore "probabilistico" dei risultati generati dal chatbot e della necessita di controlli da ulteriori fonti. La società – di nuovo invocando i propri termini e condizioni – ha inoltre sostenuto che, essendo gli utenti titolari dei diritti su quanto elaborato da ChatGPT, non potranno che essere ritenuti anche "responsabili" del contenuto creato dall’IA.
Insomma, OpenAI sembra descrivere ChatGPT come poco più che "uno strumento di scrittura per uso personale" che "aiuta [un utente] a scrivere o creare contenuti di sua proprietà". Peraltro, la società ha anche sostenuto che ChatGPT non soddisferebbe il requisito della "pubblicazione", ai fini dell’illecito diffamatorio, nella misura in cui la dichiarazione falsa non può ritenersi condivisa con una terza parte (è infatti necessario, per aversi diffamazione, che la comunicazione sia indirizzata ad un “pubblico”). Per non parlare dell’elemento psicologico: può un’IA avere coscienza e consapevolezza di quello che dice?
Si tratta di un procedimento che lascerà comunque il segno e che traccerà, almeno oltreoceano, uno dei primi precedenti sulla responsabilità dell’IA. Walters, infatti, non è stato l’unico a lamentarsi per un’allucinazione. In Australia, ad esempio, un sindaco ha pensato di adire le vie legali dopo che ChatGPT lo aveva indicato come colpevole di corruzione.
Inoltre, c’è anche un altro lato della medaglia, come ci dimostra la vicenda dell’avvocata Jae S. Lee, nella causa Park v. Kim, decisa il 30 gennaio scorso. In questo caso, il legale aveva indicato, a supporto della propria difesa, un precedente generato da ChatGPT, ma in realtà inesistente: particolare importante, se ricordiamo che i precedenti giudiziari sono vincolanti per i giudici statunitensi che si trovano, successivamente, a decidere su casi analoghi. Pertanto, se non si fosse accorto dell’allucinazione di ChatGPT il giudice avrebbe reso una sentenza conforme ad un caso che, però, non è mai esistito. Pertanto, la Corte d’Appello di New York ha stabilito che la responsabilità dell’avvocato Lee per violazione della legge federale (Rule 11) - che impone, appunto, agli avvocati di presentare argomentazione e precedenti giuridicamente validi - non è esclusa dalla circostanza che l’errore sia frutto di un’allucinazione del chatbot utilizzato.
Non si tratta del primo precedente in tal senso e questo conferma come la responsabilità dell’utente, soprattutto se si tratta di un professionista qualificato, non è di per sé esclusa per il solo fatto di essere stato indotto in errore da una tecnologia (ne abbiamo parlato in LeggeZero #4). Tanto più se il professionista non dichiara - in modo trasparente - di aver generato il contenuto attraverso un’IA.
È facile prevedere che il tema della responsabilità per le allucinazioni diventerà oggetto di contenzioso anche da noi e sarà interessante - soprattutto prima che arrivino specifiche regole deontologiche - comprendere, anche alla luce dell’AI ACT, quale sarà il grado di diligenza che la giurisprudenza riterrà esigibile dal mero utilizzatore.
🔊 Un vocale da… Lorenzo Pregliasco (YouTrend): in che modo l’intelligenza artificiale può essere utilizzata nelle campagne elettorali? quali sono le opportunità e i rischi? Nel vocale di questa settimana ce lo spiega uno dei più importanti esperti di comunicazione politica.
📰 L’Irlanda 🇮🇪 adotta le linee guida per l’uso dell’intelligenza artificiale nel settore pubblico
Il Governo irlandese - nell’ambito delle misure di supporto allo sviluppo dell’IA - ha approvato le linee guida sull'uso dell'intelligenza artificiale nel settore pubblico.
Le linee guida prevedono che tutti gli strumenti di intelligenza artificiale utilizzati dagli enti pubblici debbano rispettare i sette requisiti per un'IA etica sviluppati dalla Commissione Europea nel 2019. All’interno del documento vengono poi indicati una serie di casi d’uso e approfonditi gli elementi chiave che gli Enti devono valutare quando adottano strumenti di intelligenza artificiale (analisi del rischio, protezione dei dati, sicurezza dei sistemi e competenze).
📰 Linee guida sull’intelligenza artificiale generativa del Regno Saudita 🇸🇦
Il Regno Saudita ha pubblicato le sue linee guida per lo sviluppo e l'adozione responsabile dell'Intelligenza Artificiale Generativa (GenAI).
Viene enfatizzatoal'importanza di aderire a principi etici di IA, tra cui equità, affidabilità, sicurezza, trasparenza, responsabilità e privacy. Il documento evidenzia le opportunità offerte dalla GenAI per migliorare l'efficienza, la comunicazione, il processo decisionale, l'accessibilità e la qualità dei servizi pubblici, pur riconoscendo i rischi associati, come la creazione di deepfakes, minacce alla sicurezza, disinformazione, violazioni della privacy e frodi. Vengono proposte misure di mitigazione specifiche per ciascun rischio, promuovendo un approccio equilibrato che valorizzi i benefici della GenAI minimizzando al contempo i potenziali danni.
⚖️ La Camera dei Lord 🇬🇧 pubblica un report sui LLM
Il Comitato per le comunicazioni e il digitale della Camera dei Lord ha pubblicato il rapporto conclusivo di un’indagine conoscitiva condotta nel 2023 sui modelli linguistici di grandi dimensioni (LLM).
Il documento - che testimonia l’attenzione dei legislatori di tutto il mondo per l’IA - raccomanda una regolamentazione equilibrata, test di sicurezza per i modelli ad alto rischio e lo sviluppo di standard per una innovazione responsabile. Si tratta di un report interessante in quanto contiene la sintesi delle principali sfide sociali e giuridiche dell’IA generativa (dal copyright alla protezione dei dati, dalla sicurezza all’impatto sui meccanismi democratici).
⚖️ L’IA nella Commissione Europea 🇪🇺
La Commissione Europea, con un atto del 24 gennaio scorso, ha adottato un documento (denominato in breve “AI@EC”) che delinea la visione strategica sull’utilizzo dei sistemi di IA a supporto della propria attività istituzionale.
La Commissione si propone come early adopter dell’approccio basato sul rischio definito nell’AI Act, indicando misure organizzative e operative per un uso sicuro e affidabile dell’IA con l’obiettivo di migliorare l’efficienza e l’efficacia del lavoro del proprio personale.
😂 IA Meme
Se dopo aver letto questa NL avete dubbi legati alle allucinazioni dell’IA, non fate come il protagonista di questo meme. Chiedete a chi ne sa di più. Formazione e competenze sono necessarie.
📚Consigli di lettura: “Il regolamento UE in materia di intelligenza artificiale”
L’AI Act è sempre più vicino, dovrebbe arrivare in primavera. È già tempo di studiarlo e approfondire le implicazioni per imprese, amministrazioni, professionisti e utenti.
Un documento utile da cui partire è il dossier pubblicato dall'Ufficio rapporti con l'Unione europea della Camera dei deputati. Il dossier offre una panoramica, sintetica ma completa, sui contenuti e sullo stato di avanzamento della proposta di Regolamento. Pur essendo destinato alle esigenze di documentazione interna per l'attività degli organi parlamentari e dei parlamentari stessi, questo documento può rivelarsi estremamente utile per quei lettori che desiderino comprendere i punti salienti dell’AI ACt e consultare i documenti ufficiali reperibili online (è corredato da numerosi link). Attraverso una sintesi accurata e accessibile, il report fornisce un'analisi delle disposizioni chiave dell'AI Act, illustrando struttura, obiettivi e principali implicazioni per gli attori coinvolti.
📣 Eventi
AI Festival - Milano, 14-1 .2.2024
L’intelligenza artificiale a supporto del lavoro parlamentare - Roma, 14.2.2024
Trasparenza, copyright e privacy: progetti digitali e diritti degli utenti nell’era dell’AI - Webinar, 15.2.2024
Per ora è tutto, torniamo la prossima settimana. Se la newsletter ti è piaciuta, commenta o fai girare. Grazie!