🤖 Io non c'entro, è colpa dell'IA – Legge Zero #13
In Canada una compagnia aerea aveva sostenuto di non essere responsabile per le informazioni scorrette fornite da un chatbot a un utente. Il Tribunale le ha dato torto: l'IA non è un soggetto autonomo
🧠 Processo al chatbot
Novembre 2022. Jake Moffatt è a Vancouver, dove vive. Ha appena saputo della morte di sua nonna e si è messo subito a prenotare i voli per raggiungere Toronto - dove si terranno i funerali - e poi ritornare a casa. Sa che Air Canada ha tariffe scontate per chi deve andare ai funerali di un parente stretto. Va sul sito della compagnia aerea dove interagisce con il chatbot di Air Canada, chiedendo quali documenti servano per richiedere la tariffa agevolata e se lo sconto possa essere eventualmente erogato come rimborso a posteriori.
Il chatbot, senza tentennamenti, risponde così:
Se hai bisogno di viaggiare immediatamente o hai già viaggiato e desideri presentare il tuo biglietto per ottenere una tariffa ridotta per lutto, ti preghiamo di farlo entro 90 giorni dalla data di emissione del tuo biglietto compilando il nostro modulo di Domanda di Rimborso Biglietto.
Jake si fida della risposta, dopotutto è il chatbot realizzato dalla compagnia aerea, sarà sicuramente affidabile. Purtroppo, però, quando - dopo i funerali - fa la richiesta rimborso, ha una brutta sorpresa. Un impiegato di Air Canada gli dice che, sulla base delle (vere) politiche della società, quel tipo di sconto andava richiesto prima del viaggio. Il chatbot ha sbagliato, ammette l’impiegato, ma la società non può essere ritenuta in alcun modo responsabile delle informazioni scorrette fornite dall’IA. Niente rimborso, quindi.
Jake non si rassegna e, visto che ha salvato tutta la conversazione con il chatbot, decide di fare causa alla compagnia aerea. Il Civil Resolution Tribunal - un Tribunale online per le controversie di valore inferiore ai 5mila dollari canadesi - con una sentenza pubblicata alcuni giorni fa, gli ha dato ragione, condannando Air Canada a risarcirlo del danno che consiste nella differenza tra le due tariffe.
Il giudice ha dato torto alla compagnia aerea che, nel giudizio, aveva sostenuto di non poter essere ritenuta responsabile per le affermazioni del chatbot che sarebbe stata “un’entità giuridica separata” da Air Canada, con una sua propria responsabilità. Il Civil Resolution Tribunal, invece, ha stabilito che la compagnia è responsabile di tutte le informazioni che si trovano sul suo sito, sia quelle che si trovano sulle pagine statiche sia quelle fornite dal chatbot, e che Moffatt non era tenuto a ritenere la sezione del sito dedicata alle tariffe scontate più affidabile delle informazioni ricevute dal chatbot. Non sappiamo se Air Canada farà appello, per il momento pare abbia disabilitato il chatbot dal proprio sito.
Il precedente canadese è interessante perché afferma un principio, valido anche nel nostro ordinamento, per cui un operatore professionale quando si rivolge agli utenti - anche attraverso sistemi di IA - è tenuto a farlo in modo diligente e quindi deve prestare attenzione all’addestramento dei chatbot e alla loro affidabilità, anche nell’ottica di ridurre le allucinazioni (ne abbiamo parlato in Legge Zero #11). Gli utenti, infatti, fanno affidamento sulle indicazioni ricevute dai chatbot le cui affermazioni impegnano l’azienda o l’amministrazione che li usa. E non si tratta di un profilo che può essere superato semplicemente inserendo un disclaimer secondo cui “le informazioni fornite dal chatbot potrebbero essere imprecise o contenere errori”.
Nel corso degli ultimi mesi, anche grazie ai progressi fatti da alcuni operatori di mercato, sono tante le organizzazioni che hanno deciso - o stanno valutando - di inserire chatbot sui propri siti o app, in modo da migliorare l’assistenza ai clienti, magari anche nell’ottica di ridurre i costi. Vista la sempre maggiore diffusione dei chatbot, è doveroso fare alcune considerazioni giuridiche. Da tempo ci si sta interrogando sulla possibilità che algoritmi e robot possano essere considerati autonomi soggetti di diritto e sulla necessità di istituire un tipo di “personalità elettronica”, diverso da quello della persona fisica e della persona giuridica. Al momento, però, nessuna delle norme vigenti o di quelle a cui si sta lavorando (come l’AI Act o la proposta di direttiva UE sulla responsabilità da IA) consente ancora di ritenere responsabili direttamente i chatbot.
Quello che ci dimostra la vicenda del chatbot di Air Canada, invece, è che la responsabilità per i danni prodotti dal chatbot (ad esempio a causa di errori o informazioni fuorvianti) ricade sul produttore e sull’azienda o sulla pubblica amministrazione che li utilizza.
Pertanto, la scelta di ricorrere a un chatbot, di che tipo e per quali attività, deve essere accompagnata anche da alcune considerazioni sulle implicazioni giuridiche come:
l’assicurazione da parte del fornitore del chatbot di idonee garanzie;
la necessaria conduzione di un’analisi del rischio in modo da identificare le misure per la mitigazione dei rischi;
la verifica dell’affidabilità del sistema e dell’adeguatezza dell’attività di addestramento;
la stipula di opportune polizze assicurative;
l’aggiornamento di termini di servizi e disclaimer (ad esempio, rendendo sempre trasparente che l’utente sta parlando con un chatbot e chiarendogli che su determinati temi - in caso di discordanza con il chatbot - prevale quanto detto da un operatore umano o riportato nell’apposita pagina del sito);
le procedure con cui affrontare i casi di errori e allucinazioni quando siano segnalate dal cliente.
Altrimenti, il rischio è di spendere in contenziosi e risarcimenti più di quanto l’IA consenta di risparmiare.
🔊 Un vocale da… Massimiliano Dona (Unione Nazionale Consumatori): quali sono i campi di applicazione dell’IA nel rapporto tra aziende e consumatori? Nel vocale di questa settimana ce lo spiega un avvocato, Presidente di una delle più importanti associazioni italiane di consumatori. E voi lo sapevate?
📰 La FTC 🇺🇸 avvia un’indagine sugli investimenti nel settore della IA generativa
Negli Usa, la Federal Trade Commission (FTC) ha avviato un’indagine sugli investimenti e le partnership commerciali nel settore dell’IA generativa. Sono state emesse sei ordinanze nei confronti delle principali aziende del settore al fine di acquisire una comprensione più profonda delle tendenze del mercato e delle pratiche commerciali.
La FTC è l’agenzia governativa statunitense che si occupa di promuovere la tutela dei consumatori e la concorrenza tra le imprese, perseguendo le pratiche concorrenziali scorrette. L’obiettivo dell’agenzia è quindi garantire che anche nel settore dell’IA ci sia una effettiva (e sana) concorrenza tra gli operatori di mercato.
📰 Le proposte del parlamento francese 🇫🇷 per la regolazione dell’IA
In Francia, l’Assemblée Nationale ha presentato un rapporto parlamentare sulle sfide dell'intelligenza artificiale generativa in materia di protezione dei dati personali e sull'utilizzo dei contenuti generati da sistemi di IA.
Se dal punto di vista mediatico (qui ne ha parlato “le Monde”) la proposta che ha avuto maggiore risalto nel Paese è stata quella di attribuire al CNIL (il Garante Privacy Francese) il ruolo di autorità di regolazione nazionale in ambito IA, va sottolineato che il documento contiene 33 raccomandazioni relative all’utilizzo dell’intelligenza artificiale in diversi ambiti.
Tra queste figurano indicazioni per la diffusione dell’IA nel settore pubblico, raccomandazioni per l’uso dell’IA in ambito politico e elettorale e suggerimenti per garantire la protezione dei diritti fondamentali dei cittadini.
⚖️ La FTC 🇺🇸 propone una legge per tutelare le persone contro i furti d’identità e le frodi realizzate con l’IA generativa
La FTC si sta dando molto da fare ultimamente in materia di IA. Oltre alle iniziative intraprese nei confronti dei big player del mondo dell’IA generativa (ne abbiamo dato conto sopra), nelle ultime settimane l’agenzia ha approvato una proposta emendativa alla Rule on Impersonation of Government and Businesses. Le trade rules della FTC sono regolamenti che stabiliscono le condizioni di concorrenza e tutela dei consumatori nel commercio nazionale e transfrontaliero. Lo scopo della nuova proposta è estendere la tutela delle persone fisiche contro frodi e impersonificazioni illecite. L’Agenzia sta inoltre chiedendo commenti sulla possibilità che la norma rivista dichiari illegale per un'impresa fornire beni o servizi che sa o ha motivo di sapere essere utilizzati per danneggiare i consumatori attraverso l'impersonificazione.
⚖️ In Perù 🇵🇪 presentata una proposta di legge che prevede l’uso obbligatorio dell’IA per le pubbliche amministrazioni
“Gli enti pubblici di cui all'articolo I del titolo preliminare della legge n. 27444 sono obbligati a implementare strumenti di intelligenza artificiale nell’attività amministrativa e nella fornitura di servizi pubblici”.
È quanto prevede l’articolo 2 di una recente proposta di legge presentata in Perù per introdurre l'uso obbligatorio dell'intelligenza artificiale negli enti pubblici. La proposta legislativa è inoltre accompagnata da una serie di esempi concreti di utilizzo dell’intelligenza artificiale nei diversi organi dell’amministrazione e dalla metodologia per un’analisi dei costi/benefici relativa all’implementazione di soluzioni di IA in diversi settori della vita pubblica.
😂 IA Meme (che non lo erano)
Negli ultimi giorni sono diventate virali alcune immagini create con Gemini, la nuova versione dell’IA generativa di Google. A un utente che aveva richiesto di creare l’immagine di un soldato tedesco nel 1943 (ai tempi della seconda guerra mondiale) sono state mostrate alcune immagini che - evidentemente per un eccesso di zelo nelle misure per la prevezione dei bias di genere - vanno contro la verità storica. Non è andata meglio a chi ha chiesto immagini dei padri fondatori degli USA, dei vichingi o di un papa. Google si è scusata e sta correndo ai ripari. L’equilibrio tra verità storica e prevenzione di pregiudizi e bias non è poi così facile.
📣 Eventi
Per ora è tutto, torniamo la prossima settimana. Se la newsletter ti è piaciuta, commenta o fai girare. Grazie!