🤖 La prima volta di ChatGPT in una sentenza della Cassazione – Legge Zero #27
ChatGPT fa la sua prima apparizione nel testo di una sentenza della Cassazione. È la prova che l'IA è ormai diffusa in tutte le professioni, ma mancano formazione e regole. Cosa può andare storto?
🧠 L’oracolo di San Francisco
Alzi la mano chi non ha ‘un amico’ (si dice così, no?) che ha utilizzato ChatGPT come una sorta di oracolo a cui chiedere le cose più disparate, dalle domande sulle cause di un dolore fisico alle discussioni sui programmi politici, da domande storiche a quesiti su personaggi più o meno famosi. In tutti questi casi, il sistema di IA ha sicuramente risposto, magari in modo deciso, dando l’impressione che la risposta fosse affidabile anche quando, magari, non lo era.
La stessa cosa deve essere probabilmente successa quando un avvocato ha preparato un ricorso per chiedere la revisione di una sentenza che aveva condannato i suoi assistiti per reati edilizi ed ambientali. Tra le prove fornite, per dimostrare ai giudici che l’area in questione non era sottoposta a vincolo ambientale, l’avvocato ha argomentato che
anche l’intelligenza artificiale ChatGPT aveva confermato che l’area in questione non era soggetta a vincoli.
Apprendiamo di questo uso dell’IA generativa di OpenAI dalla sentenza n. 14631/2024 della terza sezione penale della Corte di Cassazione che cita questo argomento difensivo che però, evidentemente, non è stato condiviso dai giudici.
Si tratta - a nostra conoscenza - della prima pronuncia di Cassazione che cita ChatGPT, pur senza esprimersi sull’attendibilità dei suoi output. È interessante però perché dimostra che c’è già chi sta ricorrendo all’intelligenza artificiale generativa in ambito processuale, come l’avvocato che ha utilizzato il risultato del sistema di IA per supportare una richiesta di revisione e ha - sicuramente in buona fede - conferito alla risposta di ChatGPT il valore di un parere autorevole.
Pochi mesi fa (in LeggeZero #11) avevamo previsto che, prima o poi, sarebbe successo anche in Italia quello che stava accadendo in altri Paesi, come gli USA, dove alcuni avvocati sono stati addirittura condannati per l’uso non verificato di sistemi di IA generativa.
Sono necessarie e urgenti regole deontologiche e formazione per evitare che, la prossima volta, un uso scorretto di ChatGPT possa portare a una sentenza ingiusta.
🔊 Un vocale da… Roberto Scano: l’intelligenza artificiale può aiutare amministrazioni e imprese ad essere più accessibili rispettando i diritti delle persone con disabilità? Esistono già esempi di applicazioni in questo campo? Nel vocale di questa settimana ce ne parla uno dei massimi esperti europei di accessibilità.
📰 Meta utilizza i post degli utenti di Instagram e Facebook per addestrare la sua IA: è possibile fare optout (ma non è facile)
Notizia importante per tutti gli utenti di Instagram e Facebook: Meta vuole utilizzare i dati degli utenti, come post e foto ma non i messaggi privati, per addestrare i suoi modelli di intelligenza artificiale. Lo scrive in un aggiornamento della sua informativa privacy che sta comunicando agli utenti e che sarà operativa dal 26 giugno 2024. Se volete leggere l’informativa, mettetevi comodi, è lunga 49 pagine. Se invece volete una sintesi solo sull’uso dei dati per l’addestramento dell’IA, leggete direttamente questo documento (solo 3 pagine).
Gli utenti hanno la possibilità di rinunciare all’addestramento dell’IA sui propri dati, facendo opposizione, ma più di qualcuno ha notato che il processo è tanto complesso (ne ha scritto anche Mashable).
Per rinunciare, infatti, bisogna accedere alle impostazioni, andare sulla pagina dell’informativa, compilare un form (quello per Instagram lo trovate qui) e fornire la motivazione per la richiesta. Meta si riserva il diritto di rifiutare l’esercizio del diritto di opposizione.
Molto oneroso, forse troppo. Dovrebbe essere più facile disporre del proprio diritto a controllare l’uso che le IA fanno dei propri dati.
📰 L’AI Office europeo 🇪🇺 prende forma e tiene il suo primo webinar
L’AI Act non è stato ancora pubblicato sulla Gazzetta Ufficiale ma già da alcuni mesi la Commissione Europea ha costituito la struttura che avrà un ruolo fondamentale nell’applicarlo: l’AI Office (ne avevamo già scritto in LeggeZero #14).
Nei giorni scorsi sono stati resi noti alcuni dettagli sul suo funzionamento e sulla sua organizzazione: sotto la direzione dell’italiana Lucilla Sioli, vi lavoreranno 180 persone (di cui 80 ancora da assumere) organizzate in cinque unit (eccellenza nell’IA e nella robotica, regolazione e compliance, sicurezza, innovazione e coordinamento delle politiche, IA per il bene della società).
Inoltre, il 30 maggio l’AI Office ha organizzato il primo webinar per approfondire l’approccio dell’AI Act alla gestione del rischio e i relativi standard. La registrazione del webinar è disponibile qui.
⚖️ Il Garante privacy 🇮🇹 ha pubblicato le indicazioni per difendere i dati personali dal web scraping delle IA
In attesa di pronunciarsi nell’ambito di alcune istruttorie specifiche già avviate (tra le quali quella nei confronti di OpenAI per ChatGPT), l’Autorità Garante per la protezione dei dati personali ha pubblicato un documento interessante sulla pratica del web scraping (a cui abbiamo dedicato il primo piano di LeggeZero #24).
La forma scelta dal Garante è quella di una ‘nota informativa’ in cui sono fornite le indicazioni per difendere i dati personali pubblicati online da soggetti pubblici e privati in qualità di titolari del trattamento.
Nel documento l’Autorità suggerisce alcune misure concrete da adottare come
la creazione di aree riservate;
l’inserimento di clausole anti-scraping nei termini di servizio dei siti;
il monitoraggio del traffico di rete;
l’adozione di interventi specifici sui bot (come il file robots.txt).
Da questo momento, tutti i titolari di siti web che pubblicano dati personali sanno quali sono le misure che il Garante si aspetta che vengano utilizzate per proteggere i dati dallo scraping.
⚖️ Dall’ONU 🇺🇳 una tassonomia su IA generativa e diritti umani
L'Ufficio dell'Alto Commissariato delle Nazioni Unite per i Diritti Umani (OHCHR) - nell’ambito del Progetto B-Tech - ha pubblicato un interessante rapporto, in lingua inglese, che esplora i rischi per i diritti umani derivanti dallo sviluppo e dall'uso della tecnologia di IA generativa (si tratta di un supplemento a un precedente documento pubblicato a Novembre 2023).
La tassonomia proposta è cruciale per comprendere come i “Principi Guida delle Nazioni Unite su Imprese e diritti umani” dovrebbero essere applicati per affrontare i rischi connessi all'IA generativa.
Il rapporto dell’OHCHR - oltre a fornire un'analisi dettagliata dei principali diritti umani a rischio con esempi pratici - è utile perché aiuta a comprendere che:
l'IA generativa può minacciare diversi diritti umani, come il diritto alla sicurezza fisica e psicologica, il diritto all'uguaglianza davanti alla legge e alla protezione contro la discriminazione, il diritto alla privacy;
ogni fase dello sviluppo e dell'uso dell'IA generativa deve essere conforme ai principi internazionali sui diritti umani e deve essere sempre valutato l’impatto sui diritti fondamentali degli individui;
bisogna comprendere che i diritti umani sono interconnessi tra loro e un singolo caso d'uso dell'IA generativa può minacciare più diritti fondamentali simultaneamente.
Si tratta di un documento utilissimo non solo per gli sviluppatori e fornitori di IA, ma anche per tutte le organizzazioni che decideranno di utilizzare sistemi di intelligenza artificiale e dovranno valutarne il rischio in base alle norme dell’AI Act.
😂 IA Meme
Qualcuno ha chiesto a ChatGPT di generare un meme che viene dal 2030: ecco il risultato. Se non vi fa ridere ora, riprovate a guardarlo tra sei anni.
😂 IA Meme che non lo erano
Sono diventati subito virali i post con cui molti utenti USA hanno iniziato a condividere online i suggerimenti di AI Overview (una nuova funzionalità di Google non ancora disponibile da noi). Tra i suggerimenti forniti dall’IA del motore di ricerca: completare la pizza con la colla, mangiare sassi per carenza di minerali e vitamine, fare un bagno con il tostapane per rilassarsi.
Questi consigli assurdi (e pericolosi) non sono dovuti a allucinazioni o pregiudizi dell'intelligenza artificiale, ma a un problema di fonti con cui è stata addestrata l’IA. In generale, oltre l’ironia, in molti fanno notare che l’IA generativa - al momento - è intrinsecamente inaffidabile. Teniamone conto per capire come usarla al meglio, senza false aspettative.
📚 Consigli di lettura: “How Much Research Is Being Written by Large Language Models?” di Prabha Kannan
L’IA generativa ha cambiato il modo in cui si scrivono i paper scientifici? Si, stando a quanto hanno rilevato alcuni ricercatori dell’Università di Stanford. Nell’ambito della ricerca, si è notato che alcune parolecome "commendable", "innovative", "meticulous", "pivotal", "intricate", "realm" e "showcasing", dopo il lancio di ChatGPT, sono diventate sempre più frequenti nelle produzioni accademiche.
Nell’articolo (che trovate qui) si affrontano alcune questioni relative all’uso dell’IA generativa nella redazione degli articoli scientifici come la paternità, la trasparenza e l’affidabilità. Viene anche evidenziata la necessità di linee guida chiare per l'utilizzo di questi strumenti avanzati per garantire l'integrità della ricerca scientifica (al momento, solo alcune riviste disciplinano l’utilizzo di software di IA e LLM, come ad esempio quelle dell’Università di Monaco di Baviera).
Un punto centrale dell'articolo è la considerazione che, mentre l’IA generativa può contribuire a velocizzare e facilitare la scrittura di documenti, la stessa non può sostituire il giudizio critico e la creatività umana necessari per fare avanzare la conoscenza scientifica.
📚 Consigli di visione: “Dovremmo avere paura dell'IA?” risponde Yann LeCun
Un panel di esperti di intelligenza artificiale chiamati da Forbes ha discusso a Davos le sfide e le opportunità dell’IA. Tra loro Yann LeCun, una delle figure più importanti a livello mondiale, presenza ormai frequente in questa newsletter.
La registrazione del panel la trovate nel video “Should You Be Afraid Of AI?” (in inglese) che tocca argomenti chiave come i deepfake e la loro rilevanza nelle elezioni e nelle frodi.
In relazione ai timori sul fatto che l’IA possa essere ostile all’uomo, LeCun ritiene che la preoccupazione principale non debba essere che l'IA diventi malevola di per sé, ma piuttosto che, essendo sempre più potente, potrebbe diventare pericolosa in quanto non controllata correttamente. La sfida per la comunità scientifica è, quindi, lavorare su come rendere queste tecnologie sicure e controllabili.
📣 Eventi
Intelligenza artificiale per le pubbliche amministrazioni: gli obblighi dell'AI Act e le implicazioni del DDL del Governo - Webinar, 07.06.2024
We Make Future 2024- Bologna, 13-15.06.2024
Tech Tour 2024 - Firenze, 21.06.2024
🙏 Grazie per averci letto!
Per ora è tutto, torniamo la prossima settimana. Se la newsletter ti è piaciuta, commenta o fai girare.
Complimenti! le vostre newsletter sono sempre molto ricche attuali e interessantissime!