🤖 Lo ha detto davvero? – Legge Zero #8
L'IA rischia di influenzare le elezioni del 2024. Mentre legislatori e governi sono in ritardo, le aziende che producono sistemi di IA provano autonomamente a correre ai ripari. Sarà sufficiente?
🧠 L’IA è un rischio per le democrazie?
Squilla il telefono. Rispondo e sento la voce di uno dei candidati alle elezioni che mi parla. No, non è un messaggio registrato. Fa riferimento a me, a dove vivo, al mio lavoro. Risponde alle mie domande su economia, lavoro, politica estera, innovazione tecnologica. Eppure, non è il candidato in persona. È il suo gemello digitale, praticamente un’IA addestrata con la sua voce, il suo programma elettorale e i suoi discorsi che – conoscendo alcuni dati delle persone che chiama (età, residenza, professione) - è in grado di rispondere alle domande poste dagli elettori. Pensate: migliaia di cittadini che possono essere contattati in una sola giornata, contemporaneamente.
Se vi sembra uno scenario da film di fantascienza o da serie distopica, sappiate che in realtà ci siamo già molto vicini. In Pennsylvania (USA), ad esempio, la candidata democratica al Congresso Shamaine Daniels sta usando un sistema di IA generativa chiamato “Ashley” che sta contattando telefonicamente gli elettori dello Stato per raccogliere fondi per la campagna elettorale, presentandosi come volontario che supporta il lavoro della candidata. Ashley conosce perfettamente il programma della candidata, il profilo delle persone che sta chiamando (in modo da interagire con loro) e non si abbatte se qualcuno le attacca il telefono. Ashley ha una voce metallica e dice di essere un’IA, nonostante nessuna legge al momento imponga alla startup che l’ha creata e alla candidata che la utilizza alcun obbligo di trasparenza.
Insomma, l’intelligenza artificiale è già arrivata nelle campagne elettorali e, praticamente ovunque, ha fatto prima dei legislatori, con effetti che potrebbero essere molto pericolosi.
Il 2024, infatti, sarà "il più grande anno di elezioni della storia", come ha recentemente titolato l’Economist. Più di 4 miliardi di persone, oltre la metà della popolazione mondiale, saranno chiamate a esprimere un voto in circa 60 Paesi (a partire dal rinnovo del parlamento europeo a giugno e dalle elezioni presidenziali Usa a novembre).
In linea generale, l’intelligenza artificiale può essere utilizzata - anche proficuamente - in diversi ambiti delle nostre democrazie (qui un interessante approfondimento di Bruce Schneier). Ad esempio:
L'IA può essere impiegata per aiutare gli elettori a comprendere e confrontare le posizioni dei differenti candidati sui differenti temi.
L’IA può aiutare i candidati a capire cosa vogliono gli elettori e a creare programmi elettorali che soddisfino bisogni e aspettative dei cittadini (è quello che ha già fatto in UK il candidato indipendente Andrew Gray).
L’IA potrebbe aiutare i candidati a creare materiali efficaci a basso costo (audio, video, grafiche, siti).
È quindi facilmente prevedibile che nell’ambito delle campagne elettorali sarà fatto un uso sempre più diffuso di sistemi di intelligenza artificiale che potrebbero – se impiegati in modo non etico – falsare i meccanismi democratici. È questo uno dei motivi per cui nel corso degli ultimi mesi i grandi della terra si stanno interessando tanto di intelligenza artificiale: evitare che i sistemi di IA possano avere effetti tossici su democrazie e campagne elettorali, alterandone lo svolgimento.
In questo momento, quello che preoccupa molti è il tema dei deepfake: grazie alle soluzioni di IA generativa è sempre più facile creare foto, video e audio falsi, al solo fine di danneggiare l’immagine pubblica di un candidato e di fargli perdere voti. La tecnologia che sta dietro ai deepfake sta diventando sempre più sofisticata, e distinguere un video vero da uno falso potrà risultare progressivamente complicato, con pesantissime implicazioni per il mondo dell’informazione, per il dibattito democratico e per la vita di tutti noi.
In Slovacchia una registrazione falsa ha influenzato l'esito elettorale e anche in Argentina i deepfake hanno contraddistinto il confronto tra i candidati alle presidenziali (ne abbiamo parlato nel #1 di LeggeZero). Un'indagine dell'agenzia AFP, invece, ha scoperto che centinaia di articoli che parlano positivamente dell’operato del governo del Bangladesh, apparentemente scritti da esperti indipendenti, sarebbero stati scritti da IA in vista delle prossime elezioni.
Lo scenario è così preoccupante che il Presidente USA Biden – che ha annunciato la propria ricandidatura – ha creato una task force dedicata al tema dei deepfake. Si tratta di un team di avvocati che sta lavorando alla creazione di un "kit legale" per agire velocemente nel caso in cui ce ne fosse bisogno.
Il lavoro non è facile: negli USA soltanto alcuni stati federali hanno adottato delle norme sulla diffusione di contenuti fake (regolando la materia in modo molto difforme tra loro), ma manca una disciplina nazionale. In Europa, invece, l’AI Act contiene specifici obblighi di trasparenza sui contenuti generati da IA, ma non sarà comunque pienamente applicabile prima di due anni.
Nelle ultime settimane, in tutto il mondo, si sta facendo strada l’idea che i casi di contraffazione digitale dovrebbero essere vietati (e quindi puniti) in quanto tali, dal momento che i contenuti manipolati sarebbero comunque in grado di condizionare l’opinione pubblica. Non è facile però: non sempre è agevole rintracciare chi ha creato il deepfake e, punendo chi li diffonde, si correrebbe il rischio di ritenere colpevoli anche chi li ha inconsapevolmente condivisi, facendo incolpevole affidamento sulla loro veridicità. In ogni caso, è facile prevedere che le nuove leggi saranno davvero efficaci soltanto se prevederanno la possibilità per le vittime di bloccare rapidamente, e agevolmente, la diffusione dei video contraffatti.
Nel ritardo degli Stati, sono le aziende tecnologiche che provano a correre ai ripari. Microsoft e Adobe, ad esempio, hanno avviato un progetto (Content Credentials) che promette di etichettare i contenuti generati dall’IA in modo da poterli facilmente individuare. Meta e TikTok hanno avviato iniziative per etichettare efficacemente i contenuti prodotti da IA, mentre OpenAI ha recentemente cambiato i propri termini d’uso per vietare l’uso dei propri strumenti in campagna elettorale.
Tutte iniziative lodevoli, ma mi sembra un déjà vu. È già successo con le piattaforme di social media che, per molto tempo, sono state libere di autoregolarsi. E non è finita benissimo. Cambridge Analytica vi ricorda qualcosa?
🔊 Un vocale da… Francesco Clementi (Università La Sapienza): le campagne elettorali del 2024 saranno tutte segnate dall’impiego di sistemi di intelligenza artificiale. È necessaria una collaborazione tra istituzioni e operatori di mercato ci dice un importante costituzionalista nell’audio di questa settimana.
📰 OpenAI cambia i termini d’uso: vietato ChatGPT nelle campagne elettorali
OpenAI si impegna a difendere la democrazia digitale, concentrando i propri sforzi nella prevenzione di abusi tecnologici come deepfake e chatbot ingannevoli durante le competizioni elettorali. Viene presentato così l’aggiornamento dei sistemi di AI generativa (ome ChatGPT e Dall-E che vieta espressamente gli usi volti alla realizzazione di materiali elettorali mirati o comunque idonei a distorcere le intenzioni di voto. In un post pubblicato sul proprio blog, inoltre, OpenAI rivela di aver intrapreso altre iniziative, quali credenziali digitali e classificatori di provenienza dei contenuti, al fine di garantire la massima trasparenza sulle immagini generate dall'AI. Per le stesse finalità, OpenAI ha avviato collaborazioni strategiche con partner esterni, tra cui spicca la National Association of Secretaries of State (NASS), organizzazione apartitica che negli Stati Uniti si occupa di informazione elettorale e di politiche pubbliche. Basterà?
📰 L’Olanda si prepara al futuro (dell’IA)
L’Autorità Olandese per la Protezione dei Dati - che ha anche la competenza in materia di IA - ha pubblicato un documento in cui ha evidenziato l'urgente necessità di una migliore gestione dei rischi e di un monitoraggio degli incidenti legati all'IA e agli algoritmi (come la disinformazione).
L'Autorità propone un piano nazionale, da attuarsi entro il 2030, in modo da attuare l’utilizzo degli algoritmi in modo da mettere al centro i diritti e le libertà delle persone. In questa strategia un ruolo fondamentale lo avrà la formazione delle persone su come funzionano gli algoritmi (anche con riferimento alle fake news).
⚖️ Negli 🇺🇸 si discute una proposta di legge federale in materia di deepfake
La proposta di legge nota come "Protect Elections from Deceptive AI Act", mira a proibire la distribuzione di contenuti audiovisivi generati artificialmente tramite intelligenza artificiale (AI) che sono materialmente ingannevoli e riguardano candidati a cariche federali.
Coerentemente con il Primo Emendamento, la proposta di legge prevede eccezioni per parodie, satira e l'uso di contenuti generati da IA in trasmissioni giornalistiche.
⚖️ In 🇮🇹 presentata un proposta di legge sulla trasparenza dei contenuti generati da IA
Nelle scorse settimane è stata presentata alla Camera dei deputati una proposta di legge contenente “disposizioni per assicurare la trasparenza nella pubblicazione e diffusione di contenuti prodotti mediante sistemi di intelligenza artificiale”. La proposta, dal contenuto analogo ad altro disegno di legge presentato al Senato, ha l’obiettivo di garantire che i sistemi basati sull'IA siano trasparenti, responsabili e rispettosi delle norme etiche e sociali. Sarà interessante capire se il Parlamento darà priorità a questo tema.
😂 IA Meme
I minions ci ricordano che dobbiamo fare molta attenzione ai contenuti che vedremo nelle campagne elettorali: molto probabilmente saranno generati con un’IA.
📚 Consigli di ascolto: Unconfuse me con Bill Gates e Sam Altman
Bill Gates - che nei giorni scorsi ha incontrato Mattarella e Meloni - ha un suo podcast: Unconfuse me. Nell’ultimo episodio ha ospitato Sam Altman (il CEO di OpenAI) per parlare di intelligenza artificiale. Poco più di trenta minuti di conversazione tra due delle persone più influenti a livello mondiale per il settore dell’innovazione tecnologica e della IA.
Tra i tanti i temi toccati nel corso dell’episodio, i due protagonisti approfondiscono i temi delle regole dell’IA, dell’utilizzo dei sistemi di IA nell’ambito delle campagne elettorali e dei rischi per la manipolazione pubblica e la disinformazione.
Utile per capire il punto di vista di chi guida lo sviluppo tecnologico e si confronta con legislatori e governi che devono regolare gli usi dell’IA.
📚 Consigli di lettura: Tecnocina di Simone Pieranni
La Cina è un paese così legato alle tecnologie che è proprio ripercorrendo il suo rapporto con le stesse e, più in generale, con l’innovazione che è possibile cogliere tutta la sua complessità e il suo sviluppo storico.
Lo si comprende bene leggendo Tecnocina di Simone Pieranni, storia della tecnologia cinese del 1949 ad oggi. Naturalmente, si parla di IA. In particolare, l’autore si sofferma sui futuri possibili impieghi delle tecnologie emergenti in campo militare: l’intelligenza artificiale sarebbe impiegata per colmare un gap militare con gli Stati Uniti non solo nella “competizione” terrestre ma anche in quella “spaziale”.
Considerata la situazione geopolitica attuale, le tecnologie sono destinate a giocare un ruolo fondamentale nell’evoluzione degli schieramenti militari ed economici. “The future is unwritten”.
📣 Eventi
Intelligenza artificiale e decisioni automatizzate - Firenze, 22.1.2024
Safe Artificial Intelligence Systems for public administrations - Webinar, 25.1.2024
AI Festival - Milano, 14-15 .2.2024
Per questa settimana è tutto, torniamo sabato prossimo. Se la newsletter ti è piaciuta, commenta o fai girare. Grazie!