🤖 Fermateli – Legge Zero #26
I deepfake sono arrivati nelle campagne elettorali, anche da noi. È necessario imporre subito limiti e obblighi di trasparenza sull'uso dell'IA per evitare effetti tossici per le nostre democrazie.
🧠 Il ritardo delle regole
“Fermali". Era questa la scritta che campeggiava sul manifesto elettorale che Ciudadanos, partito politico spagnolo, ha affisso nelle strade della Catalogna nel corso della campagna elettorale terminata nelle scorse settimane. Subito sotto la foto di un incontro tra Puigdemont, leader indipendentista catalano (protagonista della tentata secessione catalana del 2017) e Pedro Sanchez (il premier spagnolo).
La foto non è stata scattata in un incontro tra Puigdemont e Sanchez in quanto un incontro tra i due non c’è stato. In calce al manifesto, in piccolo (forse troppo in piccolo), era riportata una scritta “immagine generata con l’intelligenza artificiale”. In questo caso, il primo in Spagna e uno dei primi in Europa, l’IA è stata utilizzata per confondere e influenzare gli elettori attraverso la rappresentazione di qualcosa che non è mai avvenuto.
Quello che molti temevano sta effettivamente accadendo: gli staff di partiti e movimenti politici stanno utilizzando l’IA non tanto per creare messaggi più accattivanti o per ridurre i costi delle campagne elettorali, quanto per spingerli a credere cose che non esistono o non sono mai accadute. E non sempre c’è il disclaimer che chiarisca che i contenuti sono stati generati con l’IA.
Anche in India - la più grande democrazia del mondo chiamata al voto - i candidati stanno utilizzando l'intelligenza artificiale per manipolare la realtà tramite la creazione di immagini propagandistiche, parodie e falsi contenuti (come quello in cui un politico deceduto viene “riportato in vita” per invitare gli elettori a votare il figlio alle elezioni).
In attesa che in Europa entri in vigore l’AI Act - che però sarà applicabile solo alle campagne elettorali del futuro - anche nel resto del mondo sembra difficile arginare il fenomeno dei deepfake (ne abbiamo parlato in Legge Zero #8). Anche perché le norme che regolano le campagne elettorali non sono state aggiornate. Pensiamo all’Italia dove ancora discutiamo del silenzio elettorale sui social media oppure proviamo ad applicare un anacronistico divieto di pubblicazione dei sondaggi elettorali nei giorni precedenti alle elezioni, ma è possibile l’uso non trasparente di contenuti generati da IA (in compenso, quasi tutti i partiti hanno inserito l’IA nei propri programmi elettorali per le europee).
Negli USA, dove solo alcuni Stati hanno adottato una specifica normativa, la Commissione federale per le comunicazioni (FCC) sta valutando nuove regole sulla trasparenza degli annunci politici realizzati mediante tecnologie di IA.
Le regole sono necessarie perché i cittadini, gli elettori, non sono in grado di individuare facilmente i contenuti non veritieri. E, purtroppo, pare che l’IA non sia di molto aiuto. In questo articolo di Correctiv si analizza come i chatbot più noti (Google Gemini o ChatGPT) falliscano nel rispondere correttamente a domande politiche, specialmente in vista delle elezioni europee (ad esempio sui programmi). I chatbot spesso forniscono risposte inesatte, inventano informazioni o evitano di rispondere. L'articolo evidenzia i limiti tecnici e i bias nei dati di addestramento, e conclude che, al momento, i chatbot non sono fonti affidabili per informazioni politiche.
Peccato che, sicuramente, migliaia di elettori sceglierà partito e candidati da votare (o da non votare) proprio dopo aver chiesto all’IA.
🔊 Un vocale da… Corrado Giustozzi: qual è il principale problema delle attuali tecnologie di intelligenza artificiale? cosa cambierà quando arriveranno le ‘IA spiegabili’? Nel vocale di questa settimana lo spiega uno dei massimi esperti europei di sicurezza informatica.
📰 Cosa è successo all’AI Security Summit 2024 di Seoul 🇰🇷
Questa settimana (dal 21 al 24 maggio) si è tenuto l’AI Seoul Summit organizzato dal governo UK e da quello sudcoreano per promuovere la collaborazione di oltre quaranta governi in materia di intelligenza artificiale (qui sotto il videomessaggio inviato dal Presidente Meloni).
Qui, invece, trovate le dichiarazioni di rito dei Paesi partecipanti.
Uno dei principali risultati del summit è stato quello che ha riguardato 16 aziende tecnologiche globali, tra cui Amazon, Google, Microsoft, Mistral, IBM, OpenAI e Samsung. Le aziende (europee, statunitensi, asiatiche) hanno promesso di pubblicare framework di sicurezza per misurare i rischi e di non sviluppare o distribuire modelli di IA se i rischi non possono essere mitigati adeguatamente. Un passo importante che sembra una via di mezzo tra l’obbligo e l’autoregolazione.
Il prossimo incontro internazionale si terrà all’inizio del 2025 in Francia (uno dei Paesi europei più attivi sull’intelligenza artificiale) e si chiamerà ‘AI Action Summit’.
📰 La rivista tedesca ‘Die Aktuelle’ 🇩🇪 paga 200.000 euro di risarcimento per la falsa intervista a Michael Schumacher realizzata con l’IA
Una grande escusiva, così fu presentata. Un anno fa, una rivista tedesca pubblicò una finta intervista al campione di Formula1 Michael Schumacher (che non appare più in pubblico dal 2013 a causa di un grave incidente con gli sci). Solo alla fine del pezzo veniva indicato che, in realtà, le risposte erano state fornite da un’intelligenza artificiale.
Le scuse dell’editore (e il licenziamento del direttore) non sono servite a evitare che la famiglia del pilota adisse le vie legali, iniziando una controversia al termine della quale le è stato riconosciuto un importo di 200mila euro.
Ironia della sorte, invece, il Tribunale di Monaco - chiamato ha decidere sul licenziamento del direttore - lo ha annullato, giudicandolo sproporzionato.
⚖️ I Garanti privacy UE 🇪🇺 pubblicano un rapporto sull’attività della task force dedicata a ChatGPT
Il Comitato europeo per la protezione dei dati (EDPB) ha pubblicato un rapporto, in lingua inglese, che descrive il lavoro svolto dalla task force che, nell’ultimo anno, ha lavorato su ChatGPT. Il documento, datato 23 maggio 2024, offre una panoramica delle principali questioni aperte relative al rispetto del GDPR non solo da parte di OpenAI ma da parte di tutti i provider di IA generativa. Non ci sono invece spoiler sulle istruttorie aperte dalle singole Autorità (come quella italiana che, nel 2023, aveva portato al blocco di ChatGPT e che non risulta ancora conclusa).
Il rapporto dell’EDPB - oltre a fornire un'analisi dettagliata delle diverse fasi del trattamento dei dati personali in ChatGPT - è utile perché aiuta a comprendere che:
ogni fase del trattamento, dalla raccolta dei dati di addestramento all'output generato, deve soddisfare i requisiti del GDPR (e che il legittimo interesse forse può essere una valida base giuridica per il trattamento);
è essenziale garantire che il trattamento dei dati sia equo, trasparente e rispettoso dei diritti degli interessati;
le Autorità di controllo devono coordinarsi per affrontare le sfide derivanti dall'uso di modelli di linguaggio su larga scala come ChatGPT.
Interessante, infine, il questionario - utilizzato dai Garanti per le rispettive istruttorie e allegato al report - che può servire come guida per provider e utilizzatori di servizi di IA (e per i loro DPO).
⚖️ In UK 🇬🇧 approvata la legge sulle auto a guida autonoma: nel 2026 i primi veicoli senza conducente
Il Regno Unito ha approvato una legge che consentirà l'uso dei veicoli senza conducente a partire dal 2026.
Questa nuova legge non solo rappresenta un passo significativo per l'innovazione nel settore automobilistico (con l’obiettivo di creare 38mila posti di lavoro in 10 anni), ma stabilisce anche un quadro normativo chiaro per garantire che l'introduzione dei veicoli autonomi avvenga in sicurezza. Ecco i punti salienti del provvedimento:
in caso di incidente, se guida l’IA, il conducente umano non sarà responsabile (lo sarà il produttore del sistema);
le aziende dovranno dimostrare la sicurezza dei loro sistemi prima di ottenere l'autorizzazione alla circolazione;
le aziende dovranno aggiornare continuamente i sistemi di sicurezza e le istruzioni per l'uso dei veicoli autonomi, anche per garantire la privacy degli utenti.
Il testo della legge lo trovate qui.
😂 IA Meme
La scorsa settimana abbiamo scritto di quanto la nuova versione di ChatGPT ricordasse il film ‘Her’ con Joaquin Phoenix e Scarlett Johansson (Legge Zero #25). Ecco un veloce riassunto di quello che è successo:
• Sam Altman aveva chiesto all’attrice di usare la sua voce per GPT-4o (per ricreare l’effetto Her);
• Scarlett Joansson ha rifiutato;
• 9 mesi dopo è stato lanciata la voce "Sky" che assomigliava molto alla sua;
• lo staff dell’attrice ha annunciato di voler adire le vie legali;
• il team di OpenAI ha risposto alle accuse, sostenendo che non era intenzione dell’azienda a imitarla, ma ha deciso comunque di rimuovere la voce (in attesa di capire come sarà definito il contenzioso).
📚 Consigli di lettura: “No, Today’s AI Isn’t Sentient” di Fei-Fei Li e John Etchemendy
L’intelligenza artificiale di oggi è senziente? A questa domanda rispondono, in un interessante e chiarissimo articolo pubblicato su Time, due autorevolissimi docenti dell’Università di Stanford e co-fondatori dello Human Centered AI Institute. Infatti, secondo alcuni esperti e per quasi il 20% degli americani (trovate il sondaggio qui), le IA sarebbero già senzienti. Il titolo fuga ogni dubbio fin da principio “No, l'intelligenza artificiale di oggi non è senziente”.
I professori Fei-Fei Li e John Etchemendy sostengono che
Tutte le sensazioni - avere fame, provare dolore, innamorarsi - sono il risultato di stati fisiologici che un modello linguistico di grandi dimensioni (LLM) semplicemente non possiede. Di conseguenza, sappiamo che un LLM non può avere esperienze soggettive di questi stati. In altre parole, non può essere senziente.
Almeno per ora.
📚 Consigli di visione: “Cosa potrebbe rendere l’IA cosciente?” Wojciech Zaremba ospite del podcast "Gradient Dissent"
Wojciech Zaremba, co-fondatore di OpenAI, è stato ospite del podcast "Gradient Dissent". Zaremba, noto per il suo lavoro nel campo della robotica e dell'intelligenza artificiale, ha discusso vari temi cruciali per l'IA, tra cui la sicurezza, l'addestramento dei modelli e la possibilità che l'IA diventi cosciente.
Zaremba ha rivelato che esiste un canale Slack in cui i dipendenti di OpenAI discutono del benessere dell'IA (si, avete letto bene). I ricercatori pensano che sia possibile, attraverso determinati tipi di addestramento, produrre una sofferenza dell’IA. Attualmente stanno cercando di capire se il fatto di dare una punizione a un modello sia analogo a infliggere dolore a un essere umano.
Qui sotto trovate questo passaggio dell’intervista, per guardare tutto l’episodio del podcast cliccate qui.
📚 Consigli di visione: “L’UE approva definitivamente l’AI Act”, Ernesto Belisario su Rai News 24
Il 21 maggio, l’Unione Europea ha approvato definitivamente il Regolamento sull’intelligenza artificiale. L’avvocato Ernesto Belisario, in un’intervista su RaiNews24, ha spiegato perché si tratta di una legge importante anche al di fuori dei confini del vecchio continente.
💬 Il dibattito sull’IA
Gli scenari catastrofici sugli sviluppi dell’IA sono al centro dei discorsi delle persone più influenti nel mondo dell’intelligenza artificiale. Lo dimostra questo scambio tra Eric Schmidt (ex CEO di Google) e Yoav Shoham (CEO di AI21 Labs) nel corso di un evento.
Schmidt: "A proposito, sai cosa faremo quando i computer avranno il libero arbitrio? Li spegneremo."
Shoham: “Vedremo chi spegnerà chi.”
📣 Eventi
Intelligenza artificiale per le pubbliche amministrazioni: gli obblighi dell'AI Act e le implicazioni del DDL del Governo - Webinar, 07.06.2024
We Make Future 2024- Bologna, 13-15.06.2024
Tech Tour 2024 - Firenze, 21.06.2024
🙏 Grazie per averci letto!
Per ora è tutto, torniamo la prossima settimana. Se la newsletter ti è piaciuta, commenta o fai girare.