🤖 In piazza contro i porno deepfake e le discriminazioni digitali – Legge Zero #44
Le immagini deepfake pornografiche, frutto di un uso illecito dell'IA, sono una minaccia crescente. In Corea del Sud, le donne protestano contro questa emergenza, sollecitando regole più severe.
🧠 Non è Black Mirror
Ci sono immagini che sono come sveglie. Immagini che ci mettono davanti a una realtà che supera la fantasia degli sceneggiatori di serie TV distopiche. Immagini che dimostrano che i rischi dell’IA (usata da persone senza scrupoli) sono tutt’altro che ipotetici o remoti. Immagini che ci fanno riflettere sulla necessità di regole urgenti.
È il caso di quelle che vengono da Seoul, capitale della Corea del Sud, dove soprattutto le donne sono scese in piazza per protestare contro l’emergenza nazionale rappresentata dai deepfake porno.
Con il termine ‘deepfake porn’ ci si riferisce all'utilizzo dell'intelligenza artificiale per creare e diffondere materiale pornografico senza il consenso dei soggetti coinvolti. Si tratta di immagini manipolate con l'ausilio di software di intelligenza artificiale, ottenute sovrapponendo i volti di persone, spesso presi da foto disponibili online (come dai profili social), su immagini pornografiche. Questi contenuti, presentati come reali, vengono poi diffusi in rete. Le applicazioni in grado di creare deepfake, che non sempre riguardano materiale pornografico, sono diventate nel tempo sempre più avanzate, rendendo ormai difficile distinguere immediatamente un’immagine autentica da una contraffatta.
Si tratta di un fenomeno globale che ha colpito celebrità come Taylor Swift (ne abbiamo parlato in LeggeZero #10) e studentesse australiane (tanto da giustificare l’adozione di una legge specifica in materia, come scritto in LeggeZero #42). In Corea del Sud, però, ha assunto le dimensioni di una vera e propria crisi.
Nel Paese, i deepfake sono diffusissimi. Come segnalavamo in Legge Zero #14, già in occasione delle elezioni, era stata rilevata la presenza di 129 video deepfake diffusi in soli venti giorni. Tra questi, anche un video falso in cui il Presidente in carica ammetteva di essere un incompetente. La situazione sui porno deepfake, però, corre il rischio di essere ancora più critica. E, nonostante la violenza di genere causi danni significativi, sembra esserci ancora scarsa consapevolezza sul tema.
La Corea del Sud ha sperimentato una rapida crescita tecnologica negli ultimi decenni. È al primo posto al mondo per numero di possessori di smartphone ed è il Paese con più alta connettività Internet. Molti lavori, tra cui quelli nei ristoranti, nella produzione e nei trasporti pubblici, vengono rapidamente sostituiti da robot e intelligenza artificiale.
Ma, come sottolinea Human Rights Watch, il progresso del paese in materia di uguaglianza di genere e altre misure per i diritti umani non è andato di pari passo con l'avanzamento digitale. E le ricerche hanno dimostrato che il progresso tecnologico può effettivamente aggravare il problema della violenza di genere.
Particolarmente preoccupante è il coinvolgimento di adolescenti, sia come autori che come vittime di deepfake pornografici. Molti casi, infatti, riguardano studenti che utilizzano foto di compagni di classe e insegnanti per creare immagini false a sfondo sessuale. La polizia sudcoreana ha aperto un'indagine su Telegram, accusato di essere diventato un terreno fertile per la diffusione di questo materiale illegale, soprattutto tra gli adolescenti. E il presidente Yoon Suk Yeol ha definito la situazione come come ‘epidemia di crimini sessuali digitali’, sollecitando le autorità ad adottare misure più severe per contrastarla.
Ma l'intelligenza artificiale non è solo dannosa e la stessa Corea del Sud ne fornisce la prova. Nel 2022, un centro di supporto digitale per i reati sessuali gestito dall’amministrazione metropolitana di Seul ha sviluppato uno strumento in grado di tracciare, monitorare ed eliminare automaticamente immagini e video deepfake 24 ore su 24.
La tecnologia, che ha vinto il premio UN Public Administration Prize 2024 , ha contribuito a ridurre il tempo impiegato per trovare i deepfake da una media di due ore a tre minuti. Tuttavia, sebbene tali tentativi possano aiutare a ridurre ulteriori danni causati dai deepfake, è improbabile che siano soluzioni definitive.
Per ottenere un cambiamento significativo, il governo deve responsabilizzare i fornitori di servizi, come le piattaforme dei social media e le app di messaggistica, nel garantire la sicurezza degli utenti. Per questo le manifestanti di Seoul hanno chiesto - e ottenuto - un inasprimento delle norme relative alla creazione e diffusione di deepfake.
Se la Corea del Sud rappresenta un caso emblematico di questa emergenza, non è però l’unico Paese che si sta confrontando con il tema. Negli Stati Uniti, la città di San Francisco ha avviato una causa contro alcuni siti web che permettono di creare deepfake pornografici. L'azione di San Francisco si concentra su siti web che offrono strumenti per ‘spogliare’ immagini di donne e ragazze, generando versioni pornografiche senza il loro consenso. Alcuni di questi siti permettono addirittura di creare immagini di minori. L'accusa è di violazione delle leggi statali e federali che vietano la pornografia infantile, la revenge porn e i deepfake non consensuali.
Ma al di là dell’attualità, guardando a un futuro in cui la presenza di deepfake non può che essere sempre più pervasiva, non mancano anche proposte normative sul tema.
Il governo UK sta valutando l'introduzione di una legge che renderebbe illegale la creazione di deepfake non consensuali, anche senza la loro diffusione.
Tornando negli Stati Uniti, le proposte di legge ‘Defiance Act’ e ‘Take It Down Act’, presentate a livello federale, riflettono la crescente consapevolezza sulla necessità di affrontare il problema dei deepfake sessualmente espliciti. La proposta di legge ‘Defiance Act’ di Ocasio-Cortez, che permetterebbe alle vittime di citare in giudizio i creatori di deepfake pornografici non consensuali, si concentra sulla tutela delle vittime e sulla possibilità di ottenere giustizia. La proposta di legge ‘Take It Down Act’ di Cruz, che obbligherebbe le piattaforme a rimuovere sia la revenge porn che i deepfake pornografici non consensuali, mira a prevenire la diffusione di questi contenuti dannosi online.
Le norme sono necessarie, ma questo fenomeno mette in luce come sia fondamentale promuovere prima di tutto un uso responsabile ed etico dell'IA, sensibilizzando soprattutto i più giovani sui rischi e le implicazioni di questa tecnologia.
Le istituzioni, le aziende tecnologiche e i singoli individui hanno la responsabilità di lavorare insieme per garantire che l'IA sia utilizzata per il progresso sociale e non per alimentare crimini, abusi e discriminazioni analogici o digitali.
L’attività delle istituzioni deve contribuire a sensibilizzare l'opinione pubblica sulla violenza di genere e concentrarsi non solo sul (doveroso) sostegno alle vittime e sulla repressione, ma soprattutto sullo sviluppo di politiche proattive e programmi educativi per prevenire tale fenomeno.
🔊 Un vocale da… Nicole Monte (Permesso Negato)
Ormai i porno deepfake sono sempre più semplici da realizzare e, quindi, sempre più diffusi. Talvolta vengono generati per mera goliardia, senza la percezione della gravità e illiceità della condotta. Ma quali sono le norme per difendersi da questo fenomeno? Nel vocale di questa settimana, ce ne parla un avvocato, vice-Presidente di un’associazione che supporta le vittime di pornografia non consensuale.
📰 AI Pact 🇪🇺: chi ha aderito finora … e chi no
La Commissione Europea ha reso noti i primi numeri dell’iniziativa ‘AI Pact’ (il Patto europeo sull’IA di cui abbiamo parlato in Legge Zero #36). Fin qui hanno aderito 115 aziende: 75 grandi, 11 medie, 28 piccole. Questi dati dimostrano che le piccole e medie imprese sono maggiormente in difficoltà con i processi di compliance.
Tra le aziende aderenti spiccano alcuni nomi: OpenAI, Microsoft, Amazon, Google, IBM. Non hanno aderito, invece, altri importanti provider, come Meta e Apple.
Sono assenze che non sorprendono. Meta, sostiene che le decisioni sulla regolamentazione dell’intelligenza artificiale siano diventate ‘frammentate e imprevedibili’ e che l’Unione europea stia rischiando di perdere competitività (ne abbiamo abbiamo parlato in Legge Zero #38 e in LeggeZero #41). Oltre alla società madre di Facebook e Instagram, anche altre compagnie tecnologiche hanno preferito non aderire all’AI Pact, non rendendo disponibili in Europa (per ora) alcuni prodotti basati sull’intelligenza artificiale per via di possibili contrasti regolatori: è il caso di X e sopratutto di Apple (le nuove funzioni dell’iPhone 16 non saranno fruibili dagli utenti europei).
Se funzionerà, l’iniziativa della Commissione UE potrebbe far cambiare loro idea prima di quando - ad agosto 2026 - il Regolamento diventerà obbligatorio per tutti, anche per i meno entusiasti.
📰 Amazon vieta ChatGPT ai propri dipendenti
Secondo quanto pubblicato da Business Insider, Amazon avrebbe recentemente reso disponibile ai dipendenti un proprio chatbot chiamato ‘Cedric’ e destinato esclusivamente all’uso interno. Il chatbot è stato progettato per gestire dati altamente confidenziali, e Amazon lo promuove come uno strumento sicuro e affidabile per aumentare la produttività, ma senza compromettere la riservatezza.
L'azienda ha invitato i dipendenti a utilizzare Cedric per compiti come la stesura di documenti in modo da proteggere i dati aziendali, evidenziando i rischi di sicurezza legati all'uso di chatbot di terze parti, come ChatGPT. Cedric è stato sviluppato utilizzando la piattaforma Bedrock di Amazon, ma impiega il modello linguistico Claude di Anthropic.
⚖️ Il Governatore della California ha posto il veto sulla legge che doveva prevenire i rischi catastrofici legati all’IA (ma ne ha ratificate molte altre)
In Legge Zero #39 abbiamo dato conto del partecipato dibattito sulla legge della California sui rischi catastrofici dell’intelligenza artificiale: esperti, aziende, politici e opinione pubblica divisi tra favorevoli e contrari. Alla fine, questi ultimi hanno avuto la meglio dal momento che il Governatore Newsom si è avvalso del suo potere di veto (la legge era stata approvata a larga maggioranza dal Senato dello Stato).
Tra i motivi principali del veto, Newsom ha posto la considerazione per cui la SB 1047 si sarebbe concentrata solo sui modelli più costosi e su larga scala, dando al pubblico un falso senso di sicurezza sul controllo di questa tecnologia, quando modelli di IA più piccoli e specializzati potrebbero risultare addirittura più pericolosi di quelli oggetto della proposta di legge.
Negli stessi giorni in cui ha posto il veto sulla proposta più controversa, il Governatore ha invece ratificato ben altri 17 progetti di legge che riguardano l'implementazione e la regolamentazione della tecnologia GenAI. Si tratta del pacchetto legislativo più completo di tutti gli USA su questo settore emergente: dalla repressione dei deepfake sessualmente espliciti alla obbligatorietà di una filigrana per i contenuti creati con IA generativa, dalla protezione di bambini e lavoratori alla lotta contro la disinformazione generata dall'IA.
⚖️ Gli autori che citano OpenAI per violazione del copyright potranno accedere ai suoi dati di addestramento
Interessante svolta nel contenzioso promosso in USA da alcuni autori (tra cui Sarah Silverman, Ta-Nehisi Coates e Paul Tremblay) contro OpenAI: le parti hanno raggiunto un accordo in base al quale i legali degli scrittori potranno accedere ai dati usati per l’addestramento di ChatGPT.
Si tratta della prima volta che OpenAI consente a una parte esterna di consultare il suo vasto archivio di dati, ma l'accesso sarà fortemente limitato: i rappresentanti degli autori potranno visualizzare i dati esclusivamente in una stanza sicura presso la sede di OpenAI a San Francisco, utilizzando un computer senza connessione a internet e senza possibilità di copiare alcuna informazione. Inoltre, dovranno preventivamente firmare un accordo di riservatezza.
Diventerà la prassi in questo genere di contenzioso per verificare quali fonti di addestramento siano state utilizzate? Quando l’AI Act sarà vigente potrebbe non essere più necessario, visto che la norma impone la trasparenza sui dati di addestramento.
😂 IA Meme
Quando vuoi criticare l’IA in una discussione e non sai a quale argomento ricorrere: mancanza di originalità o allucinazioni?
😂 IA Meme che non lo erano
Ricordate i fantomatici occhiali a raggi X de l’Intrepido? (quelli che permettevano di vedere sotto i vestiti scoprendo i segreti più intimi delle persone).
Due studenti di Harvard hanno creato gli I-XRAY: un paio di occhiali intelligenti che incorporano la tecnologia di riconoscimento facciale per dimostrare quanto sia facile farlo e per evidenziare i potenziali rischi.
AnhPhu Nguyen e Caine Ardayfio hanno utilizzato un paio di Ray Ban intelligenti di Meta e ne hanno monitorato lo streaming live mentre l'intelligenza artificiale rilevava le persone quando guardavano il volto di qualcuno. I modelli di riconoscimento facciale hanno quindi elaborato le immagini, che potevano essere confrontate con immagini disponibili al pubblico.
Hanno anche utilizzato altri dati disponibili al pubblico da articoli e database per saperne di più sulle persone che avevano identificato, inclusi indirizzi, numeri di telefono, età e parenti.
Uno degli studenti si è chiesto: ‘Siamo pronti a vivere in un mondo dove i nostri dati sono immediatamente alla portata di tutti?’
Purtroppo, conosciamo tutti la risposta a questa domanda...
📚 Consigli di lettura: l'IA può (quasi) superare i CEO umani
Un nuovo studio pubblicato da Harward Business Review mette alla prova l'efficacia dell'intelligenza artificiale nelle decisioni strategiche aziendali.
Gli autori, Hamza Mudassir, Kamal Munir, Shaz Ansari e Amal Zahra, hanno esplorato le capacità dell'IA generativa rispetto ai CEO umani attraverso un esperimento simulato. Utilizzando GPT-4o di OpenAI, i ricercatori hanno testato le decisioni di gestione aziendale nel contesto dell'industria automobilistica.
I risultati? L'IA ha superato gli umani in precisione e ottimizzazione dei costi, ma ha faticato a gestire eventi straordinari come le crisi di mercato, rivelando così i suoi limiti nelle situazioni di alta imprevedibilità.
L'esperimento suggerisce che, pur essendo potente, l'IA non è - ancora - pronta a sostituire completamente i CEO umani. Tuttavia, già oggi, può svolgere un ruolo chiave nel migliorare il processo decisionale, specialmente in ambiti dove la rapidità e l'analisi dei dati sono cruciali.
Lo studio è interessante e apre a un interessante scenario: e se i primi a essere licenziati a causa dell’IA fossero proprio i CEO?
📣 Eventi
L’IA nelle amministrazioni dopo l’AI Act - Webinar, 8.10.2024
Tech Tour - Trieste, 16.10.2024
🙏 Grazie per averci letto!
Per ora è tutto, torniamo la prossima settimana. Se la newsletter ti è piaciuta, commenta o fai girare.