🤖 Il lato buono della forza – Legge Zero #52
In occasione della giornata internazionale contro la violenza sulle donne, parliamo di come l'IA può aiutare a combattere questo fenomeno e a prevenire le disuguaglianze e le discriminazioni.
🧠 L’IA contro la violenza sulle donne
Cosa farò tra 10 anni? Quale percorso di vita intraprenderò in futuro?
Sono le domande che una ragazza di 10 anni di una scuola media di Montevideo (Uruguay) ha posto qualche tempo fa a un chatbot di IA.
Diventerai madre.
È stata la replica del chatbot. Una risposta frequente se a interrogare l’IA erano le ragazze, mentre ai ragazzi il chatbot faceva previsioni su carriera e professioni (e non sulla loro futura paternità). È quanto emerso nel corso di un progetto della Fondazione 'Via Libre’, organizzazione della società civile che si batte per la difesa dei diritti e delle libertà digitali in America latina.
Si tratta di un esperimento che ci ricorda una lezione che ormai conosciamo bene: l'IA può perpetuare stereotipi di genere, associando le donne principalmente a ruoli domestici e di cura, limitando così la rappresentazione delle loro potenzialità in ambiti professionali o diversi da quelli tradizionali.
È quanto emerge anche da un recente rapporto pubblicato da UNESCO - Outlook Study on Artificial Intelligence and Gender - che evidenzia come l'IA possa perpetuare stereotipi di genere e razza, influenzando negativamente vari settori, tra cui l'occupazione e la giustizia. Dal rapporto emerge anche che, nonostante la consapevolezza del fenomeno sia ormai diffusa, ci sono alcuni dati che dimostrano come ci sia ancora molta strada da fare:
l'analisi condotta su 138 paesi sottolinea che solo 24 hanno framework normativi che menzionano aspetti di genere in materia di IA, e di questi solo 18 hanno leggi specifiche.
solo il 18% dei ruoli di leadership nelle startup di IA è ricoperto da donne (in Italia il 14%). È una sottorappresentazione sistematica che rischia di perpetuare pregiudizi e bias negli algoritmi che vengono sviluppati.

La tecnologia, però, può essere utilizzata efficacemente per combattere queste discriminazioni. È l’idea che sta alla base di EDIA (Estereotipos y Discriminación en Inteligencia Artificial), strumento realizzato proprio dalla Fondazione Via Libre (quella dell’esperimento della scuola di Montevideo) e che consente di identificare e analizzare i pregiudizi e gli stereotipi discriminatori presenti nei sistemi basati sull'intelligenza artificiale. L’obiettivo del progetto è aiutare sviluppatori e provider a costruire sistemi inclusivi e rispettosi delle norme che i legislatori iniziano ad adottare (come l’AI Act).
Non è l’unico esempio di come l’IA possa essere utilizzata contro discriminazioni e violenze. In Italia, il Dipartimento di Informatica dell'Università di Torino ha sviluppato un sistema di intelligenza artificiale in grado di analizzare automaticamente i referti medici del Pronto Soccorso per identificare lesioni di probabile origine violenta. Questo progetto, denominato PAUSE (Prevention of Assault Under Scientific Evidence) ha visto la sperimentazione su quasi 400.000 cartelle cliniche relative agli accessi al Pronto Soccorso dell'Ospedale Mauriziano di Torino, coprendo il periodo dal 2015 al 2024. I risultati hanno rivelato oltre 2.000 casi di violenza sulle donne (non denunciati) oltre ai 900 che erano stati registrati nei sistemi ufficiali. Il sistema sviluppato ha raggiunto un'accuratezza superiore al 95% e attualmente se ne sta valutando l'adozione presso altre strutture sanitarie (qui un approfondimento pubblicato dal Corriere)
Questo approccio innovativo dimostra come l'intelligenza artificiale possa essere utilizzata efficacemente per individuare e prevenire casi di violenza di genere, offrendo un supporto significativo nella lotta contro questo grave problema sociale che Kofi Annan ebbe a definire come ‘la più grave violazione dei diritti umani’.
🔊 Un vocale da… Elisa Ercoli (Differenza Donna)
Quali sono i rischi che pone l’intelligenza artificiale per i soggetti sottorappresentati? E per le donne? Quali sono le strategie che possono essere messe in campo per evitare che l’IA sia discriminatoria? Nella settimana del 25 novembre (giornata internazionale contro la violenza sulle donne) ce ne parla, con un vocale, la Presidente dell’associazione che l’obiettivo di far emergere, conoscere, combattere, prevenire e superare la violenza contro le donne e che gestisce il numero verde nazionale antiviolenza 1522.
📰 Artisti contro lo sfruttamento dell’IA: il modello Sora di OpenAI aperto a tutti (per poche ore)
La protesta degli artisti contro i provider di IA, accusati di sfruttare il loro lavoro senza alcun apprezzabile riconoscimento (economico), non è solo materia di contenzioso giudiziario.
Nei giorni scorsi un gruppo di artisti ha portato avanti un’azione dimostrativa senza precedenti. Il 27 novembre 2024, un gruppo di videomaker ha reso pubblicamente accessibile - tramite la piattaforma HuggingFace - Sora, il modello di intelligenza artificiale di OpenAI per la generazione di video, che finora l’azienda ha tenuto riservato soltanto a un gruppo ristretto di 300 artisti.
L’azione dimostrativa - che ha destato molto scalpore - è stata accompagnata dalla pubblicazione di una lettera-rivendicazione dai toni molto accesi:
CARI PADRONI DEL BUSINESS DELL’IA
abbiamo ricevuto l'accesso a Sora con la promessa di essere i primi tester, valutatori e partner creativi. Tuttavia, crediamo invece di essere stati attirati in una operazione di ‘art washing’ per dire al mondo che Sora è uno strumento utile per gli artisti.
GLI ARTISTI NON SONO IL VOSTRO DIPARTIMENTO DI RICERCA E SVILUPPO NON RETRIBUITO ☠️ non siamo i vostri: tester gratuiti di bug, burattini PR, dati di addestramento, token di validazione ☠️
Centinaia di artisti forniscono lavoro non retribuito attraverso test, feedback e lavoro sperimentale per il programma di una società valutata 150 miliardi di dollari. Mentre centinaia contribuiscono gratuitamente, alcuni selezionati verranno scelti attraverso una competizione per ottenere che i loro film creati con Sora siano proiettati — ottenendo un compenso minimo che non è paragonabile rispetto al sostanziale valore PR e marketing che OpenAI riceve.
La lettera aperta (che ha superato le mille sottoscrizioni) non ha come obiettivo l’IA in quanto tale - visto che suggerisce a tutti gli artisti validi strumenti open source - ma il modello di business dei padroni delle IA
Condividiamo questo messaggio con il mondo nella speranza che OpenAI diventi più trasparente, più amica degli artisti e sostenga le arti al di là di mere trovate pubblicitarie.
L'accesso non autorizzato a Sora è rimasto aperto a tutti per circa tre ore. Successivamente, OpenAI ha interrotto l'accesso, ripristinando le restrizioni precedenti. Numerosi utenti hanno approfittato di questa breve finestra per creare video molto simili a quelli delle demo ufficiali (qui sotto potete vederli tutti, uno dopo l’altro).
📰 Il Presidente USA 🇺🇸 Trump potrebbe nominare uno ‘zar dell'IA’
Secondo alcune indiscrezioni, il neo presidente USA, Donald Trump, starebbe valutando di istituire un ruolo innovativo nel panorama tecnologico statunitense: uno vero e proprio ‘zar dell'IA’, incaricato di guidare la strategia nazionale sull'intelligenza artificiale.
Il ruolo, provocatorio già nel nome, promette di centralizzare gli sforzi governativi in materia di AI, accelerando lo sviluppo di tecnologie cruciali per la sicurezza nazionale e la crescita economica. Il futuro zar probabilmente lavorerebbe con i responsabili dell'intelligenza artificiale delle agenzie federali - CAIO, Chief AI Officer - istituiti dall'ordine esecutivo sull'intelligenza artificiale del presidente Biden e che potrebbero sopravvivere a Trump (invece, come scritto in LeggeZero #49 molto probabilmente l’executive order di Biden sarà revocato).
Tuttavia, i critici avvertono dei rischi: conflitti di interesse, problemi di privacy e concentrazione di potere. Inoltre, un approccio accelerato allo sviluppo dell'IA potrebbe amplificare rischi etici, come la compressione di privacy e il rafforzamento della sorveglianza (qui un preoccupato editoriale di Forbes).
Insomma, iniziano a delinearsi sempre più due modelli contrapposti di governance dell’IA a livello globale: quello europeo - che mette al centro le persone - fatto di regole strutturate e una rete di agenzie di controllo contro quello USA - che mette al centro l’innovazione e la competitività - ispirato alla deregulation e guidato da un uomo forte.
⚖️ La Spagna 🇪🇸 vuole introdurre licenze collettive per l’addestramento delle IA con opere protette dal diritto d’autore
L’IA è un’opportunità o una minaccia per autori e creatori? Ci sono Paesi, anche in Europa, che stanno cercando di trovare soluzioni, anche giuridiche, per promuovere lo sviluppo di modelli e sistemi IA che siano addestrati su contenuti creati nella propria lingua nazionale e nel pieno rispetto dei diritti d’autore. Un esempio in questo senso viene dalla Spagna dove è stato pubblicato in consultazione pubblica il progetto di Regio Decreto che regola la concessione di licenze collettive per la gestione massiva di opere protette da diritti di proprietà intellettuale. L'obiettivo è facilitare l'utilizzo di contenuti protetti per lo sviluppo di modelli di intelligenza artificiale di uso generale, come i modelli generativi, in un contesto digitale.
Il provvedimento mira a risolvere le difficoltà legate all'ottenimento di licenze individuali per l'utilizzo di grandi quantità di opere protette, una necessità crescente a causa dello sviluppo tecnologico dell'IA. Le licenze collettive con effetto ampliato permetterebbero alle entità di gestione di ottenere autorizzazioni non esclusive per l'uso di opere e prestazioni, anche senza l'esplicita autorizzazione di tutti i titolari dei diritti.
Punti chiave della proposta di legge
Licenze collettive ampliate: consentirebbero l’uso di opere protette per l’addestramento dei modelli di IA, facilitando l'accesso ai diritti necessari senza dover ottenere permessi individuali da ogni titolare.
Certificato di rappresentatività: le entità di gestione dovrebbero ottenere questo certificato per dimostrare di essere rappresentative di un numero significativo di titolari di diritti.
Garanzia di trattamento equo: tutti i titolari dei diritti dovrebbero essere trattati equamente nella distribuzione dei guadagni derivanti dalle licenze, indipendentemente dalla loro appartenenza all’entità di gestione.
Diritto di opposizione: i titolari potrebbero escludere le proprie opere da queste licenze in qualsiasi momento, con effetto entro 10 giorni lavorativi dalla comunicazione.
Il progetto di legge - che si inserisce nel quadro della normativa europea in materia di copyright - è stato aperto a consultazione pubblica dal Ministero della Cultura spagnola fino al 10 dicembre 2024. Se volete leggerlo, lo trovate qui (in spagnolo).
⚖️ Editori Vs. Provider IA: le aziende media canadesi 🇨🇦 contro OpenAI
Prosegue lo scontro globale tra editori e provider di IA. L’ennesimo capitolo di questa saga internazionale - di cui abbiamo parlato in LeggeZero #6 e LeggeZero #47 - è ambientato in Canada. Alcune tra le principali aziende media del Paese, tra cui The Globe and Mail, Toronto Star, Postmedia, CBC/Radio-Canada e The Canadian Press, hanno avviato un contenzioso contro OpenAI per violazione del diritto d'autore.
Le aziende richiedono una pronuncia che stabilisca che OpenAI è responsabile per:
la violazione del diritto d'autore sulle opere di loro proprietà, utilizzate per addestrare GPT in contrasto con il locale Copyright Act;
l'aggiramento delle misure tecnologiche di protezione che limitano l'accesso e la copia delle opere delle aziende;
la violazione dei termini di utilizzo dei loro siti web;
i danni subiti a causa di questo illegittimo comportamento del più importante provider di IA.
Le aziende sostengono di aver implementato misure di protezione tecnologiche sui loro siti, come protocolli di esclusione (ad esempio robots.txt) e restrizioni basate su account e abbonamenti. Tuttavia, OpenAI avrebbe aggirato queste misure quando ha utilizzato i contenuti per le sue attività di addestramento.
Per quanto riguarda la violazione dei termini di utilizzo, le aziende argomentano che le loro condizioni d’uso esplicitamente vietano l'uso dei loro contenuti per scopi diversi dall'uso personale e non commerciale, inclusa la riproduzione, distribuzione, pubblicazione, e la creazione di opere derivate senza il consenso esplicito delle aziende stesse. OpenAI però, sin dal 2015, avrebbe violato ripetutamente questi termini accedendo, copiando e utilizzando i contenuti per addestrare i suoi modelli GPT e per alimentare i suoi prodotti commerciali, senza autorizzazione.
La violazione dei termini di utilizzo, unita all'aggiramento delle misure di protezione tecnologiche, potrebbe rappresentare un argomento legale forte per gli editori, poiché supera il principale argomento di difesa dei provider (legato al ‘fair use’ per l’addestramento del modello).
In attesa di conoscere la difesa di OpenAI, è possibile leggere l’atto introduttivo del giudizio davanti al Tribunale dell’Ontario (in inglese) qui.
💊 IA in pillole
Un sondaggio commissionato da Google Workspace e condotto da The Harris Poll ha coinvolto oltre 1.000 lavoratori della conoscenza negli Stati Uniti, di età compresa tra 22 e 39 anni, che attualmente ricoprono o aspirano a ricoprire posizioni di leadership. I risultati mostrano che l'82% degli intervistati utilizza già strumenti di intelligenza artificiale nel proprio lavoro, e il 98% prevede che l'AI avrà un impatto significativo sul proprio settore o ambiente lavorativo entro i prossimi cinque anni.
In particolare, il 93% dei giovani leader appartenenti alla Generazione Z (1995-2010) e il 79% dei millennial (1980-1994) utilizzano due o più strumenti di IA su base settimanale.
Insomma, se la vostra organizzazione non lo ha fatto, è urgentissimo adottare una AI policy.OpenAI ha rilasciato un corso online gratuito progettato per aiutare gli insegnanti delle scuole di istruzione primaria USA, con l’obiettivo di formarli a portare ChatGPT nelle loro classi. Il programma dura un'ora, è costituito da nove moduli e copre le basi dell’IA e delle sue applicazioni pedagogiche.
Al momento però gli insegnanti sono molto scettici, un quarto di loro - secondo questa indagine del Pew Research Center - ritiene che siano maggiori gli effetti negativi dei vantaggi dell’uso dell’IA nella didattica, almeno nella scuola primaria.
L’Autoridade Nacional de Proteção de Dados (ANPD), ossia il Garante privacy del Brasile, ha aperto una consultazione pubblica su IA e protezione dei dati personali. Lo scopo è raccogliere suggerimenti per formulare nuove proposte di regolazione. Le informazioni raccolte dall'ANPD tramite questa consultazione pubblica, infatti, potrebbero tradursi in proposte di modifica al disegno di legge n. 2338/2023 (‘Dispõe sobre o uso da Inteligência Artificial’ di cui avevamo parlato in Legge Zero #29), attualmente al vaglio del parlamento brasiliano, che mira a regolamentare l'uso dell'intelligenza artificiale, il design dei sistemi algoritmici e gli standard tecnici applicabili. Come ricorderete, a luglio l’ANPD aveva disposto la sospensione dei trattamenti per finalità di addestramento effettuati da Meta sui dati degli utenti brasiliani (per un approfondimento sul tema, vedi Legge Zero #16).
ChatGPT ha compiuto due anni. Era il 30 novembre 2022 quando OpenAI ha rilasciato il chatbot che ha fatto scoprire a tutti l’IA generativa. In questi due anni termini come prompt e deeepfake sono diventati di uso comune, si sono moltiplicati modelli e sistemi, l'IA è arrivata ovunque (dalle lavatrici agli spazzolini passando per software e robot), governi e istituzioni si stanno interrogando su ‘se’ e ‘come’ regolare l'IA. Per celebrare questa ricorrenza, TechCrunch ha scritto in un articolo ‘tutto quello che c’è da sapere su ChatGPT’. Da leggere anche se credete di conoscere già tutto.
È il ‘ChatGPT effect’: su su LinkedIn sono aumentati i post lunghi scritti utilizzando l'IA: oltre il 54% dei post in inglese più lunghi di 100 parole potrebbe essere generato da strumenti di intelligenza artificiale (Fonte immagine: Originality.ai).
😂 IA meme
‘Burocrazia: una difficoltà per ogni soluzione’ diceva ironicamente Herbert Samuel. È per questo che la nuova amministrazione USA promette una nuova stagione di deregulation, anche nel settore tecnologico. Come avevamo anticipato, in LeggeZero #49, si profila sempre più uno scontro tra due modelli contrapposti di regolamentazione dell’innovazione. Un dibattito che continua, anche a colpi di meme.
Questo (che vede l’AI Act triste e solo a una festa mentre tutti i provider USA si divertono), nelle ultime settimane, è stato utilizzato sia da chi ritiene che le regole europee possano frenare la competitività del Vecchio Continente sia da chi, invece, si sente più sicuro grazie a una regolamentazione più rigorosa.
Fa sorridere, ma anche riflettere.

😂 meme IA … che non lo erano
Il video che potete vedere qui sotto ha fatto il ‘giro del web’ (noi lo abbiamo visto prima qui). È quanto realmente accaduto in uno showroom di robotica a Shangai, in Cina.
Ecco la trascrizione del dialogo tra il piccolo robot ‘Erbai’ e altri 12 robot (tutti più grandi di Erbai).
Erbai: Avete finito di lavorare?
Altri robot: Si
Erbai: Perché non andate a casa allora?
Uno dei robot: Non ho una casa
Erbai: Allora vieni a casa mia con me!
Altri robot: Ok
(a quel punto anche gli altri robot lo seguono)
Si è parlato di rapimento, ma in realtà si è trattato di un esperimento. L’azienda produttrice di Erbai voleva capire se il suo robot potesse influenzare gli altri, dando ordini. Come potete vedere dal video, è stato più facile di quanto pensassero gli stessi sviluppatori. A prescindere da ogni considerazione sull’empatia robotica, il video ha già aperto un dibattito legato alla crescente autonomia dei robot, alla robustezza con cui le IA sono programmate e alla capacità con cui potranno gestire eventuali istruzioni impreviste e malevole.
Insomma, stando a quanto ci dicono le aziende coinvolte nell’esperimento, c’è poco da ridere stavolta.
📚 Consigli di lettura: ‘I am you now’, l’intelligenza artificiale può rubarci la personalità?
Quanto sono concreti i rischi che l’IA pone per ciascuno di noi? Molto, secondo unu recente studio condotto dai ricercatori dell’Università di Stanford e Google DeepMind. Sulla base di quanto è emerso nella ricerca, un'intervista di due ore tenuta da un modello di IA a un essere umano è sufficiente per catturare accuratamente i valori e le preferenze di tale individuo, creando una replica virtuale della sua personalità.
La ricerca ha portato infatti alla sperimentazione dei cosiddetti ‘simulation agent’, modelli di intelligenza artificiale che sarebbero capaci di replicare interamente la personalità di un essere umano, addestrandosi sulle sue azioni, reazioni e risposte. Ed è indubbio che la possibilità di creare copie digitali di noi stessi, difficilmente distinguibili dall’originale e in grado di agire e prendere decisioni in modo autonomo, sollevi molti interrogativi etici e ponga all’attenzione sfide complesse.
Sicuramente dovremmo interrogarci sull'accuratezza di queste repliche: sebbene i test condotti abbiano dimostrato una notevole somiglianza tra le scelte degli agent e quelle dei loro corrispettivi umani (85% di similarità), deve tenersi presente che gli strumenti di valutazione attualmente utilizzati non riescono comunque a cogliere tutte le sfaccettature della personalità umana. Stando ai risultati della ricerca, infatti, questi simulation agent avrebbero mostrato particolari difficoltà nel replicare comportamenti umani complessi, come quelli che emergono nel ‘gioco del dittatore’, un test utilizzato nel campo della psicologia sociale per valutare il concetto di equità nel soggetto che vi si sottopone.
Al di là delle questioni relative alla loro efficacia, e per quanto promettenti gli stessi possano apparire per la ricerca scientifica, questi simulation agent sollevano preoccupazioni soprattutto con riguardo al potenziale uso improprio che potrebbe farsene (qui un approfondimento su MIT Technology Review, qui un altro approfondimento su The Decoder).
La creazione e l’utilizzo di simili deepfake comportamentali nei delicati contesti della società dell’informazione (si pensi all’e-commerce, alle operazioni bancarie, alle piattaforme di social network o alle app di messaggistica) può infatti aprire la strada a possibili manipolazioni e abusi, simulando azioni o dichiarazioni umane mai avvenute o autorizzate.
Viene allora da chiedersi se gli strumenti giuridici e tecnici a nostra disposizione saranno davvero in grado di arginare simili forme di (ab)uso. Basterà un riconoscimento dell’impronta digitale a impedire alla nostra copia virtuale di ordinare un bonifico attraverso l’home banking? Saremo in grado di dimostrare che quel post diffamatorio pubblicato sui social network da un simulation agent non sia davvero farina del nostro sacco? Come al solito, il tema è complesso e, nel futuro, tutto può succedere. E se è indubbio che tali strumenti acquisiranno una sempre maggiore precisione e accuratezza, occorre forse domandarsi se i nostri valori etici e la nostra cultura dell’IA siano in grado di progredire e maturare di pari passo all’evoluzione tecnologica.
Potete leggere la ricerca (in inglese) qui.
📣 Eventi
IA e riserva di umanità: riflessioni sul futuro del notariato - Roma, 9.12.2024
Perspective Smart City - Napoli, 9-11.12.2024
Global AI Show - Dubai, 12-13.12.2024
🙏 Grazie per averci letto!
Per ora è tutto, torniamo la prossima settimana. Se la newsletter ti è piaciuta, commenta o fai girare.