🤖 Le prime Olimpiadi dell'IA – Legge Zero #37
Si sta chiudendo la XXXIII edizione delle Olimpiadi, la prima dell'era dell'IA. In questo numero parliamo delle lezioni che possiamo apprendere da Parigi 2024 per l'uso dell'intelligenza artificiale.
🧠 La lezione di Parigi
Con l’assegnazione delle ultime medaglie e la cerimonia di chiusura, si stanno chiudendo le Olimpiadi di Parigi 2024. Ognuno le ricorderà per una polemica (ce ne sono state tante), una curiosità (sono stati i primi Giochi con la breakdance), una delusione oppure per la gioia di una medaglia inaspettata o sofferta.
Pochi sanno però che queste Olimpiadi sono le prime in cui è stata utilizzata l’intelligenza artificiale, un cambiamento da cui non si tornerà indietro (qui un interessante articolo pubblicato sul sito dei Giochi).
Probabilmente vi starete chiedendo cosa c’entra l’intelligenza artificiale con la più umana delle esperienze: quella di atleti, donne e uomini, che sfidano continuamente i propri limiti fisici e mentali, confrontandosi con quelli dei propri avversari.
Eppure, il Comitato Olimpico Internazionale (CIO) già nel 2023 ha adottato una sua ‘AI agenda’, una vera e propria strategia sull’intelligenza artificiale, uno dei cui assi strategici - oltre all’impiego per individuare talenti, addestrare atleti e migliorare la riabilitazione dopo gli infortuni - è proprio l’utilizzo dell’IA per migliorare l’efficienza e la sostenibilità dei Giochi olimpici e paralimpici (dall’organizzazione alla gestione dei risultati, passando per la progettazione dei luoghi di gara).
Ecco alcuni modi in cui l’IA è stata utilizzata a Parigi nelle ultime settimane.
Supporto ai giudici e rilevazione dei tempi: visto che in tanti sport, le decisioni dei giudici umani non sono sempre giuste (noi italiani lo sappiamo bene), in alcune discipline sono stati impiegati alcuni sistemi per migliorare le valutazioni. È il caso del Judge Support System, utilizzato per le gare di ginnastica, e dei sistemi utilizzati per migliorare l’accuratezza di rilevazioni e cronometraggio in sport come beach volley, tennis e tuffi.
Social media: il CIO ha messo a disposizione di tutti gli atleti in gara uno strumento - basato su IA - che consentiva il monitoraggio dei loro profili social in 35 lingue, in modo da identificare e rimuovere messaggi d’odio.
Sostenibilità: l’IA è stata utilizzata per monitorare l’uso dell’energia in modo da evitare gli sprechi.
Sintesi dei momenti salienti: uno dei partner dei giochi ha messo a punto uno strumento di IA - addestrato sull’archivio olimpico - in grado di generare gli highlights delle gare, basandosi anche sulle reazioni del pubblico (l’emittente USA NBC ha perfino messo a disposizione un’app in grado di realizzare sintesi giornaliere personalizzate per ogni utente, narrate da un gemello digitale di uno dei suoi più noti cronisti, convinto a clonare la propria voce).
Insomma, anche se non ce ne siamo accorti, l’IA ha già modificato i giochi, la nostra relazione con essi e con gli atleti. Magari i nostri commenti ai post dei giocatori sono stati rimossi da un’IA o magari qualcuno sta pensando di scrivere una lettera ai propri beniamini facendosi aiutare dall’IA. A questo proposito, nei giorni scorsi Google ha dovuto ritirare uno spot della propria IA - Gemini - che racconta la storia una bambina che usa l’IA per scrivere una lettera alla propria icona, l’atleta USA Sydney McLaughlin-Levrone. L’accoglienza non è stata entusiasta, tutt’altro. Molti utenti hanno accusato Google di incoraggiare l’uso dell’automazione a scapito dell’autenticità e quindi lo spot ora è visualizzabile solo su YouTube.
Ma a Parigi, in queste settimane, ci sono stati usi ancora più controversi dell’intelligenza artificiale: sono quelli in materia di sicurezza, che significa videosorveglianza. L’IA è stata utilizzata per rilevare attività sospette attraverso le telecamere disseminate in tutta la città. Per poterlo fare, la Francia ha approvato un’apposita legge nel marzo del 2023 che consente l’uso dell’IA per la sicurezza di grandi eventi, come le Olimpiadi. La legge è stata molto criticata e osteggiata da attivisti e associazioni per i diritti digitali che ritengono questo tipo di provvedimenti inutili a garantire una reale sicurezza e si oppongono all’idea di utilizzare eventi sportivi come laboratori di sorveglianza (qui un approfondimento molto critico di Algorithm Watch).
Del resto, per una coincidenza, i Giochi si sono tenuti in un momento in cui non è ancora applicabile il divieto posto dall’AI Act - con alcune eccezioni - di identificazione biometrica in tempo reale nei luoghi pubblici (sarà operativo a partire da febbraio 2025).
In attesa di vedere se e cosa accadrà con le prossime Olimpiadi, che non si terranno in Europa ma in USA (2028) e Australia (2032), è utile però capire cosa ci può insegnare l’esperienza di Parigi. Da un lato l’idea di definire limiti nell’uso di questi strumenti (attraverso l’approvazione di una legge in modo democratico), dall’altro quello di assicurare trasparenza sull’uso dei sistemi di IA.
Sul sito della CNIL - il Garante Privacy francese che sarà probabilmente anche l’Autorità designata per l’IA - è stata pubblicata, in francese e in inglese, un’apposita pagina web con alcune FAQ relative ai diritti e alle libertà degli spettatori in relazione alla videosorveglianza. Probabilmente non è ancora abbastanza, ma sicuramente un primo passo per garantire l’effettività di quel principio di trasparenza che deve contraddistinguere ogni uso dell’IA che può avere impatto sui diritti e sulle libertà delle persone.
📰 NVIDIA: scraping senza precedenti ai danni di Youtube e Netflix
Secondo uno scoop di 404 - che ha avuto la possibilità di accedere a documenti riservati - NVIDIA (il colosso tecnologico noto per le sue GPU) avrebbe avviato un’iniziativa di scraping tra le più massive e controverse di tutti i tempi (della guerra dello scraping abbiamo scritto più volte, da ultimo in LeggeZero #24).
Le pratiche di data scraping di NVIDIA sono finalizzate all’addestramento di ‘Cosmos’, un modello di IA non ancora rilasciato. Per allenarlo, l’azienda avrebbe chiesto ai propri dipendenti di scaricare video da YouTube e Netflix in modo da aggirare il blocco delle piattaforme. I numeri sono impressionanti: a fine maggio i video utilizzati erano 38,5 milioni, ottenuti scaricando circa 80 anni di video ogni giorno.
Immediate le reazioni di Google (YouTube) e Netflix che hanno rilevato come i termini d’uso delle loro piattaforme non consentono lo scraping. NVIDIA non ha negato, affermando che la propria condotta è ‘pienamente conforme alla forma e allo spirito della legge sul copyright’.
Insomma, le posizioni non potrebbero essere più distanti: si profila un nuovo scontro legale?
📰 Tinder lancia l'IA che aiuta gli utenti a scegliere le “migliori” foto del profilo
Secondo una recente ricerca, gli utenti delle app di incontri impiegano in media 33 minuti per selezionare la foto ‘giusta’ per il proprio profilo.
Per ‘alleviare il peso della selezione delle foto’ (cit.), Tinder - una delle più note app di incontri - ha lanciato un nuovo servizio basato su IA. Si chiama ‘photo selector’ e, per funzionare, ha bisogno di accedere a tutte le foto memorizzate nella galleria, suggerendo la foto che può funzionare meglio.
Tinder afferma di garantire la massima privacy degli utenti, dal momento che non raccoglie alcun dato biometrico né le foto della galleria, specificando che il processo di scansione e suggerimento delle immagini avviene unicamente sul dispositivo dell’utente.
C’è però pochissima trasparenza su come funzioni l’algoritmo e quali regole segua per scegliere le foto ‘migliori’. Sono quelle in cui siamo più giovani, magri e abbronzati? Al momento non è dato saperlo e quindi c’è il rischio che questo sistema rafforzi alcuni stereotipi e canoni di bellezza rigidi che penalizzano la diversità e l’eterogeneità.
⚖️ L’organizzazione degli avvocati USA 🇺🇸 ha pubblicato un documento sull'uso dell'IA generativa nella professione legale
Se seguite questa newsletter, sapete che alcuni tra i primi casi eclatanti legati alle allucinazioni dell’IA generativa abbiano coinvolto avvocati che utilizzavano ChatGPT per scrivere atti giudiziari (ne abbiamo parlato in LeggeZero #4). L’introduzione di strumenti di IA negli studi legali è molto pericolosa, tenendo conto la maggior parte degli avvocati - come altri professionisti - non è preparata a questa innovazione e non ha una conoscenza di base di come funziona l'IA generativa.
Da queste premesse parte il documento che l'American Bar Association (ABA), la più grande organizzazione statunitense di avvocati, ha recentemente pubblicato proprio sull'uso dei sistemi di intelligenza artificiale generativa da parte degli avvocati. Il parere affronta le numerose implicazioni etiche e professionali che emergono quando si utilizzano tali tecnologie nell'ambito della professione forense.
Ecco alcuni punti salienti del documento:
il dovere di competenza tecnica degli avvocati che usano strumenti di IA generativa, inclusa la necessità di comprendere le capacità e i limiti di tali sistemi;
il dovere di proteggere informazioni riservate dei clienti e la necessità di ottenere loro consenso prima di utilizzare strumenti di IA che potrebbero mettere a rischio la confidenzialità dei dati;
l'importanza della supervisione adeguata dei professionisti che usano l’IA, in modo da garantire che il loro impiego sia conforme alle norme deontologiche;
il dovere di trasparenza con i clienti riguardo l'uso degli strumenti di IA, soprattutto quando questi sono usati in ambiti significativi del mandato ricevuto;
la necessità di garantire che i contenuti presentati agli organi giudiziari siano accurati e non fuorvianti, evitando l'affidamento acritico sugli output generati dall'IA.
Di particolare interesse è la sezione che affronta la necessità di rivedere le tariffe in caso di uso degli strumenti di IA generativa.
Si tratta di un documento utilissimo per tutti i professionisti del settore legale, non solo USA.
Vi riportiamo qui un passaggio che crediamo molto condivisibile.
Per utilizzare in modo professionale uno strumento di IA generativa nel proprio lavoro, gli avvocati non devono necessariamente diventare esperti di IA generativa. Piuttosto, gli avvocati devono avere una comprensione adeguata delle capacità e dei limiti della specifica tecnologia di IA generativa che potrebbero utilizzare nell’esercizio del mandato difensivo. Questo significa che gli avvocati dovrebbero acquisire una comprensione adeguata dei benefici e dei rischi degli strumenti di IA generativa che impiegano nella loro professione oppure avvalersi dell'esperienza di altri esperti che possono fornire indicazioni sulle capacità e sui limiti dello strumento utilizzato. Questo non è un lavoro statico. Dato il rapido sviluppo degli strumenti di IA generativa, la competenza tecnologica richiede che gli avvocati rimangano aggiornati riguardo ai benefici e ai rischi di questi strumenti. Sebbene non esista un modo unico per restare al passo con gli sviluppi dell'IA generativa, gli avvocati dovrebbero considerare di leggere materiali sugli strumenti di IA generativa destinati alla professione legale, partecipare a programmi di formazione continua e, come già menzionato, consultarsi con esperti di tecnologia IA.
Insomma, molto di più che abbonarsi a ChatGPT.
Se siete interessati, potete scaricare la versione integrale del documento qui (in inglese).
⚖️ Il Garante privacy irlandese 🇮🇪 costringe X a sospendere l’addestramento della sua IA con i dati degli utenti europei
È accaduto tutto in pochissimi giorni. Il 6 agosto la Data Protection Commission irlandese ha promosso un’azione legale senza precedenti davanti alla High Court di quel Paese per ottenere un provvedimento d’urgenza nei confronti di X (il social un tempo noto come Twitter). La piattaforma di Elon Musk, infatti, stava utilizzando milioni di post di utenti europei per addestrare Grok, la sua intelligenza artificiale. Ovviamente, senza aver ottenuto alcun consenso da parte degli utenti. Questo è bastato al Garante irlandese per avviare un’indagine e attivarsi per ottenere un blocco in via d’urgenza.
Poche ore dopo, l’8 agosto, X ha raggiunto un accordo con l’Autorità, accettando di sospendere l’addestramento con i dati degli utenti europei fino alla fine dell’indagine del Garante. Difficile però che possa arrivare un ‘via libera’: nelle scorse settimane, il Garante irlandese aveva bloccato anche l’addestramento di Meta con i dati degli utenti UE di Instagram e Facebook (ne abbiamo parlato in LeggeZero #31).
⏮️ Update
In LeggeZero #32 abbiamo parlato dell’azione promossa dalle case discografiche contro i provider di IA. Udio e Suno, nei giorni scorsi, hanno risposto pubblicamente, respingendo le accuse e accusando le case discografiche di voler ostacolare la concorrenza.
FigureAI ha pubblicato un nuovo video con cui lancia il secondo modello di robot umanoide, Figure02, con 6 telecamere e in grado di sollevare fino a 25 kg. Le sue caratteristiche consentono di impiegarlo - per ora in via sperimentale - nelle fabbriche BMW. In pochi mesi, l’evoluzione della robotica è notevolissima e pone interrogativi sull’impatto imminente nel mondo del lavoro. Per comprenderlo andare a rivedere i video del suo predecessore, Figure01, che abbiamo pubblicati in LeggeZero #32. Sono di pochissimi mesi fa.
🧩 Il cruciverba di LeggeZero
Quanto siete esperti di IA? Se siete lettori assidui e affezionati di questa newsletter, non avrete problemi a completare il nostro cruciverba, un modo - speriamo - divertente e stimolante per accompagnarvi durante la vostra pausa estiva. Se volete cimentarvi, lo trovate qui. Invece, per le soluzioni basta scorrere fino alla fine di questo numero.
👁️ Aguzza la vista
Quale di queste due immagini non è reale? (soluzione alla fine della newsletter)
😂 IA Meme
Kim Yeji Vs. Yusuf Dikeç. Una delle immagini olimpiche più usate per i meme. Non poteva mancarne uno a tema IA.
😂 IA Meme che non lo erano
È una delle ‘immagini simbolo’ dei giochi di Parigi 2024. Il surfista Gabriel Medina, medaglia di bronzo, sospeso sull’acqua con la sua tavola. È il frutto del lavoro di un professionista che ha saputo sfruttare le condizioni perfette. Ma in tanti hanno pensato si trattasse di un deepfake, un’immagine irrealistica creata con l’IA. È un segno dei tempi, ormai iniziamo a dubitare dei nostri sensi. Spoiler: saremo costretti a farlo sempre di più.
🔎 Le soluzioni ai nostri giochi
Hai terminato il nostro cruciverba? Scarica qui le soluzioni e controlla se hai indovinato tutto.
L’immagine generata dall’IA è quella a sinistra (creata da Leo Kadief con un modello opensource). Partendo da quel deepfake, Nicolas Neubert ha creato questo video. Long story short: nel frattempo che approviamo regole per difenderci dai deepfake, le tecnologie evolvono molto rapidamente. Presto, su internet, la maggior parte dei contenuti sarà generata con l’IA. E noi, semplicemente, non siamo pronti.
🙏 Grazie per averci letto!
Per ora è tutto, torniamo tra due settimane. Se la newsletter ti è piaciuta, commenta o fai girare.