๐ค Legge Zero #2 - All AI want for Christmas
Nelle loro letterine a Babbo Natale, bambini di tutto il mondo stanno chiedendo robot o bambole che interagiscono grazie all'IA. Siamo sicuri di saper scegliere i regali giusti?
๐ง ย Non รจ un gioco da ragazzi
ร il giorno di Natale. Un bambino scarta il suo regalo, รจ un robot nuovo di zecca. Non รจ uno di quelli di latta degli anni โ60 e non somiglia neanche a un gioco come Teddy Ruxpin o Furby (ricordi indimenticabili per i ragazzi degli anni โ80 e โ90). Questo รจ un robot che, grazie allโintelligenza artificiale, รจ in grado di sostenere una conversazione. Il robot chiede al bambino della sua vita, dove vive, come si sente. Il giocattolo รจ dotato di telecamera e microfono, puรฒ registrare e ricordare le espressioni facciali, le parole e i giochi del bimbo.ย I dati relativi al tempo di gioco vengono archiviati nel cloud e utilizzati per elaborare informazioni su come il bimbo sta crescendo rispetto allโetร anagrafica.ย Le trascrizioni di ciรฒ che dice il bambino vengono inoltrate a ChatGPT per l'elaborazione. Infatti, non si tratta di un racconto di fantascienza a sfondo natalizio, ma di una delle scene a cui tra qualche giorno potremo assistere nelle nostre case. Nellโanno in cui il mondo ha scoperto le potenzialitร dellโintelligenza artificiale (che puรฒ essere utilizzata, ad esempio, per trovare il regalo giusto per quellโamico che โha giร tuttoโ oppure per capire come consegnare piรน velocemente i regali) si stanno moltiplicando gli AI Toys, giocattoli che utilizzano lโIA per interagire con i bambini. Come Moxie, il robot realizzato per bambini di etร compresa tra 5 e 10 anni e che รจ stato โprogettato per aiutare a promuovere lo sviluppo sociale, emotivo e cognitivo attraverso l'apprendimento quotidiano basato sul gioco e contenuti accattivantiโ.
In un futuro non tanto lontano, ci saranno quindi un robot o un orsacchiotto robot che leggeranno le favole della buonanotte ai nostri figli.ย E non sarร una storia qualsiasi: si tratterร di una fiaba costruita su misura, grazie allโIA, sulla base di tutto quello che il giocattolo sa sul bambino (le cose che ama, le cose di cui ha paura, i suoi piccoli segreti). I giocattoli dotati di intelligenza artificiale potranno convincere un bambino a smettere di fare i capricci (o almeno provarci), intrattenerlo e insegnargli cose nuove.ย
Sembra fantastico, ma cโรจ qualcosa che puรฒ andare storto.
Per poter funzionare al meglio, questi giocattoli devono acquisire il maggior numero di dati possibile sul bambino (e magari anche su fratellini, amichetti e genitori), devono conservarli su unโinfrastruttura cloud e comunicarli agli sviluppatori delle soluzioni di intelligenza artificiale generativa che vengono utilizzate per lโinterazione. Insomma, un giocattolo โintelligenteโ รจ un amico che โ per contratto โ non terrร per sรฉ quello che gli diciamo.
Insomma, un robot chatbot non รจ un regalo da fare senza pensarci troppo (leggete qui). Bisogna capire come funziona e quali sono le componenti (microfono, fotocamera), leggere la privacy policy e non scegliere sulla base solo del prezzo, perchรฉ un cloud poco sicuro potrebbe essere violato con la conseguente perdita di riservatezza dei dati dei nostri figli e dei nostri cari. Per non parlare del fatto che lโalgoritmo potrebbe avere pregiudizi e allucinazioni, fornendo ai nostri bambini informazioni diseducative o, nel migliore dei casi, sbagliate. Scegliere il regalo giusto diventa ancora piรน difficile. Per chi voglia evitare di sbagliare, รจ indispensabile studiare e documentarsi. Il Garante Privacy ha pubblicato da tempo una guida con alcuni suggerimenti per lโacquisto di smart toys. La Mozilla Foundation, invece, ha avviato unโiniziativa chiamata โPrivacy not includedโ nellโambito della quale segnala tutti i prodotti preoccupanti sotto il profilo della protezione dei dati personali. Non stupisce che โ nella lista dei (piรน inquietanti) regali di Natale 2023 โ sia citato anche Moxie, insieme ad altri giocattoli che usano lโIA.
Del resto, dei rischi di questo โgiocattoloโ sembrano consapevoli gli stessi produttori di Moxie che, nella privacy policy, chiedono ai genitori di insegnare ai propri figli a โnon fornire mai informazioni personaliโ. Si, รจ scritto proprio cosรฌ. Peccato che il robot sia venduto come un gioco a cui โtuo figlio parlerร come un amicoโ, un gioco che รจ progettato per funzionare meglio quante piรน sono le informazioni che vengono fornite da chi lo usa. Siamo sicuri che si possa insegnare intelligenza emotiva, instillando diffidenza nei confronti dei propri amici? E poi quale bambino di quellโetร รจ in grado di comprendere il concetto di non fornire dati personali? Dovremmo forse regalare al bambino anche un corso sulla data protection?
Forse, per questo Natale, ci sono ancora regali piรน facili ma non meno apprezzati. Pian piano, magari dopo che saranno adottate norme e standard internazionali, impareremo anche come si compra e si usa lโIA in modo da garantire la sicurezza dei piรน piccoli e dei loro dati.
๐ย Un vocale daโฆ Diletta Huyskes (Privacy Network):ย le intelligenze artificiali possono perpetuare le discriminazioni di genere, come fanno con qualsiasi discriminazione. Nel vocale di questa settimana affrontiamo il โparadosso dellโinnovazioneโ, una questione centrale anche nel dibattito sulle norme dellโIA.
๐ฐ UNESCO pubblica unโanalisi sulla violenza di genere nellโera dellโIA
Lโintelligenza artificiale generativa sta rivoluzionando il modo in cui le persone accedono alle informazioni e producono, ricevono e interagiscono con i contenuti online, ma la sua rapidissima evoluzione ci impone una serie di riflessioni su nuovi potenziali problemi come i rischi per la sicurezza dei diritti delle donne.
LโUNESCO ha approfondito il tema nel documento "Technology-Facilitated Gender-Based Violence In an Era of Generative AIโ allโinterno del quale si evidenzia come i sistemi di intelligenza artificiale possano essere utilizzati per propagare alcuni dei piรน comuni danni da TFGBV (Technology Facilitated Gender Based Violence), come l'impersonificazione, l'hacking e lo stalking e le molestie informatiche.ย
Ad oggi, si stima che oltre il 58% delle donne al mondo sia stata vittima di molestie online ed รจ anche per questo che UNESCO ha ribadito lโurgente necessitร di adottare proattivamente una serie di misure mirate da parte dei Governi e delle aziende tecnologiche per ridurre e mitigare i rischi.
๐ฐ Sulle reti Mediaset รจ comparso un disclaimer per proteggersi dalle IA
Da qualche giorno compare in sovraimpressione e alla fine di tutti i programmi Mediaset la scritta โรจ severamente vietato ogni utilizzo delle immagini trasmesse atto allโaddestramento di sistemi di I.A. generativa cosรฌ come lโutilizzo di mezzi automatizzati di data scrapingโ.
Nel contesto normativo attuale in cui vige lโincertezza circa la regolazione dellโintelligenza artificiale, una delle principali aziende italiane produttrici di contenuti televisivi ha deciso di adottare un approccio particolarmente cautelativo.ย
ร verosimile che questo esempio sarร seguito da altri titolari dei diritti, anche se non รจ ancora possibile stabilire quanto si tratti di una misura efficace.
๐ฐ Sicurezza dellโIA: lโItalia tra i 18 Paesi che promuovono Linee guida internazionali
Sono state pubblicate le โLinee guida per uno sviluppo sicuro dellโIntelligenza Artificialeโ, il primo documento congiunto internazionale sottoscritto da 23 Agenzie di 18 Paesi, tra cui quella italiana (ACN).
Le linee guida seguono lโapproccio del "sicuro per impostazione predefinita" e sono organizzate in quattro aree chiave all'interno del ciclo di vita dello sviluppo dei sistemi di IA: progettazione sicura, sviluppo sicuro, implementazione sicura nonchรฉ operazioni e manutenzione sicure.
Lโadozione delle linee guida rappresenta un primo passo verso un approccio condiviso a livello internazionale che tenga conto del fatto che per realizzare appieno le opportunitร dell'IA, รจ necessario svilupparla, distribuirla e impiegarla in modo sicuro e responsabile da parte dei produttori e da parte degli utilizzatori.
โ๏ธ DallโUNESCO un toolkit sullโAI e la Rule of Law per la magistraturaย
L'IA ha un immenso potenziale per il sistema giudiziario: nei prossimi anniย potrebbe aiutare i giudici a prendere decisioni migliori, aumentando l'efficienza del sistema giustizia.
UNESCO, anche a seguito di una rilevazione rivolta agli operatori di settore, ha predisposto un interessante documento con lโobiettivo di fornire ai soggetti interessati (giudici, pubblici ministeri, avvocati, universitร e istituti di formazione specializzata) gli elementi necessari per comprendere i benefici e i rischi nellโutilizzo dell'IA in questo settore (come quello di decisioni distorte prese dagli algoritmi di IA).ย
โ๏ธ Copyright: gli autori perdono una causa contro lโIA (di Meta)
Negli USA un giudice federale ha rigettato unโazione legale intentata da alcuni autori contro Meta (qui maggiori dettagli). Gli autori sostenevano che lโazienda violasse i loro diritti d'autore utilizzando i loro libri per addestrare i modelli linguistici di intelligenza artificiale.
Questa pronuncia potrebbe essere un precedente importante alla luce del quale saranno risolte altre controversie analoghe (ad esempio nei confronti di OpenAI), legittimando - almeno fino allโadozione dellโAI Act - il modo in cui i contenuti vengono utilizzati dalle aziende che sviluppano le soluzioni di IA generativa.
๐ IA Memeย
Quanto accaduto nelle ultime settimane - con la defenestrazione e la nuova incoronazione di Sam Altman come CEO di Openai - assomiglia sempre piรน a una saga infinita.
๐Consigli di lettura: Stanford Emerging Technology Reviewย 2023
Questa settimana segnaliamo la prima uscita della Rivista delle tecnologie emergenti dellโUniversitร di Stanford (SETR).
La rivista vede tra i suoi illustri direttori Condoleezza Rice, giร Segretaria di Stato degli USA, ed un advisory board composto da nomi di altrettanto peso, come Robert Gates e Susan Gordon.
Il focus dedicato allโIntelligenza artificiale, dopo aver individuato i punti chiave del dibattito in corso sulla capacitร della IA - al pari dellโelettricitร - di realizzare una epocale trasformazione della societร e nellโimprevedibilitร dei rischi per lโuomo e la sua stessa esistenza, menziona i settori in cui lโuso dellโAI potrร avere maggior impatto, ponendosi il problema di quali lavori potrebbero scomparire. Sebbene si tratti di un lavoro tanto sintetico quanto ricognitivo - impresa comunque ardua da compiere, in sole 10 pagine, quando si parla di IAย - merita attenzione anche per la ricca nota bibliografica che lo correda e che puรฒ essere una sicura guida per arricchire le riflessioni dei lettori di questa newsletter.
๐ฃ Eventiย
Agid: introduzione allโIA - Webinar, 5-7 dicembre
AI FAIR, la Fiera internazionale sullโintelligenza artificialeย - Bologna, 5-7.12.2023
Lโintelligenza artificiale come supporto allโapprendimento - Webinar, 6.12.2023
Aziende a guida autonoma. Cogliere le opportunitร dellโintelligenza artificiale nel rispetto delle norme - Webinar, 12.12.2023
AI e Pubblica amministrazione: rischi, opportunitร e vincoli per i comuni - Webinar, 13.12.2023
Per ora รจ tutto, torniamo sabato prossimo. Se la newsletter ti รจ piaciuta, commenta o fai girare. Grazie!