🤖 Legge Zero #2 - All AI want for Christmas
Nelle loro letterine a Babbo Natale, bambini di tutto il mondo stanno chiedendo robot o bambole che interagiscono grazie all'IA. Siamo sicuri di saper scegliere i regali giusti?

🧠 Non è un gioco da ragazzi
È il giorno di Natale. Un bambino scarta il suo regalo, è un robot nuovo di zecca. Non è uno di quelli di latta degli anni ’60 e non somiglia neanche a un gioco come Teddy Ruxpin o Furby (ricordi indimenticabili per i ragazzi degli anni ’80 e ’90). Questo è un robot che, grazie all’intelligenza artificiale, è in grado di sostenere una conversazione. Il robot chiede al bambino della sua vita, dove vive, come si sente. Il giocattolo è dotato di telecamera e microfono, può registrare e ricordare le espressioni facciali, le parole e i giochi del bimbo. I dati relativi al tempo di gioco vengono archiviati nel cloud e utilizzati per elaborare informazioni su come il bimbo sta crescendo rispetto all’età anagrafica. Le trascrizioni di ciò che dice il bambino vengono inoltrate a ChatGPT per l'elaborazione. Infatti, non si tratta di un racconto di fantascienza a sfondo natalizio, ma di una delle scene a cui tra qualche giorno potremo assistere nelle nostre case. Nell’anno in cui il mondo ha scoperto le potenzialità dell’intelligenza artificiale (che può essere utilizzata, ad esempio, per trovare il regalo giusto per quell’amico che “ha già tutto” oppure per capire come consegnare più velocemente i regali) si stanno moltiplicando gli AI Toys, giocattoli che utilizzano l’IA per interagire con i bambini. Come Moxie, il robot realizzato per bambini di età compresa tra 5 e 10 anni e che è stato “progettato per aiutare a promuovere lo sviluppo sociale, emotivo e cognitivo attraverso l'apprendimento quotidiano basato sul gioco e contenuti accattivanti”.
In un futuro non tanto lontano, ci saranno quindi un robot o un orsacchiotto robot che leggeranno le favole della buonanotte ai nostri figli. E non sarà una storia qualsiasi: si tratterà di una fiaba costruita su misura, grazie all’IA, sulla base di tutto quello che il giocattolo sa sul bambino (le cose che ama, le cose di cui ha paura, i suoi piccoli segreti). I giocattoli dotati di intelligenza artificiale potranno convincere un bambino a smettere di fare i capricci (o almeno provarci), intrattenerlo e insegnargli cose nuove.
Sembra fantastico, ma c’è qualcosa che può andare storto.
Per poter funzionare al meglio, questi giocattoli devono acquisire il maggior numero di dati possibile sul bambino (e magari anche su fratellini, amichetti e genitori), devono conservarli su un’infrastruttura cloud e comunicarli agli sviluppatori delle soluzioni di intelligenza artificiale generativa che vengono utilizzate per l’interazione. Insomma, un giocattolo “intelligente” è un amico che – per contratto – non terrà per sé quello che gli diciamo.
Insomma, un robot chatbot non è un regalo da fare senza pensarci troppo (leggete qui). Bisogna capire come funziona e quali sono le componenti (microfono, fotocamera), leggere la privacy policy e non scegliere sulla base solo del prezzo, perché un cloud poco sicuro potrebbe essere violato con la conseguente perdita di riservatezza dei dati dei nostri figli e dei nostri cari. Per non parlare del fatto che l’algoritmo potrebbe avere pregiudizi e allucinazioni, fornendo ai nostri bambini informazioni diseducative o, nel migliore dei casi, sbagliate. Scegliere il regalo giusto diventa ancora più difficile. Per chi voglia evitare di sbagliare, è indispensabile studiare e documentarsi. Il Garante Privacy ha pubblicato da tempo una guida con alcuni suggerimenti per l’acquisto di smart toys. La Mozilla Foundation, invece, ha avviato un’iniziativa chiamata “Privacy not included” nell’ambito della quale segnala tutti i prodotti preoccupanti sotto il profilo della protezione dei dati personali. Non stupisce che – nella lista dei (più inquietanti) regali di Natale 2023 – sia citato anche Moxie, insieme ad altri giocattoli che usano l’IA.
Del resto, dei rischi di questo “giocattolo” sembrano consapevoli gli stessi produttori di Moxie che, nella privacy policy, chiedono ai genitori di insegnare ai propri figli a “non fornire mai informazioni personali”. Si, è scritto proprio così. Peccato che il robot sia venduto come un gioco a cui “tuo figlio parlerà come un amico”, un gioco che è progettato per funzionare meglio quante più sono le informazioni che vengono fornite da chi lo usa. Siamo sicuri che si possa insegnare intelligenza emotiva, instillando diffidenza nei confronti dei propri amici? E poi quale bambino di quell’età è in grado di comprendere il concetto di non fornire dati personali? Dovremmo forse regalare al bambino anche un corso sulla data protection?
Forse, per questo Natale, ci sono ancora regali più facili ma non meno apprezzati. Pian piano, magari dopo che saranno adottate norme e standard internazionali, impareremo anche come si compra e si usa l’IA in modo da garantire la sicurezza dei più piccoli e dei loro dati.
🔊 Un vocale da… Diletta Huyskes (Privacy Network): le intelligenze artificiali possono perpetuare le discriminazioni di genere, come fanno con qualsiasi discriminazione. Nel vocale di questa settimana affrontiamo il “paradosso dell’innovazione”, una questione centrale anche nel dibattito sulle norme dell’IA.
📰 UNESCO pubblica un’analisi sulla violenza di genere nell’era dell’IA
L’intelligenza artificiale generativa sta rivoluzionando il modo in cui le persone accedono alle informazioni e producono, ricevono e interagiscono con i contenuti online, ma la sua rapidissima evoluzione ci impone una serie di riflessioni su nuovi potenziali problemi come i rischi per la sicurezza dei diritti delle donne.
L’UNESCO ha approfondito il tema nel documento "Technology-Facilitated Gender-Based Violence In an Era of Generative AI” all’interno del quale si evidenzia come i sistemi di intelligenza artificiale possano essere utilizzati per propagare alcuni dei più comuni danni da TFGBV (Technology Facilitated Gender Based Violence), come l'impersonificazione, l'hacking e lo stalking e le molestie informatiche.
Ad oggi, si stima che oltre il 58% delle donne al mondo sia stata vittima di molestie online ed è anche per questo che UNESCO ha ribadito l’urgente necessità di adottare proattivamente una serie di misure mirate da parte dei Governi e delle aziende tecnologiche per ridurre e mitigare i rischi.
📰 Sulle reti Mediaset è comparso un disclaimer per proteggersi dalle IA
Da qualche giorno compare in sovraimpressione e alla fine di tutti i programmi Mediaset la scritta “è severamente vietato ogni utilizzo delle immagini trasmesse atto all’addestramento di sistemi di I.A. generativa così come l’utilizzo di mezzi automatizzati di data scraping”.
Nel contesto normativo attuale in cui vige l’incertezza circa la regolazione dell’intelligenza artificiale, una delle principali aziende italiane produttrici di contenuti televisivi ha deciso di adottare un approccio particolarmente cautelativo.
È verosimile che questo esempio sarà seguito da altri titolari dei diritti, anche se non è ancora possibile stabilire quanto si tratti di una misura efficace.
📰 Sicurezza dell’IA: l’Italia tra i 18 Paesi che promuovono Linee guida internazionali
Sono state pubblicate le “Linee guida per uno sviluppo sicuro dell’Intelligenza Artificiale”, il primo documento congiunto internazionale sottoscritto da 23 Agenzie di 18 Paesi, tra cui quella italiana (ACN).
Le linee guida seguono l’approccio del "sicuro per impostazione predefinita" e sono organizzate in quattro aree chiave all'interno del ciclo di vita dello sviluppo dei sistemi di IA: progettazione sicura, sviluppo sicuro, implementazione sicura nonché operazioni e manutenzione sicure.
L’adozione delle linee guida rappresenta un primo passo verso un approccio condiviso a livello internazionale che tenga conto del fatto che per realizzare appieno le opportunità dell'IA, è necessario svilupparla, distribuirla e impiegarla in modo sicuro e responsabile da parte dei produttori e da parte degli utilizzatori.
⚖️ Dall’UNESCO un toolkit sull’AI e la Rule of Law per la magistratura
L'IA ha un immenso potenziale per il sistema giudiziario: nei prossimi anni potrebbe aiutare i giudici a prendere decisioni migliori, aumentando l'efficienza del sistema giustizia.
UNESCO, anche a seguito di una rilevazione rivolta agli operatori di settore, ha predisposto un interessante documento con l’obiettivo di fornire ai soggetti interessati (giudici, pubblici ministeri, avvocati, università e istituti di formazione specializzata) gli elementi necessari per comprendere i benefici e i rischi nell’utilizzo dell'IA in questo settore (come quello di decisioni distorte prese dagli algoritmi di IA).
⚖️ Copyright: gli autori perdono una causa contro l’IA (di Meta)
Negli USA un giudice federale ha rigettato un’azione legale intentata da alcuni autori contro Meta (qui maggiori dettagli). Gli autori sostenevano che l’azienda violasse i loro diritti d'autore utilizzando i loro libri per addestrare i modelli linguistici di intelligenza artificiale.
Questa pronuncia potrebbe essere un precedente importante alla luce del quale saranno risolte altre controversie analoghe (ad esempio nei confronti di OpenAI), legittimando - almeno fino all’adozione dell’AI Act - il modo in cui i contenuti vengono utilizzati dalle aziende che sviluppano le soluzioni di IA generativa.
😂 IA Meme
Quanto accaduto nelle ultime settimane - con la defenestrazione e la nuova incoronazione di Sam Altman come CEO di Openai - assomiglia sempre più a una saga infinita.

📚Consigli di lettura: Stanford Emerging Technology Review 2023
Questa settimana segnaliamo la prima uscita della Rivista delle tecnologie emergenti dell’Università di Stanford (SETR).
La rivista vede tra i suoi illustri direttori Condoleezza Rice, già Segretaria di Stato degli USA, ed un advisory board composto da nomi di altrettanto peso, come Robert Gates e Susan Gordon.
Il focus dedicato all’Intelligenza artificiale, dopo aver individuato i punti chiave del dibattito in corso sulla capacità della IA - al pari dell’elettricità - di realizzare una epocale trasformazione della società e nell’imprevedibilità dei rischi per l’uomo e la sua stessa esistenza, menziona i settori in cui l’uso dell’AI potrà avere maggior impatto, ponendosi il problema di quali lavori potrebbero scomparire. Sebbene si tratti di un lavoro tanto sintetico quanto ricognitivo - impresa comunque ardua da compiere, in sole 10 pagine, quando si parla di IA - merita attenzione anche per la ricca nota bibliografica che lo correda e che può essere una sicura guida per arricchire le riflessioni dei lettori di questa newsletter.
📣 Eventi
Agid: introduzione all’IA - Webinar, 5-7 dicembre
AI FAIR, la Fiera internazionale sull’intelligenza artificiale - Bologna, 5-7.12.2023
L’intelligenza artificiale come supporto all’apprendimento - Webinar, 6.12.2023
Aziende a guida autonoma. Cogliere le opportunità dell’intelligenza artificiale nel rispetto delle norme - Webinar, 12.12.2023
AI e Pubblica amministrazione: rischi, opportunità e vincoli per i comuni - Webinar, 13.12.2023
Per ora è tutto, torniamo sabato prossimo. Se la newsletter ti è piaciuta, commenta o fai girare. Grazie!