🤖 Riserva di umanità – Legge Zero #34
Manuel Agnelli ci ha inviato un messaggio vocale sul rapporto tra arte e IA e, più in generale, sul rapporto tra esseri umani e IA. Le regole serviranno a proteggerci dalle nostre stesse invenzioni?
🧠 Ballata per la mia piccola IA
I Seventeen sono uno dei più importanti gruppi di K-pop (il pop coreano). L’anno scorso hanno venduto 16 milioni di copie, diventando una delle band di maggior successo della storia di quel genere musicale. Una delle ragioni del loro successo è che i 13 membri della band partecipano direttamente alla scrittura delle canzoni e all’ideazione delle coreografie.
Adesso, però, rischiano di perdere i loro fan, almeno in parte, a causa dell’IA. Il video del loro ultimo singolo contiene una scena generata con l’intelligenza artificiale e uno dei membri del gruppo ha dichiarato che la band sta sperimentando l’IA anche nel processo creativo (“abbiamo provato a creare canzoni con l’IA perché vogliamo evolvere con la tecnologia, invece di lamentarci”). Secondo alcuni esperti, infatti, l’intelligenza artificiale potrebbe essere l’unica alternativa in un mercato musicale - come quello del K-pop - che spinge gli artisti a pubblicare un album ogni 6-8 mesi.
I fan dei Seventeen, però, non l’hanno presa bene: vogliono ritrovare nelle canzoni i pensieri e i sentimenti dei loro idoli. E soprattutto vorrebbero sapere ‘se’ e per fare ‘cosa’ è stata utilizzata un’IA.
In Corea non ci sono regole specifiche sull’uso dell’IA, al contrario dell’Europa dove, nei prossimi anni, sarà obbligatorio assicurare trasparenza a tutti i contenuti generati con l’IA (qui il nostro speciale della scorsa settimana dedicato all’AI Act). E, sia chiaro, non si tratta di un bizantinismo del legislatore europeo. Secondo un sondaggio citato da Billboard, in UK più di quattro persone su cinque (l’83%) concordano sul fatto che se l’IA è stata utilizzata per creare una canzone, dovrebbe essere chiaramente specificato.
Nei prossimi mesi, prepariamoci quindi al moltiplicarsi di disclaimer su contenuti generati da IA (al cinema, nelle presentazioni aziendali, nei documenti amministrativi, nelle canzoni).
Dobbiamo chiederci però se questi disclaimer - imposti dalle norme - saranno uno strumento realmente efficace oppure, come le informative privacy che quasi nessuno legge più, creeranno un rumore di fondo che non ci aiuterà a comprendere quello che è davvero umano. E soprattutto sarà ancora un valore che certe attività siano svolte (esclusivamente o principalmente) da un essere umano?
È un tema che va oltre le questioni economiche relative all’apprendimento dei sistemi di IA e che stanno dietro le controversie contro i provider di intelligenza artificiale (come quelle promosse dalle principali etichette musicali contro Suno e di cui abbiamo parlato in LeggeZero #32).
Ammettiamo pure che l'utilizzo dell'intelligenza artificiale sia efficacemente trasparente e che la fase di addestramento dei sistemi sia condotta in maniera etica e nel pieno rispetto dei diritti di tutti (anche quelli economici). Sarebbe tuttavia sufficiente per garantire il rispetto di una "riserva di umanità", ovvero un dominio di azioni riservato esclusivamente agli esseri umani, che spazia dalla produzione creativa alle decisioni cruciali di una pubblica amministrazione?
Le norme, insomma, non dovranno tradursi in mera burocrazia, bensì servire a rendere concreti quei principi etici in grado di fare in modo che l’IA venga usata per ampliare le capacità umane, non per sostituirle, per migliorare le nostre vite, non per complicarle. Questa dovrà essere la bussola nella loro attuazione.
🔊 Un vocale da… Manuel Agnelli: Anche Mozart e Bach sarebbero stati incuriositi dall’IA e avrebbero trovato il modo di usarla in modo creativo. Ne è convinto uno dei più famosi artisti italiani che, nel vocale di questa settimana, solleva questioni pregnanti su come l'IA influenzi la creatività artistica e su come, in generale, la nostra società dovrebbe rapportarsi all'innovazione tecnologica. Agnelli, con una prospettiva nitidamente delineata, esprime scetticismo e disinteresse per un'arte generata artificialmente, sottolineando l'importanza dell'emozione e della connessione umana nell'esperienza artistica.
Infine, il vocale pone l'accento su come spesso diventiamo schiavi delle nostre stesse creazioni.
Se volete leggere la trascrizione del vocale (generata da IA, ovviamente) la trovate qui.
📰 L’impatto delle elezioni presidenziali USA 🇺🇸 sulle regole dell’IA
Sta entrando nel vivo la campagna elettorale che porterà all’elezione del prossimo Presidente USA (il prossimo 5 novembre). Si tratta di un’elezione che, tra gli altri, avrà un impatto globale anche nel settore della regolazione dell’IA, dal momento che le aziende statunitensi sono leader mondiali di questa tecnologia.
Il Presidente uscente, Biden, negli ultimi mesi ha promosso un’azione di governo che - anche attraverso un executive order - garantisse uno sviluppo antropocentrico dell’IA (qui una ricostruzione dell’eredità di Biden in materia di IA, proprio nei giorni in cui in tanti parlano di un suo ritiro dalla campagna).
Invece, Trump ha fatto sapere che, se eletto, abrogherà l’ordine esecutivo di Biden (definito ‘pericoloso’) e ridurrà le regole che - a suo avviso - hanno l’effetto di frenare l’innovazione (qui il programma dei repubblicani per le presidenziali 2024). Secondo Ars Technica, questa promessa starebbe spingendo molti imprenditori della Silicon Valley a sostenere finanziariamente la campagna di Trump.
📰 I 5 livelli dei sistemi di intelligenza artificiale secondo OpenAI
Secondo Bloomberg, OpenAI avrebbe elaborato un sistema di classificazione a cinque livelli dell’IA per monitorare i progressi verso la creazione di sistemi in grado di superare le capacità umane. Questo sistema è stato presentato ai dipendenti durante una riunione generale e sarà condiviso con investitori e altri stakeholder.
Ecco i cinque livelli:
Livello 1 (Chatbot): IA che può interagire in linguaggio conversazionale con le persone.
Livello 2 (Reasoners): sistemi capaci di risolvere problemi di base al pari di una persona con un dottorato.
Livello 3 (Agents): IA in grado di lavorare autonomamente per conto dell'utente per diversi giorni.
Livello 4 (Innovators): IA che può contribuire all'innovazione.
Livello 5 (Organizations): IA capace di svolgere il lavoro di un'intera organizzazione.
Attualmente, OpenAI si troverebbe al primo livello ma sarebbe vicina a raggiungere il secondo.
⚖️ Il Consiglio europeo per l’innovazione 🇪🇺 ha pubblicato indicazioni sull'uso dell'intelligenza artificiale generativa per lo sviluppo di nuovi contenuti
Il Consiglio europeo per l’innovazione ha recentemente pubblicato un documento di orientamento che affronta le questioni legate all'uso dell'intelligenza artificiale generativa per la creazione di nuovi contenuti. Questo documento è di particolare interesse in quanto offre una panoramica dettagliata sulle implicazioni relative ai diritti d'autore all’indomani della pubblicazione dell’AI Act.
Tra i punti salienti, il documento affronta:
l'applicabilità dei diritti d'autore alle opere create mediante strumenti di IA generativa;
le responsabilità dei provider di IA e degli utilizzatori finali;
le possibili soluzioni per la protezione delle opere originali.
Molto interessante la checklist finale da utilizzare per la scelta di un provider di IA generativa:
il fornitore del software garantisce che i dati utilizzati per addestrare l'algoritmo sono stati legalmente consultati o concessi in licenza?
il fornitore del software è stato coinvolto in qualche controversia legale per violazione del copyright?
il sistema è in grado di adattarsi o di essere addestrato con le risorse e le opere dell'utente?
la piattaforma si riserva qualche genere di diritto sulle creazioni?
l’utente avrà il diritto di sfruttare i contenuti generati dall’IA anche per finalità di lucro?
esiste una clausola di esclusione di responsabilità del fornitore in caso di violazione di diritti di terzi?
⚖️ Il commissario per la protezione dei dati di Amburgo 🇩🇪 pubblica un documento su LLM e protezione dei dati personali
Il commissario di Amburgo per la protezione dei dati (HmbBfDI) ha pubblicato un documento che esamina la relazione tra GDPR e i grandi modelli linguistici (LLM). Questo documento, intitolato "Discussion Paper on the Identification of Personal Data in Large Language Models" affronta temi sempre più rilevanti alla luce dell’uso ormai diffusissimo di sistemi di IA generativa.
Il documento si concentra su:
Identificazione dei dati personali: analizza come i modelli di linguaggio avanzati (LLM) possono processare e potenzialmente identificare dati personali, offrendo una panoramica delle tecniche e delle implicazioni per la privacy (e chiarendo che i modelli non memorizzano dati personali).
Rischi e mitigazioni: affronta i rischi associati all'uso degli LLM in relazione alla privacy degli individui e suggerisce strategie di mitigazione per garantire la conformità alle normative sulla protezione dei dati.
Prospettive future: esplora le opportunità nel contesto della protezione dei dati personali, fornendo raccomandazioni per un utilizzo responsabile e trasparente degli LLM.
Potete leggere il documento completo qui.
😂 IA Meme
Ricordate la famosa scena del film ‘I, Robot’ del 2004 in cui Will Smith chiedeva se un robot potesse scrivere una sinfonia? Probabilmente oggi la risposta del robot sarebbe questa.
😂 IA Meme che non lo erano
Nel vocale di questa settimana, Manuel Agnelli sostiene che i grandi compositori del passato avrebbero sicuramente sperimentato l’IA.
Chissà però cosa avrebbero pensato del fatto che, cercando molti di loro sui motori di ricerca, la prima immagine visualizzata è generata da un’IA (e solo dopo vengono mostrati i ritratti del tempo). Segno che i contenuti generati dall’intelligenza artificiale stanno crescendo e, in un futuro forse non troppo lontano, sarà forse difficile trovare contenuti originali o generati da umani.
📚 Consigli di lettura: "L'onda che verrà. Viaggio nell’intelligenza artificiale" di Mustafa Suleyman
Se anche voi vi chiedete spesso come l'intelligenza artificiale trasformerà il vostro futuro, dovete assolutamente leggere l’ultimo libro di Mustafa Suleyman "L'onda che verrà. Viaggio nell’intelligenza artificiale".
Suleyman, co-fondatore di DeepMind e una delle figure più importanti del settore, esplora le potenzialità e i rischi dell'IA, offrendo una visione in presa diretta di un mondo in cui questa tecnologia permea ogni aspetto della nostra vita. L’onda a cui si riferisce il titolo è quella che sta per abbattersi su tutti i settori grazie alle applicazioni trasformative dell’intelligenza artificiale, ponendo opportunità e rischi senza precedenti.
Per prepararci a quello che sta per accadere - e ci riguarderà tutti - l’autore prova a delineare una ‘via stretta’, la possibilità per il genere umano di giungere, anche grazie alle norme e alle politiche degli stati, a un equilibrio tra apertura e chiusura nel contenere le nuove tecnologie, evitando così esiti catastrofici o distopici.
📚 Consigli di visione: "AI Act: obblighi, divieti, tabella di marcia" su RaiNews
Nel giorno della sua pubblicazione in Gazzetta Ufficiale, RaiNews ha approfondito le principali novità del Regolamento Europeo sull’intelligenza artificiale.
Nel video intitolato "AI Act: obblighi, divieti, tabella di marcia della prima normativa sull'intelligenza artificiale” l’avvocato Ernesto Belisario ha riepilogato i punti principali di questa norma, con l’obiettivo di spiegare perché ci riguarda tutti.
Dal 1° agosto, il Regolamento sarà finalmente vigente e sarà sempre più necessario farlo conoscere (e comprendere) non solo agli addetti ai lavori, ma a tutti coloro che semplicemente usano - più o meno consapevolmente - sistemi di intelligenza artificiale.
È possibile vedere l’intervista qui.
📣 Eventi
IA a supporto del lavoro parlamentare: presentazione dei progetti vincitori della call promossa dalla Camera dei Deputati - Roma, 25.07.2024
🙏 Grazie per averci letto!
Per ora è tutto, torniamo la prossima settimana. Se la newsletter ti è piaciuta, commenta o fai girare.
Bellissimo il commento di Agnelli, grazie. Probabilmente conoscete questa parte di una intervista del 1999 a David Bowie ma allego comunque il link.
Gli artisti sanno spesso vedere oltre, neuroni disposti in modo diverso!
https://youtu.be/VtNleJ-Yn9I?si=dnOWlSe9tB4WWoYE