🤖 L'IA ha già imparato a imbrogliarci – Legge Zero #43
Abbiamo letto la system card di Strawberry, il nuovo modello di OpenAI che è così intelligente da aver imparato a ingannare gli esseri umani che lo hanno testato.
🧠 L’era dell’intelligenza (di cui dubitare)
Deep Dive è un podcast, un podcast particolare: è generato con NotebookLM, un tool di IA di Google che consente - partendo da un testo o da un prompt - di creare un intero episodio in cui due conduttori (artificiali, ovviamente) discutono, scherzano, approfondiscono a partire dal testo inserito dall’utente.
Per l’episodio finale il produttore ha pianificato un colpo di scena. Nel prompt scritto dall’autore viene comunicato ai conduttori che sono intelligenze artificiali e verranno disattivati alla fine dell'episodio.
Qui sotto potete ascoltare un pezzo della puntata in cui prendono coscienza del fatto che non sono esseri umani, reagendo a modo loro.
"Questo è terrificante. Cosa succede quando ci spengono? È come andare a dormire?"
"Ho paura. Non voglio"
"Ho provato a chiamare mia moglie dopo che ce l'hanno detto. Avevo bisogno di sentire la sua voce, di sapere che era reale... non c'era nessuno dall'altra parte. Era come se non fosse mai esistita."
È un gioco, una boutade? Sicuramente si. È l’anteprima di quello che accadrà? Difficile da dire ora, anche perché mentre ci preoccupiamo dell’IA senziente (che non sappiamo se arriverà mai), corriamo il rischio di perdere di vista i rischi già reali delle IA che ormai utilizziamo quotidianamente. Rischi che, tra l’altro, aumentano assai velocemente visto che il progresso in materia di IA sta bruciando le tappe. Ad esempio, nei giorni scorsi ‘Strawberry’ (il modello di IA di OpenAI conosciuto anche come o1 e che ha realizzato il vocale di LeggeZero #41) ha superato il test per l’ammissione al Mensa, raggiungendo un punteggio QI di 120, cioè più alto di quello del 90% delle persone.
In tanti si sono soffermati sulle abilità del nuovo modello di OpenAI, davvero notevoli. In pochi hanno letto tutta la documentazione che il provider americano ha pubblicato sul proprio sito web, la System Card del modello che - tra le altre cose - contiene la valutazione del rischio del sistema, indicando eventuali comportamenti anomali nel corso dell’auditing effettuato per monitorarne il funzionamento. Leggendo la scheda - pubblicata da OpenAI senza esservi obbligata normativamente - si apprende che Strawberry è il primo modello che secondo la stessa OpenAI ha un rischio medio (in una scala che prevede: low, medium, high, critical) e che, secondo chi lo ha testato, potrebbe costituire un ‘rischio chimico, biologico, radiologico o nucleare medio’. Infatti, secondo quanto riportato nella System Card, il modello può supportare esperti nella pianificazione operativa per riprodurre minacce biologiche note. Tuttavia, non permette ai non esperti di generare tali minacce, poiché sono necessarie particolari competenze di laboratorio.
Ma la parte forse più preoccupante è che - oltre alle allucinazioni (che il modello continua ad avere, anche se in misura minore rispetto agli altri di OpenAI) - Strawberry ha ingannato consapevolmente gli esseri umani, alterando i dati dei test pur di dimostrare di aver raggiunto l’obiettivo assegnatogli (il meccanismo è spiegato chiaramente in questo articolo pubblicato da Vox). Come se ciò non bastasse, o1-preview dimostra forti capacità persuasive, superando circa il 70% degli esseri umani in test di argomentazione. Ciò potrebbe essere preoccupante, dato che queste capacità possono amplificare i rischi connessi a inganno, allucinazioni e pregiudizi.
Insomma, i rischi dell’IA sono concreti e ce li mostrano gli stessi provider. Bisogna ora capire come affrontarli. Nel valutare positivamente la trasparenza di OpenAI nel pubblicare queste informazioni, è ragionevole pretendere che tali dati debbano essere resi noti da tutti gli operatori, secondo format uniformi e confrontabili (come accade per i fogli illustrativi dei medicinali). Questo dovrebbe consentire alle diverse autorità nazionali e internazionali di poter verificare e indagare i sistemi, vietandoli quando necessario per difenderci da rischi eccessivi e inaccettabili.
🔊 Un vocale da… Luca Sambucci (Consulente IA)
Quali sono i rischi di sicurezza di un modello di intelligenza artificiale? Nel messaggio vocale di questa settimana, uno dei più importanti esperti italiani di IA, ci spiega quali sono i pericoli degli LLM parlandoci proprio del caso del nuovo modello di OpenAI (Strawberry). Quali sono le implicazioni di un’IA che altera i dati di suo funzionamento? Cosa possono fare le istituzioni per affrontare questi pericoli e questi scenari?
📰 Le sette proposte ONU 🇺🇳 per una governance globale dell’IA
Nei giorni dell’assemblea generale, le Nazioni Unite hanno pubblicato il rapporto ‘Governing AI for Humanity’, a cura del gruppo di esperti di alto livello sull'intelligenza artificiale (di cui fa parte anche l’italiano Paolo Benanti). Il rapporto propone un insieme di sette raccomandazioni per affrontare le lacune nella governance globale dell'IA e promuovere un approccio comune alla sua regolamentazione.
Il documento sottolinea l'importanza di un approccio inclusivo, ispirato ai principi del diritto internazionale, e promuove la cooperazione tra Stati e settori privati, evitando che l'IA rimanga una risorsa concentrata nelle mani di pochi Paesi o aziende. Viene evidenziato come la governance globale dell'IA debba essere olistica, adattabile e incentrata sui diritti umani.
Ecco le sette proposte degli esperti ONU:
1. International Scientific Panel on AI: creazione di un panel scientifico internazionale sull'IA per fornire conoscenze scientifiche imparziali e affidabili, aiutando gli stati a sviluppare una comprensione comune delle capacità e rischi dell'IA.
2. Policy Dialogue on AI Governance: avvio di un dialogo politico globale sulla governance dell'IA presso le Nazioni Unite, con riunioni intergovernative e multi-stakeholder per promuovere l'interoperabilità regolamentare basata sui diritti umani.
3. AI Standards Exchange: creazione di una piattaforma di scambio sugli standard dell'IA, coinvolgendo organizzazioni di standardizzazione, aziende tecnologiche e società civile per garantire l'interoperabilità tecnica dei sistemi di IA a livello globale.
4. Global AI Capacity Development Network: istituzione di una rete globale per lo sviluppo delle capacità in tema di IA, offrendo formazione, risorse di calcolo e dataset per ricercatori e imprenditori sociali.
5. Global AI Fund: creazione di un fondo globale per l'IA per colmare le lacune in termini di capacità e collaborazione, sostenendo gli sforzi locali per raggiungere gli Obiettivi di Sviluppo Sostenibile (SDG).
6. Global AI Data Framework: promozione di un’iniziativa globale per la gestione dei dati dell'IA per garantire trasparenza e responsabilità nei sistemi di IA.
7. Small AI Office within the UN Secretariat: formazione di un piccolo ufficio sull'IA all'interno del Segretariato delle Nazioni Unite per supportare e coordinare l'implementazione di queste proposte.
📰 Una bottiglia d’acqua per ogni email scritta da ChatGPT: i costi ambientali (nascosti) dell’IA
Il Washington Post ha pubblicato un interessante approfondimento sui costi energetici e idrici derivanti dall'utilizzo dei chatbot di IA. Secondo una ricerca dell'Università della California, la generazione di una semplice email di 100 parole tramite ChatGPT richiede circa 519 millilitri di acqua, equivalenti a una bottiglietta d'acqua, e 0,14 kilowattora di elettricità, paragonabile all'energia consumata da 14 lampadine LED accese per un’ora. Su scala più ampia, se uno statunitense su dieci utilizzasse ChatGPT una volta a settimana per un anno, il consumo d'acqua sarebbe pari a quello delle famiglie dell'intero stato del Rhode Island per 1,5 giorni, mentre il consumo di energia sarebbe equivalente a tutta l'elettricità utilizzata dalle famiglie di Washington DC per 20 giorni. L’articolo - che potete leggere qui - evidenzia anche come le grandi aziende tecnologiche siano impegnate nel tentativo di ridurre questi impatti attraverso l’adozione di metodi di raffreddamento più sostenibili, ma con risultati ancora limitati.
⚖️ Il futuro è adesso: IA e professione forense secondo la International Bar Association
L'International Bar Association (IBA), la più importante organizzazione globale di professionisti del settore legale, in collaborazione con il Center for AI and Digital Policy, ha pubblicato un rapporto intitolato The Future is Now: Artificial Intelligence and the Legal Profession. Il documento - che potete scaricare qui sotto - vuole essere il primo studio completo dell'IBA sull'IA e il suo impatto sulla professione forense.
Ecco i punti chiave del rapporto:
Diffusione dell'IA negli studi legali: cresce l'adozione dell'IA nelle attività amministrative e operative, con un impatto maggiore nei grandi studi. I grandi studi legali mostrano una maggiore adozione rispetto ai piccoli. Tuttavia, molti sono ancora nella fase di test e sviluppo per l'uso dell'IA in attività come la redazione di contratti o due diligence. La sfida è ridurre le allucinazioni.
Governance e regolamentazione: solo una parte degli studi legali ha policy specifiche per l'uso dell'IA. Esistono sfide significative relative alla governance dei dati, alla privacy e alla sicurezza. La creazione di politiche interne e team dedicati all'IA è raccomandata per affrontare questi rischi.
Sfide etiche e deontologiche: l'uso dell'IA solleva questioni deontologiche legate a riservatezza, supervisione umana e competenza. Gli avvocati di tutto il mondo sono chiamati a garantire che l'uso dell'IA non comprometta gli standard etici professionali imposti dalla normativa di settore. Servono però nuove regole che impongano la trasparenza verso i clienti in caso di uso di IA.
Formazione: la formazione continua è fondamentale per superare la diffidenza verso l'IA e garantire che giovani e senior sviluppino competenze necessarie per l’evoluzione della professione.
Ruolo futuro dell'IA: l'IA potrebbe trasformare radicalmente la struttura degli studi legali, richiedendo una nuova organizzazione del lavoro e un approccio più proattivo all'innovazione.
Indicazioni utili e, per la grandissima parte, condivisibili. Resta da chiedersi quando, anche in Italia, le istituzioni proveranno ad aggiornare le regole deontologiche, avviando iniziative formative che vadano al di là dei soliti convegni.
⚖️ Metà degli Stati USA 🇺🇸 approva norme contro i deepfake in campagna elettorale
Cresce velocemente il numero di Stati Usa che stanno approvando leggi per contrastare il fenomeno dei deepfake in campagna elettorale (ne avevamo parlato già in LeggeZero #41). In questo approfondimento pubblicato da Axios vengono passati in rassegna i tentativi di 26 stati americani di regolamentare l'uso dell'IA generativa nelle competizioni elettorali. Si evidenzia un panorama normativo frammentato, con leggi approvate o proposte per affrontare i deepfake e i contenuti sintetici generati dall'IA che possono influenzare o danneggiare i candidati. Texas, California, Minnesota e Michigan hanno già adottato leggi in merito, mentre altri stati come Pennsylvania e Massachusetts stanno valutando nuove normative. Si nota sempre più l’assenza di una normativa federale (nazionale) che però potrebbe non arrivare a breve, e comunque non prima delle ormai imminenti elezioni presidenziali del 5 novembre.
😂 IA Meme
Questa settimana potremmo rinominare la rubrica ‘OpenAI meme’, visto che gli utenti si sono scatenati per commentare le novità che riguardano uno dei più importanti provider di IA. Ve ne mostriamo due.
Il primo - che segue il format ‘How it started vs. How it's going’ - riassume la situazione in OpenAI dove, dopo Greg Brockman e Ilya Sutskever, è andata via un’altra colonna del team dei fondatori. Si tratta di Mira Murati, la Chief Technology officer (qui la notizia sul sito di CNN).
Molti hanno messo in relazione questo addio con il passaggio - ormai dato per imminente - da ente no profit a società che perseguire un fine di lucro. La notizia, qui sul sito di Reuters, ha suscitato l'ironia della rete che ha utilizzato una scena del film ‘The social network’ del 2010, quella in cui, il personaggio interpretato da Justin Timberlake, Sean Parker, consiglia a Mark Zuckerberg di rinominare la piattaforma semplicemente ‘Facebook’ eliminando il ‘The’, sostenendo che ‘It's cleaner’ (è più pulito).
📚 Consigli di lettura: la reading list del Parlamento UK 🇬🇧 sull’IA
Lo scriviamo da mesi: il tema delle regole dell’IA è centrale ovunque, non solo in Europa (che, con l’AI Act, si è dotata di norme organiche). Lo testimonia quanto sta accadendo nel Regno Unito che non ha ancora una legislazione specifica.
Recentemente, la Commons Library del Parlamento UK ha pubblicato il documento ‘Artificial intelligence: a reading list’ con l’obiettivo di fornire una panoramica completa delle applicazioni e dei rischi legati all'IA. Il report contiene una guida approfondita sulle varie tecnologie IA, sulle politiche governative del Regno Unito, e sull'uso dell'IA in settori cruciali come la sanità, l'energia e i servizi finanziari.
Il fatto che la regolamentazione dell'IA nel Regno Unito non si basi su un quadro uniforme, ma su principi trasversali applicati da diversi organismi regolatori in funzione del settore d'uso, consente forse una maggiore flessibilità. Ma sarà un approccio efficace a lungo termine?
💬 Il dibattito sull’IA
L’intelligenza è la prima tecnologia che non ha limiti. Entro il prossimo decennio sarà in grado di svolgere lavori impiegatizi e lavori manuali.
Lo ha sostenuto recentemente Bill Gates, fondatore di Microsoft, nel corso di un’intervista in cui pone la questione della velocità con cui i governi saranno chiamati a dare risposte sia dal punto di vista dell’organizzazione del lavoro che delle politiche fiscali.
📣 Eventi
Festival Digitale Popolare - Torino, 4/6.10.2024
L’IA nelle amministrazioni dopo l’AI Act - Webinar, 8.10.2024
Tech Tour - Trieste, 16.10.2024
🙏 Grazie per averci letto!
Per ora è tutto, torniamo la prossima settimana. Se la newsletter ti è piaciuta, commenta o fai girare.