🤖 Siete pronti per i robotaxi? – Legge Zero #42
Sulle strade della California circolano taxi senza conducente che, secondo dati recenti, sarebbero coinvolti in meno incidenti dei veicoli guidati da umani. Una sfida anche per il diritto.
🧠 Uomo al volante pericolo costante
Il suono del clacson, spesso utilizzato senza motivo a qualsiasi ora, è tra i comportamenti più fastidiosi degli automobilisti italiani. Resterete quindi forse sorpresi nel sapere che anche in California, a San Francisco, potreste sentire ripetutamente il suono di un taxi nel cuore della notte. Probabilmente sarete ancora più sorpresi nello scoprire che a suonare il clacson sono i taxi a guida autonoma della compagnia Waymo (una di quelle autorizzate a circolare in città). Nel video che potete vedere qui sotto, una residente del quartiere in cui si trova il deposito notturno dei robotaxi ha filmato il divertente balletto delle auto mentre tentano di posteggiarsi, un comportamento che le auto sembrano aver imparato dagli umani che - quando il veicolo davanti a loro è incerto sulla manovra da compiere - suonano il clacson per farlo sbrigare.
Waymo (azienda del gruppo Google) ha fatto sapere che ha già identificato il problema e che lo correggerà con il prossimo aggiornamento del software dei veicoli. Attenzione, però. Le similitudini con gli umani si fermano qui.
I dati diffusi dalla compagnia (tra le tre abilitate dallo Stato della California a far circolare i propri robotaxi senza conducente) sono impressionanti: i veicoli Waymo hanno percorso tra Phoenix e San Francisco oltre 34 milioni di km, effettuando circa 100mila corse a settimana e restando coinvolti in ‘soli’ 64 incidenti. Molti di questi sono stati causati da altri veicoli (guidati da umani) che hanno tamponato i robotaxi oppure da esseri umani che hanno attraversato la strada nonostante il semaforo rosso, finendo per essere investiti dall’auto a guida autonoma.
In percentuale, le auto autonome di Waymo sono state coinvolte in molti meno incidenti con lesioni rispetto ai veicoli guidati da umani (oltre il 70% in meno). Se vi state chiedendo se i dati siano affidabili sappiate che, seppure forniti direttamente dall’operatore, sono stati pubblicati in modo da consentire la verifica da parte di esperti indipendenti (qui trovate un’approfondita analisi in cui si sottolinea che il divario tra robotaxi e conducenti umani potrebbe essere ancora maggiore, tenuto conto del fatto che gli umani non denunciano tutti gli incidenti).
Questo significa che tutti i robotaxi sono egualmente affidabili? Certo che no. Non tutti i robotaxi funzionano come Waymo (che ha investito 8 miliardi di dollari in 15 anni per arrivare a questi risultati), così come non tutti i chatbot forniscono risposte efficaci.
Per questo motivo, la California ha definito un apposito programma denominato Autonomous Vehicle Deployment in cui sono state dettate le regole che i produttori devono rispettare per poter far circolare i propri veicoli sulle strade dello Stato. Prima di essere ammessi ad erogare il proprio servizio agli utenti, le compagnie devono effettuare due livelli di test: il primo con un conducente umano a bordo (in grado di intervenire in caso di problemi) e il secondo senza conducente. Le società che in questo momento hanno superato i test e sono titolari di una licenza vera e propria sono tre: Waymo, Mercedes e Nuro (ciascuna con prescrizioni e limitazioni differenti imposte dal Dipartimento della motorizzazione californiano).
Naturalmente, i produttori - fin dalla fase di test - sono tenuti a segnalare alla motorizzazione ogni incidente in cui rimangono coinvolti i propri veicoli (dal 2014 sono stati segnalati circa 700 incidenti di cui trovate qui tutti i rapporti). E, ovviamente, quando il Dipartimento della motorizzazione ritiene che un operatore non sia affidabile, procede con la sospensione o la revoca della licenza. Nei mesi scorsi è successo a Cruise, la compagnia di robotaxi di General Motors, coinvolta in una serie di incidenti particolarmente gravi, i cui veicoli non circolano più sulle strade della California.
Immagino che, a questo punto, vi starete chiedendo come funziona la responsabilità in caso di incidente. O meglio, chi paga. Non stupitevi se negli USA, al momento, non ci sono regole specifiche sulla responsabilità quanto piuttosto del fatto che, ad oggi, non ci sono molti precedenti giudiziari (i pochissimi casi rilevanti sono stati per lo più definiti con accordi tra le parti come riportato in questo articolo pubblicato sul Journal of Law & Technology dell’Università di Richmond). Dal punto di vista teorico, non essendoci un conducente umano, la responsabilità dovrebbe essere attribuita dai giudici ai produttori. Questa soluzione, tra l’altro, è stata adottata da quei Paesi - come Francia, Germania e UK - che hanno già modificato i propri codici della strada per consentire la sperimentazione e l’utilizzo dei veicoli a guida autonoma (della legge inglese abbiamo parlato in LeggeZero #26).
E in Italia? Nel nostro Paese l’art. 46 del Codice della Strada prevede ancora che
ai fini delle norme del presente codice, si intendono per veicoli tutte le macchine di qualsiasi specie, che circolano sulle strade guidate dall'uomo.
📔 I corsi di LeggeZero
Il 24 settembre 2024 tornano i webinar di LeggeZero con un corso sull’AI Act dedicato alle pubbliche amministrazioni e ai loro fornitori. Per info su programma e iscrizioni, cliccate sul link qui sotto.
🔊 Un vocale da… Paola Pisano (Università di Torino)
Conosciamo ormai molto bene i bias dell’intelligenza artificiale. Ma cosa sappiamo del servilismo dell’IA? Avete notato che i sistemi di intelligenza artificiale tendono ad assecondare le nostre convinzioni? Nel vocale di questa settimana, ce ne parla una autorevole docente universitaria, già Ministro per l’innovazione tecnologica e la transizione digitale.
📰 Aziende e ricercatori chiedono “certezza sull’IA in Europa” 🇪🇺
Decisioni armonizzate, coerenti, rapide e chiare nell'ambito delle normative sui dati dell'Ue, che permettano l'utilizzo dei dati europei per l'addestramento dell'AI, a beneficio di tutti i cittadini europei.
È questa la richiesta pubblicata nei giorni scorsi sui quotidiani e firmata dai top manager di alcune delle più importanti aziende globali (Meta, Spotify, Exor, Luxottica, Pirelli, Prada, Ericsson) e da alcuni ricercatori (non esiste una versione online, trovate una sintesi qui).
Gli oltre cinquanta promotori di questo appello publico si inseriscono nel dibattito di cui abbiamo dato conto in LeggeZero #41 sulle regole dell’intelligenza artificiale, dibattito reso ancora più caldo dalle parole del rapporto Draghi sulla competitività dell’UE.
La richiesta è semplice, anche se forse un po’ generica: servono semplificazioni e uniformità di giudizio da parte delle diverse istituzioni chiamate ad applicare il GDPR (il regolamento sulla protezione dei dati personali) e l’AI Act (la legge europea sull’intelligenza artificiale).
I firmatari della lettera, in particolare, spiegano che in gioco ci sarebbe lo sviluppo dei modelli ‘aperti’ (open source), che sono resi disponibili gratuitamente per essere utilizzati da chiunque, modificati e sviluppati, moltiplicandone così i benefici e offrendo opportunità sociali ed economiche.
Eravamo stati facili profeti, il dibattito sulle leggi dell’IA è ancora lontano dal chiudersi.
📰 New York City 🇺🇸 garantirà la trasparenza sulle IA utilizzate dall’amministrazione
Nonostante qualche incidente di percorso (di cui abbiamo scritto in LeggeZero #20), prosegue il cammino dell’amministrazione di New York per un uso dell’IA al servizio dei cittadini. Quasi un anno fa, era stato adottato un action plan voluto dal Sindaco Eric Adams e articolato in 7 iniziative (con tanto di timeline).
Nei prossimi mesi, l’amministrazione - che ha già adottato anche linee guida per l’uso responsabile dell’IA - potrebbe pubblicare l’elenco di tutti i sistemi di IA utilizzati. È quanto prevede la proposta della consigliere Jennifer Gutierrez, che presiede il Comitato tecnologico istituito presso il Consiglio municipale della Grande Mela. L’iniziativa ha l'obiettivo di garantire maggiore trasparenza sull'utilizzo dell'IA nella pubblica amministrazione, consentendo ai cittadini di essere informati sugli strumenti utilizzati e di verificarne la conformità con gli standard etici e legali (sul modello di quanto fanno già le amministrazioni federali in base all’executive order del Presidente Biden di ottobre 2023).
La pubblicazione di un elenco dei sistemi di IA utilizzati da enti e istituzioni del settore pubblico sta diventando uno standard globale. Quando sarà approvata una norma analoga anche in Italia? Al momento, infatti, una previsione di questo tipo è presente solo nell’ambito dei contratti pubblici in base all’art. 30 D. Lgs. n. 36/2023.
⚖️ Il Garante privacy irlandese 🇮🇪 apre un’istruttoria sull’addestramento dell’IA di Google
Dopo aver ottenuto ad agosto lo stop all’addestramento del chatbot Grok di X mediante dati personali raccolti dagli utenti europei senza il necessario consenso preventivo e l’abbandono, da parte di Meta, del progetto di utilizzare contenuti pubblicati da utenti europei di Instagram e Facebook per addestrare i suoi modelli di IA Llama, la Commissione irlandese per la protezione dei dati (DPC) ha aperto un’istruttoria anche nei confronti Google Ireland Ltd.
Nei giorni scorsi, la DPC ha annunciato di aver avviato un'indagine su per verificare se la società fosse tenuta ad effettuare una valutazione d’impatto (DPIA) ai sensi dell’art. 35 del GDPR prima di impegnarsi nel trattamento dei dati personali degli utenti europei nello sviluppo del suo modello di IA PaLM 2 (Pathways Language Model 2), modello linguistico all'avanguardia con capacità multilingue, di ragionamento e di codifica.
È l’ennesimo capitolo di una saga - quella legata ai vincoli da rispettare nell’addestramento dei modelli di IA - che sembra ancora lontana dalla conclusione. Proprio le incertezze sulle regole da seguire per il training dei modelli sono alla base delle numerose critiche recenti alle norme europee (GDPR e AI Act) di cui abbiamo dato conto in LeggeZero #38 e LeggeZero #41.
⚖️ L'Australia 🇦🇺 approva una legge contro i deepfake sessualmente espliciti
Il Parlamento australiano ha approvato una legge con il dichiarato intento di tutelare dai deepfake donne e ragazze.
Il precedente codice penale già proibiva la produzione e condivisione di immagini intime senza consenso, ma la nuova legge fissa a sette anni di reclusione la pena per chiunque crei o distribuisca deepfake a contenuto sessuale senza il consenso delle persone coinvolte. Tra le misure previste vi è anche l’obbligo per le piattaforme digitali di agire tempestivamente per rimuovere tali contenuti una volta segnalati.
L'Australia si unisce così a un numero crescente di Paesi che stanno cercando di regolamentare l'uso dell'IA per prevenire abusi, proteggendo i diritti delle persone (delle leggi USA sui deepfake abbiamo parlato in LeggeZero #41). Non è vero, quindi, che solo l’Europa sta normando l’IA e il ruolo delle piattaforme.
📲 Soluzioni e applicazioni: ‘Read their lips’, l’IA capace di leggere il labiale
Symphonic Labs ha rilasciato un nuovo sistema di IA - disponibile online - che mostra le capacità della loro tecnologia nella lettura del labiale.
Per ora, il tool funziona solo con la lingua inglese. Chiunque può caricare un breve video sul sito, e il sistema restituirà un testo basato su ciò che l'IA calcola venga detto. Il video deve mostrare chiaramente il volto e le labbra della persona che parla. Provare per credere (oppure guardate il video qui sotto).
Tuttavia, nella pagina web del servizio non è possibile reperire informazioni sulle condizioni d’uso del servizio e sul trattamento dei dati personali. Una mancanza che desta non poche perplessità (e che rappresenta un insormontabile ostacolo all’utilizzo del sistema), visto che il servizio esplicitamente tratta i dati biometrici relativi al volto e alle espressioni facciali delle persone presenti nel video caricato.
😂 IA Meme
Quanti come lui?
📚 Consigli di visione: l’IA e il nostro futuro secondo Bill Gates, Sam Altman e Elon Musk
Immaginate se avessimo potuto ascoltare direttamente Galileo discutere delle sue scoperte o Leonardo condividere le sue visioni sul futuro. Una delle peculiarità della rivoluzione dell’IA è che abbiamo la possibilità ascoltare la voce dei protagonisti di questo momento storico.
Questa settimana vi segnaliamo due contenuti da vedere:
lo speciale di Oprah Winfrey (una delle più importanti conduttrici televisive USA), trasmesso da ABC e intitolato “AI and the future of us”, in cui intervista alcuni esperti tra cui Sam Altman (CEO di OpenAI) e Bill Gates (fondatore di Microsoft). 45 minuti di approfondimento dal taglio divulgativo che ci auguriamo possano essere di ispirazione anche per qualcuno in Italia (e tra l’altro si parla anche della necessità di regole per l’IA). Potete recuperarlo qui.
il video in cui Elon Musk illustra la sua visione sull’IA. Spoiler: crede che l’intelligenza artificiale stia avanzando a un ritmo più veloce del previsto, è più ottimista che pessimista, ritiene che gli uomini debbano capire quale sarà il loro ruolo, crede che veicoli autonomi e robot umanoidi saranno due applicazioni rivoluzionarie per l’economia.
📣 Eventi
IA: cosa cambia per le amministrazioni con l’AI Act - Webinar, 24.09.2024
Festival Digitale Popolare - Torino, 4/6.10.2024
Tech Tour - Trieste, 16.10.2024
🙏 Grazie per averci letto!
Per ora è tutto, torniamo la prossima settimana. Se la newsletter ti è piaciuta, commenta o fai girare.