๐ค I nove approcci alla regolazione dell'IA โ Legge Zero #38
Il dibattito sulle regole dell'intelligenza artificiale non รจ andato in vacanza: i legislatori hanno paura dei rischi dell'IA ma le aziende temono che le norme rallentino lo sviluppo tecnologico.
๐ง Quali regole per lโIA?
Questo รจ un momento importante per la tecnologia. L'intelligenza artificiale (IA) ha il potenziale di trasformare il mondo, aumentando la produttivitร umana, accelerando il progresso scientifico e aggiungendo trilioni di dollari all'economia globale.
Ma, come in ogni salto innovativo, alcuni sono meglio posizionati di altri per trarne vantaggio. I divari tra coloro che hanno accesso a questa straordinaria tecnologia e coloro che non lo hanno stanno giร iniziando a emergere.
Comincia con queste parole lโeditoriale firmato da Mark Zuckerberg (fondatore e CEO di Meta) e Daniel Ek (fondatore e CEO di Spotify),pubblicato pochi giorni fa da The Economist, dal titolo โwhy Europe should embrace open-source AIโ, ovvero 'perchรฉ lโEuropa dovrebbe adottare lโintelligenza artificiale open sourceโ (lo trovate qui).
Nellโarticolo - oltre allโelencazione dei motivi per cui si ritiene che lโEuropa dovrebbe utilizzare i sistemi open source per competere a livello globale - cโรจ una forte critica allโapproccio regolamentare europeo e quindi allโAI Act:
Regolare contro danni noti รจ necessario, ma una regolamentazione preventiva dei danni teorici per tecnologie nascenti come l'IA open-source soffocherร l'innovazione. La regolamentazione complessa e avversa al rischio dell'Europa potrebbe impedirle di capitalizzare le grandi scommesse che possono tradursi in grandi ricompense.
[โฆ]
La realtร รจ che le leggi progettate per aumentare la sovranitร e la competitivitร europea stanno ottenendo l'effetto opposto.ย
Il rischio maggiore paventato da due dei piรน importanti CEO del settore tecnologico รจ che lโapplicazione delle norme possa portare unโincertezza in grado di minare definitivamente la possibilitร per il Vecchio continente di essere protagonista nellโIA. Nellโarticolo, a titolo esemplificativo di quello che potrebbe accadere, si cita quanto sta succedendo con il GDPR (il Regolamento europeo sulla protezione dei dati personali) in base al quale รจ stato bloccato lโaddestramento delle IA di Meta e X sui dati degli utenti europei, impedendo la disponibilitร di alcuni servizi di intelligenza artificiale.
Leggendo lโeditoriale, si ha lโimpressione che sia fondato il luogo comune per cui โGli Stati Uniti innovano, la Cina replica, lโEuropa regolamentaโ (in realtร lo avevamo giร confutato in LeggeZero #17).
E invece, guardando oltreoceano, รจ possibile constatare che quello sulla regolazione รจ un dibattito aperto a livello globale.
Nella California della Silicon Valley, ad esempio, sta facendo molto discutere una proposta di legge - la SB 1047 - che dovrebbe essere votata entro la fine del mese e che, se approvata, imporrebbe ai provider di IA obblighi stringenti in materia di sicurezza. Dal momento che i principali operatori mondiali hanno sede in California, la proposta รจ seguita con particolare attenzione e tutti i maggiori protagonisti hanno espresso le proprie preoccupazioni o formulato le proprie proposte migliorative nellโottica di non โfrenare lโinnovazioneโ (qui la lettera che il fondatore e CEO di Anthropic, Dario Amodei, ha scritto al Governatore dello Stato per esprimere la sua posizione).
Insomma, solo su una cosa sono tutti dโaccordo: servono regole per contrastare i rischi dellโIA e garantirne un uso etico. Su come farlo, invece, ci sono idee molto diverse. Non solo tra istituzioni e mercato, ma anche tra i vari ordinamenti giuridici.
Lo testimonia un paper recentemente pubblicato da UNESCO che contiene lโelencazione di ben nove distinti approcci alla regolamentazione dellโIA:
Approccio basato sui principi:ย questo approccio consiste nellโindicare un insieme di principi fondamentali che guidano l'uso etico e responsabile dell'IA, concentrandosi su processi incentrati sull'uomo e rispettosi dei diritti umani.
Approccio basato sugli standard:ย in questo caso, i poteri regolatori sono delegati a organizzazioni che sviluppano standard tecnici.
Approccio agile e sperimentale:ย questo approccio prevede schemi regolatori flessibili, come le โsandboxโ regolatorie, che permettono alle organizzazioni di testare facilmente i sistemi di IA.
Approccio facilitante e abilitante:ย questo approccio consiste nella creazione di un ambiente che incoraggi lo sviluppo responsabile dellโIA, attraverso iniziative come l'educazione e lo sviluppo delle competenze.
Approccio di adattamento delle regole esistenti:ย invece di creare nuove norme, questo approccio prevede la modifica delle leggi di settore o generali giร esistenti in modo da affrontare le sfide legate all'IA.
Approccio basato sulla trasparenza:ย questo approccio impone la trasparenza nei sistemi di IA, richiedendo alle organizzazioni pubbliche e private di divulgare informazioni rilevanti sulle tecnologie utilizzate.
Approccio basato sul rischio:ย le regolamentazioni di questo tipo danno prioritร alle azioni in base ai rischi associati ai sistemi di IA, imponendo obblighi piรน severi sui sistemi IA ad alto rischio.
Approccio basato sui diritti:ย questo approccio si concentra sulla protezione dei diritti individuali, sottolineando l'importanza dei diritti umani nello sviluppo e nell'impiego dei sistemi di IA.
Approccio basato sulla responsabilitร :ย questo approccio prevede responsabilitร e sanzioni per l'uso improprio dei sistemi di IA.
A testimonianza che si tratta di un ambito incerto, perรฒ, il paper non รจ ancora in una versione definitiva, ma รจ stato aperto a una consultazione pubblica che si chiuderร il 19 settembre (qui i dettagli).
Le norme hanno tempi piรน lunghi dello sviluppo tecnologico. Questo ormai lo sappiamo. Ma, guardando a quello che sta accadendo nella campagna elettorale USA con i deepfake diffusi da Donald Trump contro Kamala Harris (problema ampiamente previsto), la sensazione รจ che le regole possano arrivare troppo tardi e quindi risultare inefficaci.
๐ฐ OpenAI ha realizzato uno strumento per inserire watermark nei contenuti generati da ChatGPT, ma non sappiamo quando lo rilascerร
OpenAI ha sviluppato uno strumento per apporre una โfiligranaโ ai contenuti testuali generati dall'intelligenza artificiale, progettato anche per aiutare a conformarsi allโAI Act dell'Unione Europea. Tuttavia, l'azienda - secondo Euractiv - non avrebbe ancora reso disponibile questo strumento, temendo di perdere utenti.
OpenAI, con un post pubblicato sul proprio blog. ha confermato l'esistenza di un sistema di watermarking โaltamente accuratoโ, ma ha dichiarato di stare ancora valutando i rischi associati al suo utilizzo, tra cui l'impatto su gruppi specifici come i non madrelingua inglesi e la facilitร con cui il watermark potrebbe essere aggirato tramite manipolazioni come la traduzione automatica.
Secondo quanto riportato dal Washington Post, OpenAI sarebbe preoccupata per la possibilitร che gli utenti preferiscano altri chatbot privi di watermark. In un sondaggio condotto dall'azienda, quasi il 30% degli utilizzatori avrebbe dichiarato che utilizzerebbe meno ChatGPT se fosse introdotto il watermark, soprattutto se i concorrenti non lo facesseroโ. ร quindi realistico ipotizzare che questo strumento sarร rilasciato solo quando norme come lโAI Act lo renderanno obbligatorio per tutti i provider.
Nel frattempo, Grammarly ha annunciato il lancio di un nuovo strumento di rilevamento di contenuti generati dall'intelligenza artificiale. Sarร disponibile giร dal mese prossimo.
๐ฐ Tesla assume addestratori di umanoidi
Avete mai pensato a una carriera come addestratore di robot umanoidi? Probabilmente molti di voi, prima di leggere questa newsletter, non sapevano neanche che esistesse questo lavoro e che Tesla ne sta ricercando per insegnare ai suoi robot Optimus come muoversi nel mondo (se non ci credete, lโannuncio di lavoro รจ pubblicato qui).
Per poter inviare la candidatura bisogna avere unโaltezza compresa tra i 170 e i 180 cm, essere in grado camminare per 7 ore al giorno e sollevare pesi intorno ai 13 kg.
Gli assunti dovranno svolgere appositi movimenti indossando una tuta per il motion capture e un visore VR. La paga potrร arrivare fino a 48 dollari lโora- Sono tanti o pochi per insegnare alle macchine a sostituire lโuomo?
โ๏ธ La Corte Costituzionale della Colombia ๐จ๐ด si pronuncia sull'uso dellโIA nella redazione delle sentenze
La Corte Costituzionale della Colombia ha emesso una sentenza interessante nellโambito dell'integrazione dell'intelligenza artificiale nel sistema giudiziario.
La Corte si รจ pronunciata sul caso di un giudice di Cartagena che aveva utilizzato ChatGPT 3.5 per scrivere le motivazioni di una decisione in materia di diritti di un bambino con disturbi dello spettro autistico. Nella corposa pronuncia (ben 186 pagine), la Corte ha concluso che non vi รจ stata una violazione del diritto al giusto processo, ma ha evidenziato la necessitร di garantire trasparenza e responsabilitร nell'uso dei sistemi di IA.
Pertanto, ha esortato:
tutti i giudici a utilizzare in materia appropriata queste tecnologie, rispettando i principi etici affermati a livello internazionale come privacy, trasparenza, sorveglianza e controllo umano (la sentenza fa espresso rinvio al toolkit UNESCO sullโuso dellโIA in ambito giudiziario di cui abbiamo scritto in LeggeZero #2).
il locale Consiglio superiore della magistratura a definire linee guida per l'uso dell'IA nei processi giudiziari, assicurando che queste tecnologie non compromettano l'indipendenza e l'autonomia dei giudici, prevedendo idonei percorsi di formazione dei magistrati che approfondiscano rischi e benefici dellโuso dellโIA.
Se volete leggerla, potete scaricare la sentenza qui (in spagnolo).
โ๏ธ Il Garante Privacy ๐ฎ๐น ha emesso parere favorevole sul DDL del Governo in materia di intelligenza artificiale
Allโinizio del mese di agosto, il Garante Privacy ha espresso parere favorevole sullo schema di disegno di legge governativo in materia di IA che รจ allโesame del Parlamento (e di cui abbiamo parlato in LeggeZero #22 e LeggeZero #30).
Il Garante ha perรฒ posto alcune condizioni tra cui segnaliamo:
l'introduzione di un articolo specifico che garantisca la conformitร dei trattamenti di dati personali alle normative esistenti, tra cui il Regolamento (UE) 2016/679;
l'importanza di prevedere, in ambito sanitario, lโuso preferenziale di dati sintetici o anonimi, imponendo limitazioni precise per l'utilizzo di dati sanitari;
con riferimento alla gestione del personale, lโestensione di garanzie contro le discriminazioni anche alle fasi preassuntive, in aggiunta a quelle post-assunzione.
Il parere, inoltre, invita a prevedere un coinvolgimento piรน effettivo dello stesso Garante nel sistema di governance nazionale dellโIA, tenuto conto che - al momento - le Autoritร designate sono AgID e ACN (ricorderete che nei mesi scorsi il Garante aveva giร scritto ai Presidenti di Camera e Senato, rivendicando un ruolo centrale nellโattuazione dellโAI Act).
Staremo a vedere quali di queste richieste saranno accolte dal Governo (e dal Parlamento).
๐ย IA Meme
Fantascienza Vs. Realtร . Pensavamo di doverci difendere da robot che volevano sottometterci e invece dobbiamo difenderci dallโalterazione della realtร . Se pensate che lโimmagine di Kamala Harris che passeggia tenendo la mano di Donald Trump sia chiaramente identificabile come deepfake, immaginate di essere in unโaula di Tribunale a guardare un video - generato dall'IA - che vi mostra mentre commettete un crimine che non avete mai commesso.
๐ย IA Meme che non lo erano
ร diventato virale il video diffuso da Luma AI su X che mostra gli effetti del passare degli anni sul volto di una bambina. Ovviamente รจ generato dallโIA.
๐ Consigli di lettura: โPersonhood credentials: Artificial intelligence and the value of privacy-preserving tools to distinguish who is real onlineโ di Steven Adler e altri
Nel romanzo di Philip K. Dick โGli androidi sognano pecore elettriche?โ le persone si affidano a test sofisticati per distinguere gli umani dai "replicanti" IA che camminano e parlano proprio come le persone. Non ci siamo ancora arrivati: spacciarsi per umani nel mondo reale รจ una cosa che i robot di oggi non sanno (ancora) fare. Ma gli esperti sostengono che i sistemi esistenti per dimostrare la propria umanitร , come richiedere agli utenti di inviare un selfie o risolvere un puzzle CAPTCHA, sono sempre piรน inadeguati contro l'intelligenza artificiale evoluta. D'altro canto, rigidi sistemi di verifica dell'identitร che collegassero le persone alla loro attivitร online rischierebbero di compromettere la privacy degli utenti e i loro diritti di libera espressione.
Per questo motivo, in un paper di recente pubblicazione, 32 ricercatori - alcuni provenienti da aziende come OpenAI e Microsoft - propongono lโadozione di โcredenziali di personalitร โ che consentano alle persone di interagire online in modo anonimo senza che le loro attivitร vengano tracciate (potete scaricare il paper qui sotto).
La finalitร del sistema รจ lodevole: fornire uno strumento per distinguere cosa รจ umano in un mondo in cui ci saranno sempre piรน BOT.
Ma siamo sicuri che sia giusto che siano le persone a dover dimostrare la propria umanitร e non sia piรน efficace obbligare le aziende ad adottare misure volte ad assicurare la trasparenza e ad evitare ogni impersonificazione? รย uno dei punti chiave che dovrร essere affrontato dai regolatori mondiali nei prossimi anni.
๐ฃย Eventiย
ComunicherAI: AI act e copyrightย - Webinar, 11.09.2024
Il tempo delle donneย - Milano, 13/15-09.2024
Dreamforce - San Francisco (USA) - 17/19.09.2024
๐ Grazie per averci letto!
Per ora รจ tutto, torniamo la prossima settimana. Se la newsletter ti รจ piaciuta, commenta o fai girare.ย