π€ Fuori controllo β Legge Zero #29
I grandi della Terra si sono riuniti in Italia per parlare di intelligenza artificiale ma non sembrano aver chiaro come fronteggiarne i rischi e garantire un effettivo 'controllo umano' sull'IA.

π§ Chi controlla il controllore?
Di fronte ai prodigi delle macchine, che sembrano saper scegliere in maniera indipendente, dobbiamo aver ben chiaro che allβessere umano deve sempre rimanere la decisione, anche con i toni drammatici e urgenti con cui a volte questa si presenta nella nostra vita. Condanneremmo lβumanitΓ a un futuro senza speranza, se sottraessimo alle persone la capacitΓ di decidere su loro stesse e sulla loro vita condannandole a dipendere dalle scelte delle macchine. Abbiamo bisogno di garantire e tutelare uno spazio di controllo significativo dellβessere umano sul processo di scelta dei programmi di intelligenza artificiale: ne va della stessa dignitΓ umana.
Sono alcune delle parole del lungo discorso sullβIA che Papa Francesco ha tenuto allβincontro del G7 che si Γ¨ tenuto in Puglia nei giorni scorsi (la versione integrale la trovate qui). Il messaggio Γ¨ stato chiaro: bisogna rifuggire ogni determinismo tecnologico e rivendicare la centralitΓ dellβessere umano e del suo controllo nella progettazione e nellβuso dei sistemi di intelligenza artificiale.
Meno chiaro, anzi deludente, il documento finale del Summit. Nelle poco piΓΉ di due pagine dedicate allβIA si trovano solo generiche petizioni di principio legate alla volontΓ di collaborare per unβintelligenza artificiale sicura e affidabile, proseguendo lβimpegno comune in diversi settori, dalla governance alla definizione di standard per il settore pubblico (per esempio nel settore della giustizia). In proposito, infatti il documento sottolinea che l'uso dei sistemi IA non deve interferire con il potere decisionale dei giudici nΓ© con l'indipendenza giudiziaria. Sul come affrontare questi problemi, perΓ², il documento non contiene risposte (potete scaricarlo qui sotto).
Insomma, la sensazione Γ¨ che - nonostante siano dβaccordo sullβurgenza delle questioni poste dallβIA - i decisori facciano molta fatica a stare al passo dellβevoluzione delle tecnologie e a trovare soluzioni ai problemi posti da questa. E non mancano esempi lampanti della difficoltΓ di governare lβIA a fronte di una sua sempre piΓΉ capillare diffusione nelle nostre vite.
Ad esempio, nei giorni scorsi, prima di aver finalizzato la sua legge sullβIA, il Brasile ha ufficializzato un accordo con OpenAI per introdurre tecnologie di IA a supporto della locale Avvocatura dello Stato nella gestione del contenzioso (per aumentare lβefficienza degli uffici e ridurre i costi associati alle liti). Nelle dichiarazioni ufficiali, si precisa che la tecnologia non sostituirΓ i lavoratori (βli supporterΓ β), e che tutte le attivitΓ saranno supervisionate da esseri umani. Del resto, quello della βsorveglianza umanaβ Γ¨ anche uno dei principi cardine dellβAI Act, concepito come metodo per prevenire o ridurre al minimo i rischi per le libertΓ e i diritti delle persone.
Il controllo umano Γ¨ un concetto rassicurante, ma forse non realmente efficace. Secondo questo articolo pubblicato su una rivista del MIT, l'aumento del ruolo dell'intelligenza artificiale nei sistemi automatizzati e nei processi decisionali riduce il senso di responsabilitΓ degli utenti. Insomma, piΓΉ lβIA diventa complessa, piΓΉ ci fidiamo, piΓΉ si riduce il nostro senso di responsabilitΓ e meno controlliamo. Lo dimostrano alcune ricerche condotte in campi differenti: dalla guida autonoma allβamministrazione della giustizia.
Quello del controllo umano rischia quindi di diventare un rimedio fittizio, se non si avvia la formazione dei controllori su caratteristiche e limiti dei sistemi di IA, stimolando il loro senso critico e una nuova cultura della responsabilitΓ .
Γ questa la strada da intraprendere - in tutte le scuole, le amministrazioni, le aziende - per evitare di condannare lβumanitΓ a un futuro senza controllo e βsenza speranzaβ (cit. Papa Francesco). In attesa del prossimo Summit.
πΒ Un vocale daβ¦Β Donata Columbro:Β Meta ci ha ripensato. Nei giorni scorsi il Garante Privacy irlandese ha comunicato che la societΓ ha deciso di sospendere il progetto di addestramento della sua IA con i dati degli utenti di Facebook e Instagram (ne avevamo parlato in LeggeZero #27 e LeggeZero #28). Ma, se capiterΓ di nuovo, cosa dobbiamo chiederci prima di accettare o opporci allβaddestramento di unβIA con i nostri dati? Nel vocale di questa settimana, lβautrice di β Quando i dati discriminanoβ ce lo spiega, parlandoci del viaggio del dato.
π° In USA πΊπΈ e UK π¬π§ arrivano i candidati βcontrollati dallβIAβ
Nel precedente numero di LeggeZero abbiamo riportato la notizia della prima IA candidata a Sindaco nello Stato USA del Wyoming.
Questa settimana, invece, parliamo di due candidati in carne e ossa che hanno deciso di dare voce ai contenuti generati dallβIA.
Negli USA, Donald Trump - candidato alle elezioni presidenziali - nel corso di unβintervista, ha ammesso di aver giΓ utilizzato un discorso βriscrittoβ da unβIA e di ritenere che in futuro potrΓ fare a meno di chi gli scrive gli interventi (a partire dal minuto 50β).
Ancora piΓΉ distopico quanto sta accadendo in UK dove un candidato, Steve Endacott, ha creato il suo gemello digitale, AI Steve. Il programma elettorale Γ¨ stato scritto dallβIA, il dialogo con gli elettori Γ¨ completamente affidato a un chatbot (che puΓ² gestire fino a 10mila conversazioni simultanee) e - in caso di elezione - le decisioni sulle votazioni saranno prese dallβIA. Endacott, che Γ¨ convinto che questa possa essere una soluzione ai problemi della democrazia, si Γ¨ impegnato a non essere autonomo nelle decisioni che assumerΓ se sarΓ eletto. EseguirΓ quanto gli dirΓ il suo gemello digitale sulla base delle conversazioni con i cittadini. Insomma, passeremo dalla βdemocrazia direttaβ alla democrazia manipolata da - o attraverso - lβIA?
π° In Kenya π°πͺ protestano i lavoratori del settore IA
In Kenya, un gruppo di lavoratori tech - che operano per conto di ScaleAI, Meta e OpenAI - ha inviato una lettera aperta al Presidente Biden, chiedendo un intervento contro le pratiche di sfruttamento di cui sono vittime (la lettera completa Γ¨ disponibile qui).
Questi lavoratori, impiegati nellβaddestramento dei sistemi di intelligenza artificiale, denunciano condizioni di lavoro precarie, stipendi inadeguati (meno di 2 dollari lβora), scarsa attenzione per la loro salute mentale.
Invece che preoccuparci del lavoro che (forse) perderemo, dovremmo occuparci di piΓΉ della dignitΓ del lavoro di tutti coloro che stanno dietro ai mirabolanti progressi della tecnologia.
βοΈ Dal Garante Privacy francese (CNIL) π«π· arrivano le raccomandazioni per assicurare la conformitΓ dei sistemi di IA al GDPR
La CNIL, lβAutoritΓ francese per la protezione dei dati, ha pubblicato due importanti documenti in cui chiarisce i suoi orientamenti per assicurare la conformitΓ dei sistemi di IA alla normativa europea in materia di protezione dei dati personali.
Nel primo documento, la CNIL definisce i sette passaggi che raccomanda di seguire nel ciclo di vita di un sistema di IA:
Step 1: Definire lo scopo del sistema di IA
Step 2: Determinare le responsabilitΓ
Step 3: Definire la "base giuridica" che consente di trattare i dati personali
Step 4: Verificare se Γ¨ possibile utilizzare i dati personali
Step 5: Minimizzare i dati personali utilizzati
Step 6: Stabilire un periodo di conservazione
Step 7: Effettuare una Valutazione d'Impatto sulla Protezione dei Dati (DPIA)
Il secondo documento, invece contiene le linee guida per determinare le basi giuridiche per il trattamento dei dati nell'addestramento di modelli di IA. Si tratta di uno dei temi piΓΉ βcaldiβ sul fronte del diritto dellβIA, come abbiamo scritto in LeggeZero #26: anche il Garante francese sembra aprire alla possibilitΓ di ricorrere al legittimo interesse (tesi caldeggiata dai provider di IA).

βοΈΒ Per il Tribunale di Tokyo π―π΅ un'IA non puΓ² essere riconosciuta come βinventoreβ.
Β Il Tribunale Distrettuale di Tokyo ha emesso unβimportante decisione sulla possibilitΓ di riconoscere i sistemi di IA come inventori, ai sensi della Legge sui Brevetti giapponese (cd. Japan Patent Act, n. 121 del 1959).
La Corte ha deciso che, in base alla normativa attuale, solo le persone fisiche possono rivendicare la paternitΓ di un'invenzione, escludendo cosΓ¬ le IA da tale riconoscimento. Questo verdetto si allinea con il piΓΉ ampio orientamento internazionale: numerose giurisdizioni hanno, infatti, adottato posizioni analoghe, consolidando l'idea che, nonostante il rapido avanzamento delle tecnologie generative, l'ingegno umano - per ora - rimane insostituibile nel contesto delle leggi sul diritto dβautore e dei brevetti (ne abbiamo scritto nel nostro Report sulle sentenze e decisioni del 2023 in materia di IA).
πΒ IA MemeΒ
Apple ha finalmente presentato βApple Intelligenceβ, la sua IA. Tra le novitΓ che arriveranno nei prossimi mesi, anche lβintegrazione con ChatGPT. Elon Musk non lβha presa benissimo, paventando rischi per la privacy degli utenti, annunciando che vieterΓ ai propri dipendenti di usare dispositivi Apple e diffondendo il meme che potete vedere qui sotto.
Eppure, stando a quello che ha dichiarato Apple:
Saranno gli utenti, di volta in volta, a decidere se interrogare ChatGPT. In questo caso, i loro indirizzi IP saranno oscurati, e OpenAI non conserverΓ le richieste.

π Consigli di lettura: βHuman vulnerability in the EU Artificial Intelligence Actβ di Gianclaudio Malgieri
La legge dell'Unione Europea sull'intelligenza artificiale (AI Act) - che sarΓ pubblicata nelle prossime settimane sulla Gazzetta Ufficiale dellβUnione - rappresenta un'importante tappa normativa per la regolamentazione dell'IA, ponendo una particolare attenzione alla vulnerabilitΓ umana e sui rischi associati.
Nell'articolo βHuman vulnerability in the EU Artificial Intelligence Actβ pubblicato sul blog di Oxford University Press, il prof. Gianclaudio Malgieri esamina come il nuovo regolamento affronti le problematiche legate alla vulnerabilitΓ umana, evidenziando i punti critici e le potenziali lacune.
Spoiler: sebbene il regolamento sia un passo avanti significativo, permangono preoccupazioni riguardo alla sua capacitΓ di proteggere efficacemente gli individui piΓΉ vulnerabili.
π Consigli di visione : βHumanityβs Hegelian Golden Braidβ di Reid Hoffman
I dibattiti sulla tecnologia sono sempre piΓΉ ridotti a nette dicotomie. Lβintelligenza artificiale dovrebbe essere limitata o accelerata: tesi e antitesi, ma nessuna sintesi. Piuttosto che scegliere da che parte stare, dovremmo prendere in considerazione slogan alternativi che pongano lβattenzione dove Γ¨ giusto che sia: sullβumanitΓ .
Comincia cosΓ¬ il discorso che Reid Hoffman - uno dei pionieri dellβIA e co-fondatore di LinkedIn - ha pronunciato in occasione della cerimonia con cui lβUniversitΓ di Perugia gli ha conferito il dottorato di ricerca honoris causa in Scienze umane.
Hoffman usa sei massime celebri (da Annibale a Antoine de Saint-ExupΓ©ry) per farci riflettere e superare le semplificazioni del dibattito sullβIA, insistendo sulla necessitΓ di vedere l'IA non come un sostituto, ma come un ampliamento delle nostre capacitΓ .
Potete leggere il discorso qui oppure potete ascoltarlo pronunciato - in italiano - da Reid AI, il suo gemello digitale. Ne vale la pena.
π£Β EventiΒ
Privacy Tour 2024: la protezione dei dati personali nellβera dellβIA generativaΒ - Napoli, 18.06.2024
Salesforce World TourΒ - Milano, 18.06.2024
StartupItalia Opensummit Summer - Roma, 20.06.2024
Tech Tour 2024Β - Firenze, 21.06.2024
π Grazie per averci letto!
Per ora Γ¨ tutto, torniamo la prossima settimana. Se la newsletter ti Γ¨ piaciuta, commenta o fai girare.Β
Pensare di controllare l'AI tramite le leggi (umane) Γ¨ come pensare di controllare il vento con le mani ...