🤖 IA: l'Autorità che non c'è – Legge Zero #18
L'Italia affiderà l'attuazione dell'AI Act ad Agid e ACN:è la scelta giusta? Nel frattempo,la Commissione Algoritmi invia le sue proposte al Governo e gli usa rendono obbligatorio il Chief AI Officer.
🧠 L’Autorità che serve davvero
“Gli presentano il progetto per lo snellimento della burocrazia. Ringrazia vivamente. Deplora l'assenza del modulo "H". Conclude che passerà il progetto, per un sollecito esame, all'ufficio competente, che sta creando.”
Questa citazione del Diario notturno di Ennio Flaiano mi viene in mente ogni volta che si parla dell’attuazione di una riforma, di una legge.
Infatti, molti pensano che la parte difficile sia riuscire ad approvarla, quella fase che va dal momento della prima proposta e – passando per discussioni ed emendamenti – arriva fino alla pubblicazione in Gazzetta Ufficiale.
E invece sono sempre più convinto che la parte più complessa inizi proprio nel momento in cui la legge viene approvata: la fase che si chiama applicazione. Già, perché le leggi, nel mondo degli esseri umani, per essere applicate richiedono l’adozione di regolamenti attuativi (specialmente se parlano di tecnologia), la costituzione di uffici (la definizione della governance, ovvero “chi” e “come” la applica) e la formazione del personale.
Ebbene, come sanno tutti (ci abbiamo dedicato anche un numero speciale), l’AI Act è ormai prossimo alla approvazione definitiva e, quindi, vista la complessità della normativa e delle sfide dell’IA, è necessario che tutti capiscano come organizzarsi in vista dell’attuazione ormai imminente. A partire dalle istituzioni che saranno chiamate a vigilare sull’effettiva applicazione di queste norme.
La Commissione europea, ad esempio, ha costituito un European Artificial Intelligence Office già prima della formale adozione del Regolamento e ha già avviato una selezione del personale con l’obiettivo di assicurarsi i migliori esperti su piazza (in questo momento è difficile essere competitivi con il mercato).
Analoga urgenza hanno gli Stati Membri. Infatti, ogni Paese UE è chiamato a istituire o designare almeno un’Autorità di notifica e almeno un’Autorità di vigilanza del mercato (’art. 70). A tali Autorità verrà demandato il compito di vigilare sull'attuazione delle disposizioni dell’AI ACT e sulla comminazione delle sanzioni. Pertanto, gli Stati membri si trovano di fronte alla scelta di istituire un organismo specifico per l’IA oppure di delegare i compiti e le responsabilità in questa materia a un’Autorità già esistente.
Finora, sono pochi gli Stati che hanno provveduto già: la Spagna ha già da tempo costituito un’Agenzia apposita (AESIA - Agencia Española de Supervisión de la Inteligencia Artificial), l’Olanda ha indicato il locale Garante Privacy, mentre in Austria la scelta è ricaduta sull’Autorità competente in materia di telecomunicazioni.
E in Italia? Pochi giorni fa, il sottosegretario all’innovazione Alessio Butti ha anticipato in un’intervista al Sole24Ore il contenuto di un disegno di legge (che avrebbe dovuto vedere la luce entro fine marzo ma non è ancora stato adottato):
la scelta è di affidare ad Agenzia per l’Italia digitale e Agenzia per la cybersicurezza nazionale i compiti di vigilanza e controllo sull’intelligenza artificiale.
Si tratta di un annuncio che non è stato accolto con molto favore dagli addetti ai lavori. Alcune organizzazioni della società civile (Privacy Network, The Good Lobby e il Centro Hermes per la Trasparenza e i Diritti umani digitali) hanno accolto la notizia “con stupore e disappunto”, dal momento che le agenzie individuate (Agid e ACN) difetterebbero del requisito dell’indipendenza dall’esecutivo e rischierebbero di non essere realmente autonome. Per questo motivo la coalizione ha rilanciato la proposta di creazione di un’Autorità indipendente.
Sul versante istituzionale, il Garante Privacy ha scritto al Governo e al Parlamento per rivendicare il proprio ruolo nell’attuazione dell’AI Act, ritenendo di possedere “i requisiti di competenza e indipendenza necessari”.
Insomma, il disegno di legge non c’è ma fa già molto discutere. I temi aperti - di cui sicuramente parleremo a lungo - sono numerosi e tutt’altro che semplici:
la necessaria indipendenza dell’Autorità (specialmente per l’uso degli strumenti di IA da parte dell’esecutivo);
il coordinamento con le competenze delle Autorità già esistenti come Garante Privacy e AGCOM (evitando situazioni di incertezza ed eccessiva frammentazione che potrebbero rendere troppo complicata la compliance, penalizzando gli operatori di mercato);
la trasversalità delle professionalità necessarie (tecniche, etiche, giuridiche, economiche) attraverso il reclutamento delle migliori competenze del Paese.
Qualunque sarà la scelta definitiva del Parlamento e del Governo, da questi tre punti dipenderà la capacità dell’Autorità designata non solo di vigilare sull’applicazione delle norme, ma anche di diventare un punto di riferimento per tutti gli attori pubblici e privati alle prese con le sfide legate all’IA.
🔊 Un vocale da… Ginevra Cerrina Feroni (Garante Privacy): la Vice Presidente del Garante Privacy ci illustra il contenuto della segnalazione inviata al Governo e al Parlamento sull’Autorità che dovrà vigilare sull’attuazione dell’AI Act.
📰 Commissione algoritmi: ecco le proposte degli esperti su IA ed editoria
La Commissione intelligenza artificiale per l’informazione (nota anche come “Commissione Algoritmi”), istituita presso il Dipartimento per l’informazione e l’editoria della Presidenza del consiglio dei Ministri, ha consegnato le sue conclusioni (le potete scaricare cliccando qui sotto).
L’organismo, composto da esperti del settore e presieduto dal Prof. Paolo Benanti, ha individuato alcuni ambiti di intervento per regolare i rapporti tra gli editori e gli sviluppatori dei sistemi di IA, in modo da preservare la professione giornalistica e la correttezza dell’informazione. Tra le proposte che faranno più discutere ci sono:
l’introduzione dell’obbligo per sviluppatori di IA di tenere un registro dei contenuti protetti da copyright usati per l’addestramento degli algoritmi;
il riconoscimento di un equo compenso agli editori per l’utilizzo dei contenuti protetti da copyright usati per l’addestramento degli algoritmi.
Nella relazione si parla anche della necessità di individuare, urgentemente, una “Autorità nazionale o Agenzia per l’IA”. Gli esperti non chiariscono se - a loro giudizio - sarebbe preferibile un nuovo soggetto o l’attribuzione di nuove funzioni a un organismo già esistente.
📰 Youtube obbliga i creator a dichiarare (ed etichettare) i video generati con l’IA
YouTube ha deciso che i creator dovranno indicare quando i video - che sembrano realistici - sono stati realizzati con l’intelligenza artificiale.
L’azienda ha annunciato che quando un utente caricherà un video sul sito dovrà dichiarare se il contenuto fa dire o fare a una persona reale qualcosa che non ha fatto, altera le riprese di un luogo o di un evento reale o ritrae una scena dall’aspetto realistico che non si è verificata realmente. Si tratta di un’interpretazione peculiare del principio di trasparenza: dovrà essere dichiarato solo quello che può ingannare o indurre gli altri utenti in errore. Ad esempio, i creator non sono tenuti a dichiarare i contenuti chiaramente irrealistici. Ma siamo sicuri che sia facile distinguerli?
In ogni caso, Youtube si riserva il diritto di apporre l’etichetta “Altered or synthetic content” anche se i creator non lo avranno fatto, quando si renderà conto che un contenuto può essere fuorviante.
Si tratta di un passo importante, ma chiaramente insufficiente perché - a parte l’assenza di una sanzione (come la chiusura dell’account) - si basa sulla buona fede e sulla collaborazione degli utenti.
⚖️ Le amministrazioni USA 🇺🇸 devono nominare un Dirigente responsabile per l’IA
La Presidenza degli Stati Uniti, facendo seguito all’ordine esecutivo del Presidente Biden del mese di ottobre 2023, ha pubblicato un importante documento contenente nuove direttive per le agenzie federali riguardo l'uso dell'intelligenza artificiale (lo scaricate cliccando qui sotto).
Pur non avendo ancora una norma come l’AI Act, la direttiva segue un approccio del tutto analogo a quello della norma europea, imponendo di fatto un sistema di gestione del rischio dei sistemi di IA. Grande attenzione viene dedicata anche alla governance interna: ogni agenzia, entro i prossimi 60 giorni, dovrà nominare un Chief AI Officer per coordinare le attività di compliance alla normativa vigente e di uso responsabile dell’IA.
L’IA va veloce e le amministrazioni devono adeguare i propri modelli organizzativi altrettanto velocemente. Una lezione per tutti, anche per le nostre amministrazioni.
⚖️ La California 🇺🇸 adotta linee guida e toolkit per l’acquisto di IA generativa da parte delle pubbliche amministrazioni
La California Government Operations Agency ha pubblicato due importanti documenti per regolare i processi di procurement di sistemi di intelligenza artificiale generativa nell’ambito del settore pubblico.
Le linee guida e il toolkit hanno l’obiettivo di definire gli usi e i rischi potenziali dell'IA generativa e forniscono ai dipendenti pubblici conoscenze critiche sul suo uso appropriato.
Secondo le linee guida, i dipartimenti del governo statale devono, ad esempio, redigere una valutazione dei potenziali rischi e benefici degli strumenti di intelligenza artificiale generativa che intendono utilizzare e testarli per evitare pregiudizi e garantire accuratezza. Ogni agenzia statale deve inoltre costituire un team per monitorare come viene utilizzata la tecnologia e riportare le sue conclusioni al Dipartimento di Tecnologia della California. Il Dipartimento ha, invece, il compito di controllare le domande di acquisto, assistendo nelle domande di acquisto e nella valutazione dei rischi.
Si tratta di due documenti importanti e interessanti, anche perché vengono proprio dallo Stato USA che sta guidando la rivoluzione dell’IA generativa.
📚 Consigli di lettura: “Intelligence as a human life form” di Maurizio Ferraris
Avete un amico o un collega che ha paura dell’IA? Oppure voi stessi siete in ansia per le questioni sociali, giuridiche ed etiche poste dallo sviluppo dell’IA?
Vi consigliamo la lettura di “Intelligence as a human life form”, articolo recentemente pubblicato dal prof. Maurizio Ferraris, filosofo e docente universitario, sul “Journal of responsible technology”.
Ferraris fornisce un'interpretazione stimolante e profonda dell'intelligenza artificiale, contestualizzandola nella lunga storia dell'evoluzione tecnologica umana. Attraverso un'analisi dettagliata, Ferraris sfida l'idea che l'intelligenza artificiale possa essere considerata una nuova forma di intelligenza, sottolineando invece come sia un'estensione degli strumenti che l'umanità ha sempre utilizzato per amplificare le proprie capacità cognitive. L’Autore sostiene che, come la scrittura, l'IA dovrebbe essere vista come un’opportunità per estendere la nostra intelligenza naturale e non come una minaccia per l’uomo.
📚 Consigli di visione: “air head 🎈” di Shy Kids
OpenAI ha fatto provare a sette filmmaker Sora, la soluzione in grado di realizzare video a partire da brevi prompt testuali. I risultati sono davvero notevoli.
Il più riuscito, a nostro parere, è “air head”, un corto di 1 minuto e 20 realizzato dal collettivo Shy Kids interamente con Sora. Dimostra come gli strumenti di IA generativa, usati dai creativi e con un’idea originale, possano avere grandi potenzialità.
Il progetto Sora è ancora in fase di test, ma la velocità con cui sta evolvendo dimostra che è urgentissimo risolvere alcune questioni giuridiche legate all’uso del materiale coperto da diritto d’autore per l’addestramento di questi modelli.
😂 IA Meme
Dev’essere dura la vita degli altri generatori di video IA da quando OpenAI ha annunciato Sora.
📣 Eventi
Senato della Repubblica - Indagine conoscitiva sull'impatto dell'intelligenza artificiale nel settore della giustizia - Diretta streaming, 3.4.2024
AI Act: istruzioni per l’uso - Webinar, 9.04.2024
AI WEEK - Rimini, 9-10.04.2024
Per ora è tutto, buona Pasqua!
Legge Zero torna la prossima settimana. Se la newsletter ti è piaciuta, commenta o fai girare. Grazie!