🤖 DeepSeek cambia tutto, ma non l'AI Act - Legge Zero #59
Nella settimana in cui DeepSeek sconvolge il panorama globale dell'IA, diventano operativi i primi divieti dell'AI Act. Eppure l'UE appare sempre più isolata nella sua battaglia per i diritti.

🧠 La settimana di DeepSeek
Oggi è il 2 febbraio 2025, una data importante per le regole dell’intelligenza artificiale. In Europa, infatti, diventano pienamente applicabili le prime disposizioni dell’AI Act, il regolamento europeo sull’intelligenza artificiale che è entrato in vigore il primo agosto 2024 e che diventerà completamente operativo ad agosto 2026 (se volete approfondirlo trovate la nostra guida completa in LeggeZero #33).
Ironia della sorte, questa giornata conclude la settimana in cui DeepSeek (di cui siamo stati tra i primi a parlare in LeggeZero #58) ha sconvolto il mondo dell’IA, sollevando implicazioni e questioni giuridiche delicatissime.
È successo tutto in pochissimi giorni:
il 20 gennaio 2025 (il giorno del giuramento di Trump), la società cinese DeepSeek ha lanciato un modello di IA generativa chiamato DeepSeek-R1, che sarebbe costato oltre il 90% in meno degli LLM made in USA e riuscirebbe lo stesso a competere con loro (superandoli in alcuni parametri);
il modello è stato rilasciato come opensource (sotto licenza MIT, a differenza dei principali modelli IA) oltre a essere fruibile in cloud (come i principali modelli IA);
leggendo i termini d'uso e la privacy policy del sito di DeepSeek si evince che: a) la legge applicabile al servizio è solo quella cinese (non viene citato il GDPR), b) i dati raccolti sono di più rispetto a quelli degli altri chatbot (comprendono addirittura i pattern di scrittura), c) non viene previsto un termine di cancellazione dei dati (che sono conservati per finalità di addestramento anche dopo la cancellazione dell'account dell’utente), d) i dati sono conservati in Cina dove le Autorità possono richiederli al provider (nel video qui sotto trovate la lettura approfondita dei termini d’uso di DeepSeek trasmessa da RaiNews);
come se non bastasse, DeepSeek ha avuto un data breach (in virtù del quale sono stati accessibili i dati degli utenti, comprese le chat);
alcuni ricercatori della Cisco e dell’Università della Pennsylvania hanno testato 50 tecniche di jailbreaking (metodi per aggirare i filtri di sicurezza dell'IA). DeepSeek non sarebbe riuscito a bloccarne neanche una, ottenendo un tasso di fallimento del 100%.
la notizia del lancio del modello cinese ha provocato un terremoto negli USA dove ha causato un pesante crollo del valore dei titoli tecnologici, mentre il Presidente Trump lo ha definito un ‘campanello d’allarme’ per i provider di IA e la marina militare USA ha già deciso di vietarlo - per motivi di sicurezza - a tutti coloro che appartengono al proprio corpo (non vi ricorda quanto accaduto con TikTok?);
OpenAI ha accusato la società cinese di aver sfruttato illecitamente ChatGPT per addestrare DeepSeek R1, violando i termini d’uso di ChatGPT (qualcuno ha fatto notare ironicamente che a sua volta OpenAI è stata accusata di aver realizzato ChatGPT proprio grazie allo scraping di dati in violazione dei termini d’uso di altri siti web);
nel frattempo, il Garante Privacy - che nelle scorse settimane aveva sanzionato OpenAI per 15 milioni di euro - ha bloccato in Italia il servizio cinese per violazione del GDPR. L’Autorità italiana ha prima richiesto formalmente informazioni sui dati utilizzati per l’addestramento dell’IA e su quelli raccolti dagli utenti che fruiscono del servizio cloud (28 gennaio 2025). Pochi giorni dopo, il Garante ha disposto la limitazione immediata del trattamento dei dati degli utenti italiani da parte del chatbot (30 gennaio 2025). L’Autorità - come sentiremo dal vocale di uno dei suoi componenti - ha infatti ritenuto insufficienti le informazioni fornite dai fornitori del servizio che (dopo aver rimosso l'app dagli store iOS e Google) avevano dichiarato di non operare in Italia e di non ritenersi soggette alla normativa europea;
il Garante italiano è stato il primo ad attivarsi, ma anche quello irlandese nei giorni scorsi ha chiesto informazioni a DeepSeek mentre quello belga ha aperto un’istruttoria;
al momento in cui scriviamo, DeepSeek continua a essere raggiungibile dall’Italia e non sono note reazioni pubbliche della società cinese al provvedimento.
Fin qui i - tanti - fatti di questa settimana, tutti legati alla pubblicazione di un solo nuovo servizio di IA, DeepSeek appunto.
Fatti che hanno reso ancora più animato il dibattito sulle regole dell’intelligenza artificiale. All’indomani dell’inizio dell’era della deregulation USA in materia di IA voluta dal Presidente Trump (di cui abbiamo parlato in LeggeZero #58), sono sempre più coloro che accusano l’UE di perdere terreno nel settore dell’IA a causa dell’eccessiva attenzione per regole e burocrazia. E la stessa presidente della Commissione europea, Ursula von der Leyen, nei giorni scorsi si è dimostrata consapevole del problema:
Solo il 13,5% delle aziende dell'UE utilizza l'intelligenza artificiale. Questa situazione deve cambiare. Quest'anno lanceremo un'ampia strategia di intelligenza artificiale per il nostro continente, che comprende un'iniziativa chiamata "Apply AI" per promuovere l'adozione industriale dell'intelligenza artificiale nei settori chiave.
⚖️ Diventano applicabili le prime disposizioni dell’AI ACT
Mentre il panorama dell’IA stava cambiando - e c’è da scommettere non per l’ultima volta - in tanti si sono chiesti che fine avrebbe quindi fatto l’AI Act, il Regolamento europeo sull’intelligenza artificiale che è stato approvato pochi mesi fa.
Al momento, la marcia del Regolamento prosegue come se nulla fosse. E non potrebbe essere diversamente: la scommessa di definire un complesso organico di regole sull’intelligenza artificiale passa per un sistema in grado di resistere all’obsolescenza.
Il principio di neutralità tecnologica a cui è ispirato il Regolamento europeo, significa che l’AI Act non è costruito intorno a una tecnologia specifica, ma stabilisce regole generali applicabili a qualsiasi sistema di intelligenza artificiale, indipendentemente dalla tecnologia sottostante, dalla sua implementazione o dal settore di applicazione.
Alcune di queste regole diventano applicabili proprio oggi 2 febbraio 2025: si tratta dei primi articoli del regolamento.
Innanzitutto diventano operativi i divieti per tutti i sistemi di IA che presentano un rischio inaccettabile per le libertà e i diritti fondamentali degli esseri umani. Ad esempio, ai sensi dell’art. 5 del Regolamento sono vietati:
sistemi che manipolino le persone, inducendole a prendere una decisione che non avrebbero altrimenti preso;
sistemi di social scoring fondati sulla valutazione o classificazione di persone o gruppi di persone sulla base del loro comportamento sociale o di caratteristiche personali;
sistemi di polizia predittiva che valutino il rischio che una persona commetta un reato, unicamente sulla base della sua profilazione o della valutazione dei tratti e delle caratteristiche della sua personalità;
sistemi che consentono di creare o ampliare le banche dati di riconoscimento facciale mediante scraping non mirato di immagini facciali da internet o da filmati di telecamere a circuito chiuso;
sistemi che effettuano riconoscimento delle emozioni di una persona fisica nell’ambito del luogo di lavoro e degli istituti di istruzione;
sistemi che classificano le persone, a partire dai dati biometrici, per stabilirne caratteristiche quali razza, opinioni politiche, appartenenza sindacale, convinzioni religiose o filosofiche, vita sessuale o orientamento sessuale;
sistemi che consentano l’identificazione biometrica remota “in tempo reale” in spazi accessibili al pubblico.
Leggendo questo elenco, in tanti potranno pensare che si tratti di divieti preventivi. E invece, dietro molte di queste fattispecie ci sono sistemi di IA che - in alcuni Paesi - già stanno comprimendo i diritti e le libertà delle persone.
Nella Cina di DeepSeek, ad esempio, l’IA è utilizzata per monitorare il livello di attenzione degli studenti (insegnando loro a pensare solo a quello che dice il docente) così come è impiegata per la realizzazione di un sistema di social scoring (in cui coloro che hanno pochi punti non possono viaggiare in treno o aereo). In Iran, la videosorveglianza e il riconoscimento facciale nei luoghi pubblici sono utilizzati per individuare - e punire - le donne che non indossano l’hijab (il velo islamico). Invece, la società USA Clearview AI è già stata sanzionata dai Garanti privacy di diversi Paesi - tra cui l’Italia - per aver creato un database con oltre 30 miliardi di foto di volti, inclusi quelli di cittadini europei, scaricate da Internet senza il consenso degli interessati.

Ma le norme che diventano applicabili da oggi non contengono solo divieti. Per esempio, diventa obbligatoria l’alfabetizzazione in materia di IA per tutti i professionisti, le aziende e le amministrazioni che da oggi in poi vorranno usare IA. L’articolo 4 del Regolamento, infatti, prevede che questi soggetti devono adottare:
misure per garantire nella misura del possibile un livello sufficiente di alfabetizzazione in materia di IA del loro personale nonché di qualsiasi altra persona che si occupa del funzionamento e dell'utilizzo dei sistemi di IA per loro conto, prendendo in considerazione le loro conoscenze tecniche, la loro esperienza, istruzione e formazione, nonché il contesto in cui i sistemi di IA devono essere utilizzati, e tenendo conto delle persone o dei gruppi di persone su cui i sistemi di IA devono essere utilizzati.
Se non si trasformerà in un formale adempimento burocratico e se sarà accompagnata da investimenti cospicui, quest’alfabetizzazione sarà utile non solo a evitare le sanzioni, ma potrebbe essere uno dei fattori che consentiranno all’UE di recuperare terreno nei confronti di USA e CINA.
Ma occorre fare presto, gli altri corrono.
🔊 Un vocale da… Guido Scorza (Garante Privacy)
Come si sta muovendo l'Autorità Garante per la protezione dei dati personali di fronte alle sfide poste dall'intelligenza artificiale? E quali sono le ragioni dietro il provvedimento di blocco di DeepSeek in Italia (di cui tutti parlano)?
Nel messaggio di questa settimana, ce lo spiega uno dei componenti del collegio dell’Autorità Garante per la protezione dei dati personali, stimolando una riflessione cruciale sul delicato equilibrio tra innovazione tecnologica e tutela dei diritti fondamentali. Guido Scorza sottolinea come il blocco di DeepSeek non sia un atto di opposizione all'IA, ma una doverosa azione di salvaguardia della privacy e della protezione dei dati personali dei cittadini italiani.
Si tratta di parole importanti, non solo perché aiutano - in modo trasparente - a comprendere le ragioni del Garante, ma anche perché contribuiscono, in modo autorevole, al dibattito sulle regole dell’IA.
😂 IA Meme - DeepSeek edition
È stata una delle settimane più ricche di notizie da quando abbiamo iniziato a pubblicare LeggeZero. Molto ricca anche di meme che riassumono efficacemente quello che è accasuto.
Il primo è dedicato a chi - come noi - vuole restare informato su tutto quello che succede in ambito IA.

Lo schiaffo cinese ai giganti dell’IA made in USA.

DeepSeek e le domande scomode.

L’app di DeepSeek sparisce dagli store di Apple e Google dopo la richiesta di informazioni del Garante Privacy italiano.

Mentre USA e Cina si contendono la leadership dell’IA, l’Europa sta a guardare.

😂 meme IA … che non lo erano
Negli ultimi giorni, abbiamo avuto dimostrazione delle potenzialità delle aziende cinesi in materia di intelligenza artificiale.
Un’ulteriore esibizione muscolare è arrivata dal tradizionale Gala del Festival di Primavera (organizzato per celebrare il capodanno cinese) in cui sedici robot umanoidi di Unitree si sono esibiti insieme alle ballerine dello Xinjang Art Institute. Intitolata "Yangge Bot", l'esibizione ha unito l'energia di una danza Yangko del nord-est della Cina con la precisione della robotica, creando uno spettacolo che è diventato subito virale.
Uno dei momenti clou è stata la capacità dei robot di muovere i fazzoletti, un elemento tipico della danza Yangko, ma effettuato con una precisione meccanica che ha lasciato il pubblico a bocca aperta.
Gli spettacoli dei robot inizieranno a diffondersi anche alle nostre latitudini?
📚 Consigli di lettura: le 7 competenze fondamentali nell'era dell'IA, un framework filosofico per il futuro del lavoro
FastCompany ha pubblicato un interessante articolo di Faisal Hoque - un imprenditore e autore di bestseller - che esplora l'intersezione tra filosofia e intelligenza artificiale nel contesto lavorativo contemporaneo. L'articolo, che si intitola ‘7 capacità di pensiero critico necessarie in un ambiente di lavoro basato sull’intelligenza artificiale’, offre una prospettiva diversa sulla trasformazione in corso.
La premessa è tanto semplice quanto profonda: l'IA sta alterando non solo ciò che facciamo, ma come pensiamo e ci relazioniamo. Un recente sondaggio Gallup rivela che il 79% degli americani utilizza già prodotti basati sull'IA, spesso inconsapevolmente. Questa pervasività solleva quello che Hoque definisce come ‘emergenza filosofica’, tanto più che oggi i sistemi di IA - come DeepSeek - iniziano a ‘ragionare’.
Le sette competenze critiche che l’Autore propone di affinare sono radicate nel pensiero filosofico classico.
Il riconoscimento dei limiti si radica nella saggezza socratica del "so di non sapere", rendendoci paradossalmente più saggi nell'interazione con l'IA. Ad esempio, significa saper scegliere deliberatamente film al di fuori delle raccomandazioni algoritmiche, affermando la nostra autonomia creativa.
Il riconoscimento dei pattern vs rottura dei Pattern, ispirato all'esistenzialismo di Sartre, enfatizza la capacità umana unica di trascendere i modelli predeterminati. Si manifesta nella scelta di affrontare conversazioni difficili di persona invece di affidarsi all'IA per messaggi ‘perfetti’.
Il ragionamento basato sui valori attinge alla "phronesis" aristotelica e alla gerarchia dei valori di Scheler. Nell'applicazione quotidiana, significa riconoscere che mentre un chatbot può offrire conforto immediato, non può sostituire la profondità della comprensione reciproca nelle relazioni umane.
La consapevolezza della connessione autentica, fondata sulla filosofia “Io e tu” di Buber, si traduce in un monitoraggio costante delle decisioni che inconsciamente deleghiamo all'IA, dalle scelte sui contenuti da condividere agli acquisti quotidiani.
Il decision-making consapevole, basato sul concetto di "thoughtful willing" di Hannah Arendt, promuove scelte consapevoli invece che automatiche. Si concretizza in un controllo regolare delle nostre interazioni con l'IA.
L'analisi dell'impatto etico, costruita sull'imperativo della responsabilità di Hans Jonas, si manifesta nella valutazione attenta di come l'IA influenza ambiti critici come i processi di selezione del personale.
Infine, l'allineamento con uno scopo trascendente unisce la logoterapia di Frankl con l'auto-realizzazione di Maslow, traducendosi nell'uso strategico dell'IA per i compiti routinari mentre si dedica il tempo liberato al lavoro significativo e alle relazioni autentiche.
La rilevanza di questo framework va oltre la semplice gestione dell'IA sul lavoro. Rappresenta una guida per mantenere la nostra umanità in un'era di crescente automazione, suggerendo che la risposta alla sfida tecnologica potrebbe trovarsi nella saggezza filosofica millenaria (qui un altro approfondimento in questo senso che viene dal MIT).
Particolarmente significativa è l'enfasi sulla necessità di un approccio equilibrato: non si tratta di resistere all'IA, ma di utilizzarla mantenendo la nostra capacità di pensiero indipendente e la capacità di instaurare connessioni umane autentiche. L'articolo ci ricorda che, nell'era dell'IA, la principale innovazione potrebbe risiedere proprio nella riscoperta della nostra essenza umana.
📚 Consigli di ascolto: 'Il fondatore di DeepSeek è un idealista' (podcast ‘Altri Orienti’ di Simone Pieranni)
DeepSeek è sulla bocca di tutti - anche la nostra - ma oltre il clamore mediatico c'è una storia meno raccontata: quella della sua nascita e del percorso del suo fondatore, Liang Wenfeng. L’episodio 109 del podcast Altri Orienti di Simone Pieranni offre un’occasione preziosa per approfondire la traiettoria di una società che quasi nessuno “aveva visto arrivare”.
Il titolo, ‘Il fondatore di DeepSeek è un idealista’, introduce il ritratto di Wenfeng, un innovatore guidato da una visione che combina rigore scientifico e ambizione tecnologica. L’episodio esplora il suo background, le scelte che hanno plasmato l’azienda e l’impatto che possono avere sulla scena globale.
Oltre alle questioni tecnologiche, il racconto tocca anche le implicazioni economiche e geopolitiche dell’ascesa di DeepSeek, offrendo interessanti spunti su come il panorama dell’IA stia cambiando sotto i nostri occhi.
Per chi vuole andare oltre le breaking news e capire davvero come si è arrivati fin qui, questo episodio è una tappa obbligata.
📣 Eventi
Transizione digitale della PA, AI e comunicazione pubblica - Urbino, 05.02.2025
Artificial Intellicenge Action Summit - Parigi, 10-11.02.2025
AI Fringe 2025 - Londra, 11.12.02.2025
🙏 Grazie per averci letto!
Per ora è tutto, torniamo la prossima settimana. Se la newsletter ti è piaciuta, commenta o fai girare.
notizie molto interessanti e utili per una riflessione non solo filosofica. grazie