🤖 Il nuovo corso di Trump sull'IA – Legge Zero #58
Il Presidente USA, appena insediato, ha revocato l'ordine esecutivo di Biden che aveva avvicinato gli Stati Uniti all'Europa nella lotta ai rischi dell'IA. Ma cosa cambierà davvero?

🧠 Molto rumore per nulla?
L’età dell’oro dell’America inizia ora.
Sono le 12.10 del 20 gennaio 2025 a Washington D.C. e queste sono le prime parole del discorso di insediamento del Presidente Donald Trump. Nel discorso nessun riferimento esplicito all’IA, ma la consapevolezza di un destino che vede gli americani come ‘esploratori, costruttori, innovatori, imprenditori e pionieri’. Parole che hanno un significato ben preciso se pronunciate davanti ai più importanti CEO e founder della Silicon Valley: da Zuckerberg ad Altman, da Bezos a Pichai, passando naturalmente per Elon Musk, uno dei principali collaboratori di Trump, tutti presenti alla cerimonia (la foto della ‘broligarchy’, l’oligarchia dei tech bro è diventata una delle immagini simbolo di questa giornata storica).
Non c’è voluto molto per vedere la nuova amministrazione in azione e - come avevamo previsto in LeggeZero #49 - dopo pochi minuti, nel primo giorno di mandato, Trump ha inaugurato il nuovo corso sulla regolazione (o forse sarebbe meglio dire, deregolamentazione) dell’intelligenza artificiale mantenendo le promesse. Il primo passo è stata la revoca dell’ordine esecutivo che il precedente Presidente Biden aveva emanato nell’ottobre 2023 sull’IA (Executive Order n. 14110, ‘Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence’).
L’executive order di Biden era un provvedimento complesso che aveva i seguenti obiettivi:
sviluppare standard rigorosi per la sicurezza dell’IA in modo da evitare rischi per la sicurezza delle persone, delle istituzioni e delle infrastrutture critiche;
obbligare i provider di IA a condividere con il governo i risultati dei test di sicurezza per modelli che impattano su sicurezza nazionale, economia o salute pubblica;
prevenire discriminazioni algoritmiche in ambiti come lavoro, sanità, giustizia e alloggi;
definire linee guida per l’adozione responsabile dell’IA nelle agenzie federali, inclusi standard per gli acquisti pubblici e formazione del personale.
Il secondo atto di Trump, tre giorni dopo, è stata l’adozione di un provvedimento interlocutorio in cui il Presidente ha disposto di sospendere l’attuazione di tutte le attività legate all’executive order di Biden, dando mandato allo Zar dell’IA da lui nominato (ne avevamo parlato in LeggeZero #53) di predisporre entro 180 giorni una nuova strategia in materia di intelligenza artificiale.
Insomma, non si può dire che Trump non abbia mantenuto le promesse e confermato che:
lo sviluppo di sistemi di IA sempre più potenti è cruciale per distanziare tutti i concorrenti (cinesi in primis);
la priorità della nuova amministrazione è incentivare investimenti privati (come i 500 miliardi di dollari del progetto Stargate);
le regole sono viste come un inutile freno in questa gara di competitività economica, come se gli USA - nonostante Biden - non fossero già il primo Paese leader in materia di IA.
Nonostante questo velocissimo cambio di rotta, la partita sembra tutt’altro che finita, per almeno due ordini di ragioni.
La prima è l’attivismo degli Stati americani: nel silenzio del legislatore federale, le proposte di legge in materia di IA potrebbero aumentare ancora di più rispetto al 2024, anno in cui i disegni di legge sono stati circa 700 e 45 Stati - su 50 - ne hanno approvato almeno uno (qui un interessante approfondimento di TechPolicy). Dalla protezione dei minori alla sicurezza, dai deepfake al copyright, le norme si rendono necessarie su tutto il territorio statunitense.
Il secondo motivo è rappresentato dall’Europa: i provider statunitensi, se vorranno rendere disponibili i loro prodotti nel vecchio continente dovranno adeguarsi all’AI Act, il regolamento europeo sull’IA. È quindi probabile che, sia pure con minore entusiasmo, continueranno a mantenere strutture incaricate di rispettare le rigorose regole europee in termini di compliance. Del resto, molte delle società leader nel settore dell’IA avevano costituito dei dipartimenti di ‘Responsible AI’ ben prima dell’executive order di Biden.
Staremo a vedere.
🔊 Un vocale da… Fabiana Guarcini (Astrologa)
Le previsioni sull'intelligenza artificiale si moltiplicano tra annunci aziendali spesso troppo enfatici ed esperti divisi tra entusiasmo e cautela. Per questo motivo - con il vocale di questa settimana - abbiamo deciso di prendere una strada insolita. Per farvi sorridere e riflettere, abbiamo chiesto di leggere il futuro dell'IA non a un tecnologo o a un analista di mercato, ma a un'astrologa.
Perché a volte, tra una profezia sul quantum computing e una predizione sui modelli linguistici del futuro, le previsioni tecnologiche non sembrano poi così diverse da quelle astrologiche. Con questa piccola provocazione, vogliamo invitarvi a riflettere su come spesso navighiamo a vista nel mare dell'innovazione, tra speranze, timori e la grande incertezza che caratterizza ogni vera rivoluzione tecnologica.
📰 Arriva GhostGPT: l’IA senza limiti che aiuta gli utenti a creare malware e truffe
I ricercatori di Abnormal Security hanno scoperto GhostGPT, un nuovo servizio (a pagamento) di intelligenza artificiale non censurato, perfetto per cybercriminali. A differenza dei modelli che tutti conosciamo (ChatGPT, Claude, Llama), vincolati da ‘guardails’ dati dai programmatori, GhostGPT opera senza alcun limite, permettendo la creazione di malware sofisticati, truffe e altre minacce informatiche su larga scala.
Secondo il blog di Abnormal Security, GhostGPT rappresenta un’evoluzione preoccupante rispetto ai suoi predecessori (come WolfGPT ed EscapeGPT), grazie alla capacità di generare codice malevolo, falsificare comunicazioni e sfruttare vulnerabilità in modo automatizzato. Un esempio emblematico? L’IA è stata utilizzata per produrre email di phishing talmente ben strutturate da ingannare persino utenti esperti, sfruttando toni formali e dati aziendali rubati.
Abnormal Security sottolinea che questa tendenza minaccia non solo le aziende, ma anche la fiducia generale nelle tecnologie basate sull’IA.
Come risposta, le società di cybersecurity stanno potenziando sistemi di difesa basati proprio sull’intelligenza artificiale, capaci di riconoscere pattern sospetti e neutralizzare minacce in tempo reale.
Tuttavia, la domanda sorge spontanea: riusciranno queste contromisure a tenere il passo con un’IA che impara e si evolve senza regole? Intanto, gli esperti consigliano alle organizzazioni di aggiornare protocolli di sicurezza e formare i dipendenti per riconoscere le nuove tipologie di attacchi.

📰 L’era delle AI policy: da documento facoltativo a imperativo strategico
Nella governance dell’IA si sta delineando un trend globale, una tendenza che non è condizionata dalla contrapposizione USA-UE sulla regolazione dell’intelligenza artificiale. Infatti, a tutte le latitudini, si moltiplicano le organizzazioni, sia pubbliche che private, che stanno implementando politiche specifiche sull’utilizzo dell’intelligenza artificiale, specialmente quella generativa (le cosiddette ‘AI policy)’. Oltre a promuovere un impiego etico e responsabile, queste policy sono fondamentali per garantire la conformità alle normative (come l’AI Act), prevenire contenziosi e promuovere l’alfabetizzazione sull’IA tra dipendenti, utenti e cittadini.
Solo negli ultimi giorni si registrano le pubblicazioni di due importanti documenti da parte della BBC nel contesto mediatico e dell’Università di Bologna in quello accademico.
La BBC e l’etica nell’uso dell’IA generativa in ambito editoriale
Il 16 gennaio 2025, la BBC - nell’ambito della sua AI policy - ha annunciato l’introduzione di linee guida per l’utilizzo di sistemi di intelligenza artificiale generativa. Basandosi su tre principi cardine, la policy appena varata mira a:
agire nell’interesse pubblico, garantendo che la tecnologia non comprometta la qualità editoriale;
valorizzare i talenti umani, utilizzando l’IA come supporto creativo e non come sostituto;
promuovere trasparenza, comunicando apertamente l’uso di IA ai propri utenti (ricorda molto gli obblighi del codice deontologico dei giornalisti italiani di cui abbiamo parlato in LeggeZero #54)
Nonostante il potenziale creativo, la BBC - per il momento - ha deciso di non utilizzare l’IA generativa per la produzione di notizie o la conduzione di ricerche fattuali, evitando di mettere a rischio l’accuratezza e la fiducia del pubblico.
L’Alma Mater Studiorum e l’integrazione critica dell’IA
L’Università di Bologna ha recentemente adottato una policy sull’uso dell’IA generativa nel contesto accademico. L’approccio è orientato a promuovere un’integrazione critica e collaborativa della tecnologia, basandosi su cinque principi fondamentali:
centralità della persona, per potenziare il giudizio umano senza sostituirlo;
onestà e trasparenza, dichiarando apertamente l’uso dell’IA;
responsabilizzazione, affinché gli utenti siano consapevoli e responsabili dei risultati.
accuratezza, adottando misure di verifica rigorose degli output generati.
tutela dei diritti e dell’ambiente, rispettando privacy, proprietà intellettuale e sostenibilità.
L’obiettivo della policy di Ateneo è promuovere un uso dell’IA generativa sicuro, inclusivo e in linea con le aspettative di chi vive e opera all’interno dell’Università.
Interessante notare che il documento è accompagnato da:
alcuni esempi rilevanti di usi (consentiti) di IA generativa nell’ambito di ricerca e didattica;
le modalità con cui dichiarare - per trasparenza - l’uso di sistemi di IA generativa.
⚖️ Nell’aggiornamento 2025 del Piano Triennale per l’informatica nella PA 🇮🇹 ci sono ancora buone prassi e principi sull’uso dell’IA da parte delle amministrazioni
L’Agenzia per l’Italia Digitale (AGID) ha pubblicato l’aggiornamento 2025 al Piano Triennale per l’informatica nella pubblica amministrazione 2024-2026, il documento di indirizzo strategico ed economico che dovrebbe guidare operativamente i soggetti pubblici nella trasformazione digitale.
Nel documento 2025 ritroviamo una sezione dedicata all’uso dell’intelligenza artificiale che mantiene gli stessi obiettivi e sostanzialmente gli stessi target da raggiungere:
150 progetti di innovazione mediante IA;
100 iniziative di acquisizione di servizi IA;
50 progetti di soluzioni IA.
Esempi di applicazione di IA nella PA
Tra le esperienze virtuose evidenziate nel Piano troviamo:
Agenzia delle Entrate e INAIL, che utilizzano algoritmi di machine learning per analizzare schemi e comportamenti sospetti, aiutando nella prevenzione e rilevazione di frodi;
INPS, che ha implementato chatbot per potenziare l’assistenza ai cittadini;
ISTAT, che sperimenta IA generativa per produrre ontologie.
Nessun Ministero, Regione, Comune o ASL tra le buone prassi.
Dieci principi per un uso responsabile dell’IA nella PA
L’aggiornamento 2025 ripropone il decalogo di principi guida per garantire l’uso etico e sicuro dell’IA nella PA:
miglioramento del servizio e riduzione dei costi
analisi del rischio
trasparenza, responsabilità e informazione
inclusività e accessibilità
privacy e sicurezza
formazione e sviluppo delle competenze
standardizzazione
sostenibilità
sistemi di IA ad alto impatto
dati
Linee Guida e strumenti
Poco di nuovo, quindi. Le vere novità dovrebbero arrivare nei prossimi mesi quando saranno pubblicate da AGID linee guida su:
promozione dell’adozione dell’IA nella PA;
acquisto di soluzioni e servizi di IA da parte delle PA;
sviluppo di applicazioni IA nella PA.
Inoltre, dovrebbero essere implementati ambiti di sperimentazione dell’intelligenza artificiale in ambito pubblico. Oltre i principi, infatti, le amministrazioni italiane hanno urgente bisogno di casi d’uso e strumenti concreti.
⚖️ Il Procuratore generale della California ricorda che l’IA non è un far west (nemmeno negli USA 🇺🇸)
Rob Bonta, procuratore generale della California, ha recentemente emesso due pareri per ricordare - specialmente alle aziende - che il velocissimo sviluppo dell’IA (che vede protagoniste proprio le società della Silicon Valley) deve rispettare le leggi già esistenti nello Stato (alcune delle quali, specifiche per l’IA, sono entrate in vigore con il nuovo anno, come abbiamo scritto in LeggeZero #57).
Le leggi californiane sull’IA
In un primo documento, il procuratore ricorda che le leggi della California offrono un ampio spettro di protezioni applicabili all’IA.
Protezione dei consumatori: l’IA non può essere utilizzata per frodi o pratiche commerciali ingannevoli. Ad esempio, sono vietate dichiarazioni false sulle capacità di un sistema IA o l’uso di deepfake senza consenso.
Diritti civili: l’uso dell’IA deve rispettare la non discriminazione, evitando bias sistemici che possano svantaggiare categorie protette e garantendo trasparenza alle decisioni automatizzate.
Privacy: i sistemi di IA devono operare in conformità al California Consumer Privacy Act (CCPA), garantendo ai consumatori il diritto di sapere come vengono utilizzati i loro dati e limitandone l’uso improprio.
Il parere può essere consultato qui (in inglese).
Le leggi californiane sull’IA
Nel secondo documento, il Procuratore si concentra sull’IA in sanità, evidenziando le regole stringenti già esistenti per garantire sicurezza, equità e trasparenza.
Supervisione umana: le decisioni prese con l’ausilio di IA non possono sostituire il giudizio clinico di un medico.
Bias e discriminazione: i sistemi IA devono essere progettati per ridurre disuguaglianze, evitando decisioni che possano amplificare eventuali pregiudizi preesistenti nei dati.
Trasparenza e consenso: le aziende sanitarie devono informare i pazienti sull’uso dei loro dati per l’addestramento di sistemi IA e sull’impiego dell’IA nelle decisioni che li riguardano.
Un esempio dell’applicazione pratica di queste leggi consiste nel divieto di utilizzare l’IA per negare richieste di rimborso di spese sanitarie basandosi esclusivamente su analisi automatizzate.
Il documento può essere consultato qui (in inglese).
Entrambi i pareri riflettono il timore di Bonta - osservatore privilegiato di quello che sta accadendo nello Stato che guida la rivoluzione IA - che le aziende stiano sviluppando e mettendo sul mercato sistemi non in linea con le norme esistenti. Vedremo se, dopo questi avvertimenti, inizieranno controlli e contestazioni.
💊 IA in pillole
Nel 2024, il 13,5% delle imprese dell'UE con 10 o più dipendenti ha utilizzato tecnologie di intelligenza artificiale (IA) per svolgere la propria attività, il che indica una crescita di 5,5 punti percentuali rispetto all'8% del 2023. Le quote più elevate di queste imprese si sono registrate in Danimarca, Svezia e Belgio. L’Italia, invece, si colloca al 21simo posto (su 27) nella parte bassa della classifica (che trovate qui).
Uno sviluppatore ha creato uno strumento per difendere i vostri contenuti dai bot dei provider di IA, sempre a caccia di contenuti da cui apprendere. Si chiama Nepenthes, prende il nome da una pianta carnivora e proprio come queste piante attirano e intrappolano le loro prede il software attira i crawler delle IA in un loop infinito di link, facendo sprecare loro tempo e risorse di calcolo. Se volete provarlo, lo trovate qui.
In questa edizione degli ‘X games’ (torneo di sport estremi che si svolgono ad Aspen, in Colorado) si sta sperimentando un giudice IA per le gare di snowboard, con l’obiettivo di ridurre la soggettività dei giudizi. Ma l’IA sarà davvero oggettiva?
Il Regno Unito ha annunciato l'introduzione di Humphrey, un complesso di strumenti IA per i dipendenti pubblici, il cui nome è ispirato al personaggio di una sitcom britannica (Yes, Minister). Il progetto dovrebbe agevolare la condivisione della conoscenza tra le diverse amministrazioni, semplificando le attività più routinarie (trovate maggiori dettagli sul sito dedicato qui).
😂 IA Meme
Nei giorni in cui il neoPresidente Trump accelera per vincere quella che negli USA hanno già chiamato l’AI War (contro la Cina), l’Unione Europea è il bersaglio facile di tanti meme. Qui sotto ve ne riportiamo un paio, abbastanza significativi.
A parte Mistral, l’UE non ha aziende o soluzioni che possano reggere il passo con i principali player statunitensi o cinesi. Possibile sia solo colpa delle eccessive regole o della troppa burocrazia?


😂 meme IA … che non lo erano
Negli ultimi giorni, gli addetti ai lavori del settore IA non fanno altro che parlare di DeepSeek R1, un modello open source sviluppato dall’azienda cinese DeepSeek che è specializzato in inferenza logica, risoluzione di problemi matematici e processo decisionale in tempo reale. Per diversi parametri DeepSeek supera ChatGPT o1, l’ultimo modello di OpenAI, pur avendo costi molto più bassi per sviluppo e gestione rispetto ai principali modelli made in USA.
Potete provarlo gratuitamente e addirittura scaricarlo e modificarlo (visto che è rilasciato con licenza opensource), resterete impressionati dalla sua capacità di spiegazione del ragionamento. Tuttavia fate attenzione:
la legge applicabile al servizio online è quella cinese, leggete bene condizioni di servizio e privacy policy (le vostre conversazioni andranno ad addestrare il modello);
DeepSeek si rifiuta di rispondere a domande su fatti controversi in Cina (come il massacro degli Uiguri o le proteste di piazza Tienanmen) così come a domande su personaggi politici locali. Gli utenti stanno condividendo tanti esempi di come il chatbot reagisce a queste richieste (qui, ad esempio, un video di Matteo Flora).


📚 Consigli di lettura: ‘I cinque errori più comuni che le persone commettono quando interagiscono con un’IA’ di David Gewirtz
ZDNET - testata specializzata in notizie sulla tecologia - ha pubblicato un articolo approfondito di David Gewirtz che esplora un tema chiave per chi utilizza strumenti di intelligenza artificiale generativa: gli errori più comuni commessi nell’interazione con i chatbot di IA generativa.
L’articolo, dal titolo ‘The five biggest mistakes people make when prompting an AI’, parte da un principio noto in informatica, il GIGO (‘garbage in, garbage out’, letteralmente ‘spazzatura come input, spazzatura come output’), per spiegare come la qualità delle risposte di un’IA dipenda direttamente dalla precisione delle richieste formulate. Gewirtz identifica cinque errori ricorrenti:
1. Non essere sufficientemente specifici
2. Non specificare il formato desiderato della risposta (es. elenchi puntati, tabelle, paragrafi)
3. Non avviare una nuova sessione per domande diverse
4. Non correggere o guidare l’IA dopo una risposta errata
5. Non riconoscere quando è il momento di lasciar perdere, riconoscendo i limiti degli strumenti IA
Per arricchire la sua analisi, l’autore ha consultato poi cinque chatbot (ChatGPT, Copilot, Grok, Gemini e MetaAI), chiedendo loro quali fossero gli errori più comuni degli utenti. Emerge un consenso unanime sul primo punto: la mancanza di specificità nei prompt è il problema principale.
La seconda risposta più gettonata dall’IA – che Gewirtz non aveva previsto – è l’eccessiva aspettativa umana, legata al falso mito che l’IA “sappia tutto” e abbia una comprensione simile a quella umana, ignorandone i limiti. A pari merito si colloca l’arrendevolezza degli utenti che, pensando di non essere in grado di usare tali strumenti, tendono ad accettare la prima risposta senza perfezionare il prompt fornito per ottenere risultati più precisi.
Frutto dell’analisi del giornalista, ecco i 9 suggerimenti per migliorare i prompt:
Sii specifico, chiaro e completo nella richiesta.
Fornisci contesto e dettagli chiave.
Evita linguaggi complessi o contorti.
Ricorda che l’IA è un programma, non un oracolo.
Perfeziona le richieste con interazioni successive.
Mantieni il focus sull’argomento originario.
Usa parole e concetti che l’IA può comprendere.
Inizia nuove sessioni per evitare confusione.
Cambia strumento se necessario: non tutte le IA fanno tutto.
Breve ma ricco di spunti operativi, questo contributo è una risorsa preziosa per chi vuole sfruttare al meglio le potenzialità dell’IA generativa, evitando frustrazioni e ottimizzando tempo e risultati.
💬 Il dibattito sull’IA
[Il padrino dell'intelligenza artificiale] Geoff Hinton sta sistemando i suoi affari... crede che ci restino forse 4 anni.
Sono le parole pronunciate nel corso di una conferenza da Stuart Russell, uno dei ricercatori più illustri nel campo dell’IA (docente dell’Università di Berkley).
Il prof. Russell afferma che era già stato Turing - nel 1951 - a prefigurare lo scenario in cui le macchine, una volta diventate più potenti degli esseri umani nel ragionamento, avrebbero preso il controllo. Adesso, con l’imminente arrivo della superintelligenza artificiale, lo scenario è molto più vicino e, secondo Russell, la domanda che dobbiamo porci è ‘come possiamo riuscire a mantenere per sempre il potere su entità più potenti e intelligenti di noi?’.
Secondo il docente, al momento, non abbiamo ancora capito come fare. Ma nel frattempo, la corsa a sviluppare sistemi sempre più intelligenti diventa incredibilmente più veloce.
📣 Eventi
AI Regulation Summit - Londra, 27.01.2025
Artificial Intellicenge Action Summit - Parigi, 10-11.02.2025
AI Fringe 2025 - Londra, 11.12.02.2025
🙏 Grazie per averci letto!
Per ora è tutto, torniamo la prossima settimana. Se la newsletter ti è piaciuta, commenta o fai girare.