🤖 Non c'è più la privacy di una volta - Legge Zero #95
Il lancio di Atlas di OpenAI riapre la guerra dei browser e riaccende il dibattito sulla grande mole di informazioni a cui hanno accesso i chatbot. In questo numero una utile guida per gli utenti.

🧭 TL;DR: ecco di cosa ci occupiamo in questo numero
🧠 La nuova “guerra dei browser” è iniziata: OpenAI ha lanciato Atlas, un browser-assistente che unisce ChatGPT a navigazione, ricerca e azioni automatiche.
🌐 Chrome integra Gemini ma finora solo negli USA.
☄️ Comet di Perplexity promette efficienza, ma raccoglie enormi quantità di dati e ha già mostrato importanti vulnerabilità.
🦁 Brave è un’alternativa privacy-first: nessuna profilazione, cronologia o addestramento.
⚖️ In Italia, il TAR Lombardia segnala un avvocato per uso scorretto dell’IA nei ricorsi, mentre il CSM esclude l’impiego di IA generativa per scrivere le sentenze.
📱 Facebook testa in USA e Canada una funzione che accede al rullino foto degli utenti per suggerire post.
🚫 Oltre 850 personalità di primo piano, da Bengio a Wozniak, chiedono di vietare lo sviluppo di superintelligenze artificiali fino a quando non sarà sicuro farlo.
🗞️ Una ricerca mostra che gli assistenti IA sbagliano a interpretare le notizie nel 45% dei casi, Gemini il peggiore.
📚 Riccardo Luna con “Qualcosa è andato storto” ricostruisce gli errori dei social per non ripeterli con l’IA.
🧠 La guerra dei browser IA
SECRETS ARE LIES
SHARING IS CARING
PRIVACY IS THEFT
“I segreti sono menzogne. Condividere è prendersi cura. La privacy è un furto.” Nel profetico libro “The Circle” di Dave Eggers, queste tre frasi sono gli slogan della potentissima azienda tecnologica che è al centro del romanzo distopico che - lo scrivo per chi non lo ha letto - parla del nostro rapporto con la tecnologia, esplorando temi come la sorveglianza di massa e il confine tra trasparenza e privacy.
Quando The Circle uscì nel 2013, fu subito letto come una critica ai social network - per molti, il “Cerchio” era Facebook - e aprì le prime crepe nella visione tecno-ottimista delle piattaforme social come spazio di libertà e connessione.
Eppure oggi, guardando all’evoluzione dei chatbot di intelligenza artificiale - con le loro estensioni di memoria, l’accesso ai file personali e i nuovi browser integrati, che raccolgono quantità crescenti di dati ben oltre la semplice interazione testuale via prompt - è impossibile non ripensare a quel romanzo come a una profezia che si avvera.
La notizia della settimana, nel mondo dell’IA, è sicuramente il lancio di Atlas, il nuovo browser di OpenAI (il provider dietro ChatGPT e Sora) che unifica navigazione tradizionale, ricerca e risposte IA in un’unica interfaccia, con funzioni che permettono all’intelligenza artificiale di compiere addirittura azioni al posto dell’utente.
Il lancio di Atlas sembra riportarci quasi agli albori di Internet, quando la rete era teatro di una competizione feroce tra i browser. Allora erano Netscape Navigator (ve lo ricordate?) e Internet Explorer a contendersi il dominio del web, poi soppiantati dalla successiva guerra tra Explorer, Firefox e Chrome, vinta per distacco da quest’ultimo (il browser di Google detiene una quota di mercato globale superiore al 70%).

Oggi, con l’arrivo dell’intelligenza artificiale generativa e agentica integrata direttamente nei browser, la sfida si riaccende in forme nuove: Chrome, ora potenziato dall’IA di Gemini, deve fronteggiare nuovi protagonisti come Perplexity e il suo browser Comet, e vecchi contendenti come Edge di Microsoft o Brave, che stanno provando a riconquistare terreno grazie alle funzioni di IA.
Atlas si inserisce in questo scenario come un segnale chiaro: la prossima battaglia per il controllo del web non si giocherà più solo sulla velocità o sull’usabilità, ma sulla capacità dei browser di conoscere - e anticipare - l’utente. Grazie ai suoi dati.
Ma questa comodità ha un prezzo: le informazioni personali sono raccolte e condivise in modo sempre più pervasivo, sollevando questioni di privacy e conformità alle norme vigenti.
La combinazione dei dati di navigazione con quelli delle conversazioni apre scenari di sorveglianza personalizzata senza precedenti. Mentre i motori di ricerca tradizionali tracciano le nostre query e i chatbot registrano le nostre domande, un assistente IA integrato nel browser può connettere entrambe le dimensioni: monitorando ogni interazione online, costruisce un ritratto dettagliato di azioni, preferenze e vulnerabilità, profilandoci con precisione estrema. Attraverso l’inferenza, l’IA ricostruisce pattern comportamentali complessi: può collegare le ricerche sui sintomi d’ansia con la consultazione di elenchi di terapeuti e la ricerca di informazioni sui farmaci, componendo così un quadro completo della salute mentale di una persona. Non si tratta più di singoli dati isolati, ma di narrazioni coerenti sulla nostra vita.
Per questo motivo, di seguito proviamo a ricostruire funzioni, termini d’uso e regole sulla privacy dei diversi browser IA, evitando paternalismi, solo per offrire a ciascuno gli elementi per configurarli e usarli in modo consapevole.
Perché capire cosa sanno di noi è il primo passo per scegliere quale (eventualmente) utilizzare.
🌐 Google Chrome: l’IA nel browser più diffuso
Il browser più diffuso al mondo raccoglieva (e raccoglie tuttora) molti dati già senza l’IA: cronologia dei siti visitati, cookie, dati sincronizzati (preferiti, password, schede aperte, moduli) fino a font, risoluzione e impostazioni del dispositivo usato.
Adesso, con l’introduzione di Gemini in Chrome, l’IA di Google ha iniziato a raccogliere ed elaborare i contenuti della pagina visitata e l’URL dalla scheda corrente e da qualsiasi altra scheda condivisa dagli utenti USA.
In Europa, al momento, queste funzioni IA non sono attive a causa delle normative UE.
☄️ Comet: l’assistente IA di Perplexity
Comet è il browser lanciato da Perplexity (motore di ricerca basato sull’IA) che integra un assistente conversazionale in ogni scheda, capace di leggere, riassumere, rispondere e perfino operare sul web per conto dell’utente (es. preparare in automatico una bozza di risposta alle email). Per farlo, raccoglie una quantità notevole di dati: URL visitati, contenuto delle pagine, tab aperte, cronologia di ricerca, elenco dei download, permessi dei siti e dati sincronizzati con l’account Perplexity (di norma chi usa questo browser è utente di questo servizio). In pratica, tutto ciò che fate nel browser può essere registrato.
Comet, inoltre, può accedere anche a Gmail, Drive o altri servizi cloud se autorizzato. Perplexity afferma che gran parte di questi dati viene conservata localmente sul dispositivo e inviata ai loro server solo per richieste specifiche. Tuttavia, i termini di servizio di Comet concedono a Perplexity il permesso di accedere e usare tutte queste informazioni personali “per fornire e migliorare Comet e raccomandare contenuti rilevanti”. Ciò significa che, a meno che l’utente non disattivi esplicitamente questa opzione, i dati raccolti possono essere utilizzati dall’azienda per perfezionare il servizio e i suoi algoritmi (ma quanti sono gli utenti che modificano le impostazioni di default?).
Nelle scorse settimane, è emersa una grave vulnerabilità del browser nota come CometJacking: inserendo comandi nascosti in una pagina web, era possibile indurre l’IA di Comet a eseguire azioni non autorizzate, come accedere ad altre schede, estrarre contenuti da Gmail o Google Calendar o inviare a terzi dati come informazioni bancarie, password memorizzate o dati personali visualizzati in siti autenticati. L’IA eseguiva automaticamente queste istruzioni, interpretandole come richieste legittime dell’utente. Il bug è stato corretto, ma ha dimostrato quanto un agente IA con accesso attivo al browser possa diventare un punto di ingresso per attacchi informatici.
🗺️ Atlas: l’evoluzione di ChatGPT
Come anticipavo, Atlas è il nuovissimo browser sviluppato da OpenAI con ChatGPT integrato in ogni scheda: può leggere pagine web, rispondere a domande sul contenuto, suggerire azioni, generare riassunti o checklist, ed è pensato per lavorare come un vero assistente IA.
Il sistema utilizza la cronologia di navigazione, i contenuti delle pagine visitate e le tue interazioni per costruire memorie e risposte personalizzate. Se siete loggati, può collegare ciò che leggete al vostro profilo e suggerire azioni coerenti. Attivando la modalità “memorie”, ChatGPT conserva dettagli chiave dai siti visitati per offrire suggerimenti più efficaci (ad esempio creare una to do list basata sui prodotti che avete guardato online). In altre parole, una porzione della vostra cronologia diventa input permanente per l’IA.
OpenAI ha introdotto diverse opzioni di controllo. Si può disattivare le memorie o navigare in incognito, in modo che Atlas non colleghi la navigazione al nostro account ChatGPT. È possibile anche impostare, sito per sito, se l’IA può “vedere” il contenuto (una funzione sulla barra degli indirizzi permette di escludere certe pagine dalla vista di ChatGPT). È importante sottolineare che, per impostazione predefinita, OpenAI dichiara di non usare i dati di navigazione raccolti da Atlas per addestrare i propri modelli.
Tuttavia, l’agente IA ha accesso completo al contenuto delle pagine e può essere indotto a eseguire azioni indesiderate: OpenAI stessa avverte di possibili attacchi da parte di siti che “ingannano” l’agente tramite prompt injection. Utente avvisato…
🦁 Brave: il browser che non vuole profilarti
Brave è un browser che pone grande attenzione alla privacy degli utenti, con blocco nativo di tracker e pubblicità invasive. Il suo assistente IA integrato, Leo, può riassumere, tradurre, rispondere a domande e aiutare nella scrittura, ma lo fa senza raccogliere dati personali: nessuna cronologia, nessun tracciamento, nessun addestramento dei modelli basato sulle chat.
Le richieste passano attraverso un proxy anonimo che oscura IP ed eventuali dati identificativi, mentre le conversazioni non vengono archiviate. Non serve alcun account per usare Leo e i modelli IA sono selezionabili dall’utente con opzioni trasparenti.
Le funzioni IA sono attive, ma non vedono i contenuti delle pagine senza richiesta esplicita e non accedono ad account o dati locali.
Forse meno personalizzazione dei contenuti, ma sicuramente più “privacy by design”.
💡 Consigli per gli utenti (e le organizzazioni)
L’uso di un browser IA, quindi, non è questione poco rilevante che può essere decisa superficialmente o secondo le mode del momento.
Ecco pochi consigli per farlo consapevolmente e in sicurezza.
Leggete i termini d’uso e le informative privacy: non esistono scorciatoie, cercate termini come “addestramento”, “dati personali”, “terze parti”, “opposizione” o “memoria” per capire come vengono trattati i vostri dati e se potete limitarne l’uso.
Controllate le impostazioni del browser: ricordate che è vostro diritto disattivare memorie e cronologie IA che consentono ai chatbot di conoscervi troppo bene.
Disconnettete i vostri account: interagite con IA (es. ChatGPT Atlas) in modalità non autenticata - o usate la modalità “incognito” - quando consultate dati delicati ed evitate di inserire info riservate nei prompt (se non volete che oltre a voi le conoscano altri).
Scegliete soluzioni privacy-first per contesti critici: per dati aziendali o settori a rischio (es. sanità, sicurezza, giustizia), optate per gli strumenti che vi danno le maggiori garanzie.
Scrivete policy chiare: se siete uno studio professionale, un’azienda o un’amministrazione adottate un’AI policy in cui sia scritto chiaramente se l’uso di browser IA è consentito (ad esempio, i vostri utenti possono usare Atlas connesso al loro account personale ChatGPT se navigano in ufficio?).
Monitorate gli aggiornamenti: fate attenzione, nuove funzioni possono implicare nuovi rischi (es. tra poco Gemini in Chrome potrebbe arrivare in Europa). Seguite fonti affidabili e aggiornate le policy interne in base ai cambiamenti.
👥👥 Convegno “Appalti Pubblici e Intelligenza Artificiale”
L’intelligenza artificiale sta trasformando le pubbliche amministrazioni e gli appalti pubblici, ma il suo utilizzo solleva numerose questioni normative e pratiche.
Come garantire la conformità alle normative quando si utilizzano strumenti di IA nelle procedure? Quali sono gli elementi da considerare nell’acquisto di sistemi e modelli di IA da parte delle pubbliche amministrazioni?
Abbiamo organizzato un convegno in presenza per RUP, dirigenti e funzionari di stazioni appaltanti, uffici gare delle aziende fornitrici della PA e liberi professionisti che necessitano di comprendere gli aspetti normativi e giurisprudenziali legati agli appalti di IA e all’uso di IA negli appalti. La giornata include un laboratorio interattivo per definire una checklist operativa sull’acquisto di IA, con ampio spazio a casi concreti e domande dei partecipanti.
Oltre a me, interverranno il collega Alessandro Massari (avvocato amministrativista e direttore della Rivista “Appalti&Contratti”) e un Consigliere di Stato.
Queste le coordinate:
📅 6 novembre 2025, ore 9.00-13.00 e 14.00-16.00
📍 Bologna, Starhotels Excelsior – V.le Pietro Pietramellara 51
Se ti interessa, trovi qui info su docenti, programma, iscrizione e costi.
💊 IA in pillole
Un avvocato è stato segnalato al Consiglio dell’Ordine per uso (scorretto) dell’IA – Il TAR Lombardia con la sentenza n. 3348 del 21.10.2025 ha respinto un ricorso contro la bocciatura di una studentessa di seconda liceo e ha segnalato l’avvocato difensore al Consiglio dell’Ordine degli Avvocati di Milano per aver utilizzato impropriamente l’intelligenza artificiale nella redazione dell’atto processuale. L’IA aveva generato riferimenti a casi giudiziari inesistenti, errori che non sono sfuggiti ai giudici.
Nella sentenza, i magistrati affermano che tale condotta “costituisce una violazione del dovere del difensore di comportarsi in giudizio con lealtà e probità”, “introduce elementi potenzialmente idonei ad influenzare il contraddittorio processuale e la fase decisoria verso un percorso non corretto” e “rende inutilmente gravosa a giudici e controparti l’attività di controllo della giurisprudenza citata e dei principi apparentemente affermati”.Nella sentenza, i giudici danno atto di aver chiesto spiegazioni al legale, il quale “a verbale ha affermato di aver citato giurisprudenza reperita mediante strumenti di ricerca basati sull’intelligenza artificiale che hanno generato risultati errati”. Ma questo, per il TAR, “non può avere una valenza esimente, in quanto la sottoscrizione degli atti processuali ha la funzione di attribuire la responsabilità degli esiti degli scritti difensivi al sottoscrittore, indipendentemente dalla circostanza che questi li abbia redatti personalmente o avvalendosi dell’attività di propri collaboratori o di strumenti di intelligenza artificiale”.
Il caso si aggiunge ad altri precedenti simili a Firenze, Torino e Latina di cui abbiamo scritto in LeggeZero #92 e dimostra come l’uso dell’IA in ambito giudiziario sia ben più diffuso (e problematico) di quanto si pensi.
Dopo le prime condanne per lite temeraria, arriveranno anche le sanzioni disciplinari?Il CSM detta le regole sull’uso dell’IA da parte dei magistrati – Con delibera plenaria dell’8 ottobre 2025, il Consiglio Superiore della Magistratura (l’organo di autogoverno dei giudici) ha approvato un articolato documento di raccomandazioni sull’uso dell’intelligenza artificiale nell’amministrazione della giustizia (si può scaricare qui sotto).
Il CSM ha stabilito che, fino all’entrata in vigore delle disposizioni dell’AI Act, è vietato l’uso di sistemi di intelligenza artificiale non certificati nell’attività giudiziaria in senso stretto. La delibera richiama la Legge n. 132/2025 che, all’art. 15, ribadisce che le decisioni sull’interpretazione e applicazione della legge, la valutazione dei fatti e delle prove e la redazione dei provvedimenti restano di esclusiva competenza del magistrato.
Nel periodo transitorio, l’uso dell’IA deve essere consentito solo per attività organizzative, amministrative o di supporto, tramite sistemi autorizzati dal Ministero della Giustizia, collocati all’interno del dominio giustizia e operanti con tracciabilità e supervisione umana. È invece escluso l’impiego di IA per la stesura, anche parziale, di sentenze, ordinanze o motivazioni, o per attività che possano incidere sulla formazione del convincimento del giudice, come la selezione automatica di precedenti giurisprudenziali o la proposta di schemi motivazionali.
Il CSM sottolinea che l’IA deve affiancare, e mai sostituire, il ragionamento giuridico umano e invita il Ministero a progettare un sistema di IA interno al “dominio giustizia”, basato su infrastrutture pubbliche e sicure, così da garantire autonomia, riservatezza e sovranità dei dati.
Basteranno queste regole ad evitare il proliferare di errori giudiziari e procedimenti disciplinari per i magistrati meno accorti? (secondo alcune indiscrezioni, sarebbero già due i giudici a cui sarebbe stato contestato l’uso scorretto dell’IA)
Meta vuole accedere alle foto del rullino degli utenti (ma non in Europa) – Meta ha implementato negli Stati Uniti e in Canada una funzionalità che permette a Facebook di accedere al rullino fotografico degli utenti per suggerire contenuti “più condivisibili” (facendo leva sulla loro voglia di like). Se gli utenti accettano, l’IA di Meta analizzerà le foto non ancora pubblicate, suggerendo modifiche, collage e contenuti creativi. Meta ha chiarito che “le foto del rullino fotografico caricate con questa funzione non saranno utilizzate per migliorare l’IA di Meta, a meno che l’utente non scelga di modificare questi contenuti con i nostri strumenti di IA o di condividerli”.
La funzione - che non è ancora disponibile in Europa per motivi di conformità alle regole UE - sta sollevando importanti interrogativi sulla privacy degli utenti (anche perché più di qualcuno ha lamentato che la funzionalità sarebbe stata attivata di default).
Un appello per chiedere il divieto di sviluppare superintelligenze – Più di 850 personalità molto diverse tra loro - inclusi i “padrini dell’IA” Yoshua Bengio e Geoffrey Hinton, il co-fondatore di Apple Steve Wozniak, l’imprenditore Richard Branson, l’ultra conservatore USA Steve Bannon, il Principe Harry e Meghan Markle ma anche Paolo Benanti, Brando Benifei, Riccardo Luna e chi vi scrive - hanno firmato una dichiarazione che chiede che venga proibito lo sviluppo di superintelligenze artificiali (è possibile aderire qui). L’iniziativa, promossa dal Future of Life Institute, richiede “il divieto di sviluppare superintelligenze artificiali, fino non ci sarà un ampio consenso scientifico che possa essere fatto in modo sicuro e controllabile”.
Le ragioni sono quelle già esposte nell’appello di Roma sulla coesistenza nell’era dell’IA e tutti possono aderire firmando qui.
Gli assistenti IA spesso non capiscono le notizie – Vi affidate ai chatbot IA per essere informati? Fate attenzione! Una ricerca coordinata dalla European Broadcasting Union (EBU) e condotta dalla BBC con 22 emittenti di servizio pubblico di 18 paesi (tra cui la RAI) ha rilevato che gli assistenti IA come ChatGPT, Copilot, Gemini e Perplexity forniscono risposte errate o fuorvianti nel 45% dei casi quando interrogati su contenuti giornalistici.
Giornalisti professionisti (umani) hanno valutato oltre 3.000 risposte in 14 lingue diverse, riscontrando problemi sistemici in tutte le piattaforme: il 31% delle risposte presentava gravi problemi di attribuzione delle fonti (riferimenti mancanti o fuorvianti), mentre il 20% conteneva significativi problemi di accuratezza come informazioni false o obsolete. Gemini ha ottenuto i risultati peggiori, con problemi significativi superiori al 70% delle risposte testate.
Insomma, non ci si può esimere ancora dal verificare l’affidabilità di una notizia leggendo le fonti.
😂 IA Meme
È capitato anche a voi di leggere del dibattito sull’evoluzione dell’IA e poi provare a parlarne a qualcuno che non è addentro a questi temi? Beh forse è il caso di consigliargli LeggeZero, così potrà capirvi.

📚 Consigli di lettura: qualcosa è andato storto (con i social), ma possiamo evitare di ripetere gli stessi errori (con l’IA)
Con Qualcosa è andato storto (edito da Solferino), Riccardo Luna ci invita a guardare indietro, a quanto accaduto con i social media, per capire dove - e perché - abbiamo perso la rotta.
Per anni internet era sembrato il più formidabile strumento di progresso dell’umanità dai tempi dell’elettricità: una promessa di libertà e partecipazione, un terreno dove “abbattere muri e costruire ponti”. Presto, però, qualcosa si è incrinato. I social network, nati per connettere, hanno finito per dividere. Gli algoritmi, progettati per informare, hanno imparato a premiare la rabbia e la disinformazione.
Luna – giornalista, divulgatore e osservatore privilegiato della rivoluzione digitale e dell’IA – racconta, con dovizia di dati e di aneddoti, il tradimento di quella promessa. Lo fa con tono lucido ma non rassegnato, ripercorrendo la parabola della Silicon Valley: da quando gli imprenditori tecnologici “sembravano tutti buoni” fino al giorno in cui, nel gennaio 2025, erano in prima fila al giuramento di Trump.
Nel libro - introdotto da una brillante prefazione di Luca Sofri - la “fine dell’innocenza” coincide con la presa di coscienza che le piattaforme, fin qui, non sono state neutrali e che la democrazia stessa è stata influenzata della SEO, dal clickbait, dal bisogno di consenso istantaneo.
E questa dinamica rischia di ripetersi, oggi, con l’IA e il dibattito sulle regole che la riguardano.
Ecco perché Qualcosa è andato storto è una lettura preziosa per chi osserva la “nuova guerra dei browser IA” così come la corsa verso la superintelligenza artificiale. Non solo perché molti degli attori di questa rivoluzione sono gli stessi protagonisti di ieri – Google, Meta, Grok – che tornano sulla scena, promettendo nuovamente progresso e libertà. Ma anche perché la lezione dei social è che le scelte dei probider determinano come lavoriamo, come impariamo, come ci informiamo e persino come ci sentiamo.
Luna non si limita a denunciare: invita a disobbedire insieme, a smettere di “premiare i peggiori” e a tornare a esigere verità e responsabilità. Perché se è vero che qualcosa è andato storto, possiamo ancora cambiare rotta, a patto di non restare spettatori.
Si tratta di una lettura consigliata non solo perché ci aiuta a guardare con realismo le piattaforme che utilizziamo quotidianamente, ma anche perché ci consente di capire dove siamo diretti e cosa possiamo fare, come singoli e come società.
🙏 Grazie per averci letto!
Per ora è tutto, torniamo la prossima settimana. Se la newsletter ti è piaciuta, sostienici: metti like, commenta o fai girare!







