🤖 Perché tutti dicono "skibidi boppy"? - Legge Zero #84
Il vero tormentone dell'estate sono i video generati con l'intelligenza artificiale, ormai sempre più accurati. Alcuni ci fanno ridere, altri ci fanno indignare, molti non li riconosciamo come falsi.

🚡 La funivia che non c’è
Una coppia di pensionati di Kuala Lumpur (capitale della Malesia), scrollando Facebook, s’imbatte in un servizio dell’emittente TV Rakyat che parla dell’inaugurazione della funivia “Kuak SkyRide”. Sono tre minuti di clip in cui si vedono lunghe code alla biglietteria, cabine di cristallo che sorvolano la giungla e - alla fine della corsa - un’area in cui accarezzare i cuccioli di cervo. C’è anche un ristorante stellato con una vista mozzafiato. Sembra troppo bello per restare a casa. E così i due decidono di salire in macchina e macinare oltre 370 chilometri — circa quattro ore e mezza di guida — verso la località in cui dovrebbe trovarsi la funivia, Pengkalan Hulu.
Una volta lì, alla reception di un piccolo hotel chiedono indicazioni su come raggiungere la funivia. La receptionist - che racconta tutto in un post su Threads - resta di sasso: la funivia non esiste. Spiega loro che si tratta di un contenuto creato con intelligenza artificiale. “Dobbiamo denunciare la giornalista”, propone al marito la signora, delusa e incredula. A quel punto, la receptionist, sferra il colpo di grazia: anche la cronista è un avatar e l’emittente TV non esiste. L’uomo sospira “E adesso che facciamo?”, la moglie scuote la testa: “Come possono prendere in giro la gente così?”.
È questo il modo, amarissimo, in cui i due anziani hanno appreso la regola aurea per gli utenti social nell’era dell’IA: non fidatevi di tutto quello che vedete o sentite, specialmente sui social.
[qui sotto potete guardare il video che ha ingannato i due anziani, mentre su SouthChina Morning Post e Mothership potete leggere come i media hanno ripreso questa notizia]
La storia della “funivia fantasma” ha dell’incredibile, e infatti ha fatto il giro del mondo. Ma è solo un assaggio di ciò che sta accadendo: video generati dall’intelligenza artificiale spuntano ovunque online, confondendo realtà e fantasia. Questa volta la conseguenza è stata una delusione turistica (finita solo in una giornata sprecata e qualche litro di benzina). Ma cosa succede quando le finzioni create con l’IA riguardano argomenti meno innocui di una funivia nella giungla?
Lo sappiamo da tempo, i video generati dall’IA possono essere molto pericolosi. Lo sa bene Steve Beauchamp, pensionato 82enne, che - tra il 2023 e il 2024 ha perso tutti i suoi risparmi (oltre 690.000 dollari) dopo essere stato truffato da un deepfake online di Elon Musk che promuoveva un falso investimento online (trovate tutti i dettagli in questa ricostruzione del New York Times).
🤖 Video IA ovunque
Quello della Malesia, quindi, non è un caso isolato. Nell’estate 2025 i video generati dall’IA sono cresciuti in quantità e popolarità, ma anche in accuratezza e precisione. Merito dei progressi tecnici, certo, ma soprattutto di nuovi strumenti che mettono questa potenza creativa nelle mani di tutti. Un esempio? La piattaforma Veo 3 di Google, terza generazione dei modelli IA per video, lanciata di recente e subito integrata in servizi consumer come Canva. In poche settimane, milioni di utenti si sono trovati la possibilità di creare brevi video professionali con un semplice prompt testuale, completi di audio e dialoghi realistici. Altro che dover imparare a usare software di montaggio o animazione: ora basta scrivere “funivia sospesa sopra la foresta tropicale” ed ecco servita una breve clip HD di 8 secondi con tanto di funivia tra gli alberi e suoni ambientali. Se fino a qualche mese fa i video IA erano appannaggio di professionisti e videomaker, ora chiunque può divertirsi a generare contenuti falsi o surreali. E infatti il web - soprattutto i social - sono invasi: da improbabili funivie tropicali, a telegiornali fasulli, a video musicali demenziali.
🤪 Il tormentone “skibidiboppy”
Proprio sui social, i brevi video generati dall'IA sono diventati uno dei trend dell'estate 2025, e a questo proposito la parola chiave è "skibidi boppy”. Se vi è mai capitato di vedere un video in cui qualcuno dice questa espressione e vi siete chiesti che cosa significhi, la risposta è: niente. Ma ora lo sapete, e potete fare bella figura con gli amici (prego!).
"Skibidi boppy" è una parola nonsense, nata dalla fusione tra "skibidi" - termine che affonda le radici nelle tecniche di scat jazz degli anni '20 e diventato famoso prima con Scatman John negli anni '90, poi con la serie YouTube "Skibidi Toilet" che ha totalizzato 65 miliardi di visualizzazioni - e "boppy", un suffisso misterioso ma dal suono inequivocabilmente italiano. Il fenomeno è esploso a luglio 2025, dopo il lancio pubblico di Veo 3, il modello di Google per la generazione di video IA.
I contenuti seguono uno schema abbastanza preciso: clip di 4-8 secondi che mostrano personaggi generati dall'intelligenza artificiale in scenari tipicamente italiani - spiagge, piazze - che esclamano "skibidi boppy" (spesso nella variante "Forza Napoli, skibidi boppy!") prima che accadano eventi completamente assurdi: tuffi improvvisi, esplosioni, corse e scenari surreali. L'hashtag ha superato i 200 milioni di visualizzazioni su TikTok, diventando molto usato dai più giovani.
Ma ecco il paradosso più interessante: molti creator e utenti hanno iniziato a postare video in cui riproducono il genere nonsense (con tanto di “skibidi boppy” finale) in un fluire continuo - e sempre più confuso - in cui l'intelligenza artificiale imita la realtà e la realtà imita l'IA.
🎭 I deepfake del Presidente
Dal gioco al pericolo il passo è breve. Qualche giorno fa, Donald Trump - il presidente degli USA - ha pubblicato un video IA di 45 secondi in cui Barack Obama (ex Presidente USA) viene arrestato dagli agenti FBI nello studio ovale.
Ovviamente è una bufala colossale, ma confezionata ad arte. Trump l’ha rilanciata con tono allusivo, accusando Obama di tradimento e frode elettorale. Molti suoi follower l’hanno presa sul serio o comunque l’hanno condivisa indignati ed entusiasti. Ed ecco servito il pericoloso cocktail: video ultra-realistici e polarizzazione politica.
Se un comune cittadino può credere a una finta funivia, figuriamoci come possa reagire l’opinione pubblica davanti a un video (falso) di un ex Presidente arrestato per frode! Siamo di fronte al concreto rischio sociale e democratico: una dimensione parallela in cui vediamo accadere cose mai avvenute, e magari prendiamo decisioni (di voto, di protesta, di consumo) basate su quelle illusioni.
Non stupisce che osservatori abbiano definito il video “spaventoso” sotto vari punti di vista. Anche perché la tecnologia evolve assai velocemente e i video creati con l’IA saranno sempre più credibili.
🎬 Dietro le quinte, anche Hollywood si affida all’AI
I video generati dall’IA stanno diventando talmente credibili che il co-CEO di Netflix, Ted Sarandos, ha rivelato che nella prossima serie El Eternauta (adattamento dell’omonimo fumetto di fantascienza argentino) verranno mostrati effetti visivi creati con l’aiuto dell’IA. In particolare, c’è una scena in cui crolla un edificio a Buenos Aires che sarebbe stata proibitiva col budget a disposizione, ma grazie ai tool di IA generativa il team è riuscito a realizzarla in tempi e costi record.
Quella sequenza di effetti visivi è stata completata in un decimo del tempo rispetto agli strumenti tradizionali.
L’IA è un’opportunità incredibile per aiutare i creatori a realizzare film e serie meglio, non solo in modo più economico.
Naturalmente, Netflix rassicura: “Sono comunque persone reali a fare il lavoro, solo con strumenti migliori”, un riferimento implicito alle paure di Hollywood, dove nel 2023 attori e sceneggiatori hanno scioperato proprio per regolamentare l’uso dell’AI e tutelare i posti di lavoro (ne parlammo in LeggeZero #1).
⚖️ Quali regole?
Tra funivie fantasma, meme nonsense e deepfake politici, qualcuno potrebbe avere l’impressione di trovarsi senza tutele. Eppure qualcosa si muove dal punto di vista delle regole.
I più veloci a farlo sono i gestori delle piattaforme digitali. YouTube, ad esempio, dal 15 luglio 2025, ha aggiornato le regole di monetizzazione per i creator, dichiarando guerra ai video “mass-produced” e “repetitive” generati in serie con l’IA. In pratica, i canali di puro spam IA (es. collage di clip o audio sintetici senza contenuto originale) non potranno fare soldi con le views. YouTube parla di semplice “chiarimento” di norme già esistenti, ma è una risposta al boom di video IA di bassissima qualità creati in automatico, da finti notiziari su casi di cronaca fino a infinite playlist musicali generate dal machine learning. Chi continuerà a inondare la piattaforma di contenuti del genere rischia la demonetizzazione e l’espulsione dal programma partner. È una presa di posizione importante. Vedremo se le altre piattaforme faranno altrettanto.
I deepfake sono anche al centro delle previsioni dell'AI Act, il regolamento UE che diventerà pienamente applicabile nell'agosto 2026. Tra le disposizioni più rilevanti emergono gli obblighi di trasparenza: i sistemi di IA generativa che generano contenuti sintetici (audio, video, immagini, testi) dovranno marcare gli output perché siano riconoscibili come artificiali. In sostanza, i deepfake dovranno essere identificabili. Il regolamento, inoltre, impone a chi diffonde contenuti manipolati di rivelarlo chiaramente (con eccezioni mirate per opere creative e attività investigative). Parallelamente, l'AI Act promuove anche l'alfabetizzazione all’IA (AI literacy): chi sviluppa o utilizza sistemi di IA dovrà garantire che il proprio personale sia formato e consapevole dell'uso di queste tecnologie. Un'educazione dal basso, per prepararci a un mondo dove distinguere realtà e finzione diventa sempre più complesso.
Anche il legislatore italiano si sta muovendo. Nel DDL che è atteso all’esame del Senato, è previsto che “chi diffonde contenuti audio, video, fotografici o testuali generati da IA” debba indicarlo chiaramente con l’etichetta “IA” ben visibile. Un primo tentativo concreto di contrastare deepfake e disinformazione. Inoltre il DDL aggiorna il codice penale: creare e divulgare fake news con l’IA diventa un reato nuovo e l’utilizzo dell’IA in reati già esistenti - come truffa o sostituzione di persona - diventa un’aggravante che comporterà pene più severe.
Ovviamente, a patto di riuscire a provare che chi ha diffuso il video era consapevole del carattere artificiale del contenuto.
Altrimenti, skibidiboppy!
💊 IA in pillole
Stanchi dei contenuti generati dall’IA? Il motore di ricerca DuckDuckGo introduce una nuova opzione che permette di nascondere le immagini generate da IA nei risultati di ricerca.
Il blocco - che si attiva facilmente dalle impostazioni generali - pur non eliminando il 100 % dei contenuti sintetici, ne riduce sensibilmente la presenza.
Il partito moderato svedese credeva che fosse una buona idea ricorrere all’IA per coinvolgere gli elettori in vista delle elezioni presidenziali del 2026. Per questo motivo, aveva lanciato una nuova piattaforma IA che generava videomessaggi personalizzati del premier Ulf Kristersson. Gli utenti potevano creare un video del candidato che salutava un proprio amico, un parente, un collega. Peccato che il sistema non fosse protetto dagli usi malevoli relativi a nomi e personaggi controversi. E così - dopo poche ore - è stato messo offline perché ha prodotto inviti indirizzati, ad esempio, ad Adolf Hitler (“Abbiamo bisogno di te, Adolf Hitler”). Il partito ha avviato verifiche con il fornitore per capire l’origine del problema, promettendo che il servizio resterà offline finché non saranno introdotte barriere di sicurezza.
Il mondo cambia velocemente. Secondo gli ultimi dati, ogni giorno gli utenti chiedono 2,5 miliardi di cose a ChatGPT. Per orientarvi, tenete a mente che - in tutto il mondo - ogni giorno Google viene utilizzato per 14 miliardi di ricerche. Quello che deve stupirci è la crescita nell’uso dell’IA: i prompt per ChatGPT, a ottobre 2024, erano solo 1 miliardo al giorno (sono più che raddoppiati in otto mesi). Cerchiamo meno, chiediamo di più.
I contenuti generati con l’IA sono ovunque. La testata 404 Media ha scoperto che Spotify ha lasciato comparire sui profili ufficiali di artisti defunti - fra cui il cantautore country Blaze Foley e il cantante folk Guy Clark - brani interamente generati dall’IA e pubblicati senza alcuna autorizzazione da eredi o etichette discografiche.
Il caso più clamoroso è il singolo “Together”, caricato il 14 luglio 2025 a nome di Foley con copertina e voce sintetiche. Dopo le segnalazioni di fan ed etichetta, Spotify ha rimosso i brani, spiegando che violavano la propria Deceptive Content Policy.
È "spaventosamente probabile" che molti giudici USA non si rendano conto degli errori dell'intelligenza artificiale. È questo il titolo di un articolo di Ars Technica che - prendendo le mosse da quanto accaduto davanti a un tribunale dello stato della Georgia in un procedimento di divorzio - dimostra come le allucinazioni dell’IA contenute negli atti degli avvocati, se non verificate, possono arrivare dritte nei provvedimenti dei giudici. E mentre le dimensioni del problema sembrano crescere sempre più velocemente, finora solo in Michigan e West Virginia sono richieste competenze IA per i magistrati.
😂 IA Meme
Secondo voi raccoglie più soldi una startup che sviluppa IA per la generazione di video o una startup che sviluppa strumenti per identificare i deepfake? Il meme di questa settimana fa ridere ma anche riflettere.

😂 Meme IA che non lo erano - 1
Il video che vedete qui sotto non è generato dall’IA, ma riprende un nuovo caso di robot Unitree che - all’improvviso - diventa violento e pericoloso in un laboratorio. Non è la prima volta che accade, ma il tema della sicurezza diventa sempre più cruciale ora che un robot costa meno di un MacBook Pro.
😂 Meme IA che non lo erano - 2
Questa non l’avevate ancora vista. In Cina, nel corso di un festival musicale, un robot si è esibito come tastierista insieme a una band umana. Il robot si chiama Adam, è alto 1 metro e 60 e ha stupito il pubblico con movimenti fluidi e coordinati con la musica. È un altro segno del fatto che l’era della convivenza (di macchine e uomini) è già iniziata.
📚 Consigli di lettura - 1: quando l'IA promette di risolvere la solitudine (ma forse non dovrebbe)
L'intelligenza artificiale può davvero curare la solitudine? È questa la provocatoria domanda al centro dell'articolo di Paul Bloom per The New Yorker, una riflessione profonda sui compagni artificiali e sulle implicazioni di un mondo senza solitudine.
Bloom - psicologo dell'Università di Toronto e autore di pubblicazioni in materia - esplora il paradosso contemporaneo: mentre i chatbot dimostrano capacità empatiche superiori a molti medici negli studi comparativi, la prospettiva di relazioni artificiali solleva questioni esistenziali fondamentali. L'autore documenta come ChatGPT e sistemi simili stiano già offrendo conforto alle persone, con risultati terapeutici misurabili.
Il cuore dell'analisi tocca però un nervo scoperto: la solitudine non è solo sofferenza da eliminare, ma segnale biologico evolutivo che ci spinge verso connessioni autentiche. Come la fame ci orienta verso il cibo, la solitudine ci indirizza verso relazioni genuine, forzandoci al difficile lavoro di comprenderci reciprocamente.
L'articolo illumina un dilemma etico cruciale: se l'IA può alleviare il dolore dell'isolamento - particolarmente per anziani e persone cognitivamente compromesse - cosa perdiamo quando eliminiamo questo feedback correttivo? Bloom teme che generazioni cresciute con compagni artificiali sempre accondiscendenti possano perdere la capacità di navigare conflitti, leggere segnali sociali e sviluppare resilienza relazionale.
Una riflessione necessaria sui confini tra innovazione tecnologica e preservazione dell'esperienza umana, che ci invita a considerare non solo cosa l'IA può fare per noi, ma cosa rischiamo di perdere per colpa di essa.
📚 Consigli di lettura - 2: perché il segreto dell’IA non è più il prompt, ma il contesto
Siamo davvero sicuri che basti un buon prompt per ottenere risultati “magici” da un modello linguistico? Philipp Schmid, ingegnere e divulgatore, ci porta a riconsiderare l’intera questione nell’articolo The New Skill in AI is Not Prompting, It’s Context Engineering.
Schmid introduce il concetto di context engineering, definendolo come “l’arte di fornire al modello tutte le informazioni necessarie, nel formato giusto e al momento giusto, affinché il compito sia risolvibile”. Il cuore del pezzo è questo diagramma dove l’autore amplia la nozione di “contesto”: non solo il prompt utente, ma anche istruzioni di sistema, cronologia della conversazione, memoria a lungo termine, documenti recuperati, strumenti disponibili e formato di output. Una mappa che rende visibile quanto sia complesso il “campo visivo” di un’IA.
Per mostrare la differenza tra una semplice demo e un agente davvero utile, Schmid racconta il caso di un assistente che deve fissare un meeting. Con scarsa “dieta informativa” produce una risposta asettica. Invece, con un contesto ricco di calendario, toni pregressi e tool di invio inviti, diventa quasi umano, proponendo alternative di data con la giusta familiarità. L’autore sottolinea che molti fallimenti degli agenti non sono imputabili al modello, bensì a contesti poveri o incoerenti.
Il passaggio da prompt engineering a context engineering è presentato come un cambio di paradigma: non più una stringa statica, ma un sistema dinamico che seleziona, sintetizza e struttura dati ad hoc. In questa visione, l’ingegnere del contesto diventa figura chiave, capace di decidere quali informazioni servono davvero e come confezionarle per evitare il temuto “garbage in, garbage out”.
Una lettura breve ma illuminante per chiunque voglia portare i propri progetti IA dal livello “giocattolo” a quello di prodotto affidabile e professionale.
📣 A grande richiesta, torna il Master di LeggeZero: ‘Il CAIO per la pubblica amministrazione’
Siete interessati alla figura del Chief AI Officer e volete approfondire i temi legati all’adozione dell’intelligenza artificiale nella pubblica amministrazione?
Dopo il successo della prima edizione, torna il nostro Master breve sull’IA nella PA. Il corso è dedicato a tutti coloro che vogliono guidare - magari proprio come CAIO - la sfida dell’intelligenza artificiale nelle pubbliche amministrazioni.
Il nostro corso, articolato in 6 appuntamenti dal 22 ottobre al 10 novembre 2025 (per un totale di 24 ore di formazione), affronta le complesse sfide dell'implementazione dell'IA negli uffici pubblici attraverso una prospettiva multidimensionale:
Aspetti tecnologici: strumenti e metodologie per l'adozione consapevole dei sistemi di IA.
Aspetti normativi: conformità alle regolamentazioni emergenti in materia di tecnologie digitali (dall’AI ACT al GDPR, passando per il CAD, le Linee Guida Agid e - ovviamente - la futura legge italiana sull’IA).
Aspetti organizzativi: strategie di governance dell'innovazione e gestione del cambiamento.
Particolarmente rilevante sarà il focus sull'evoluzione del ruolo del Responsabile per la Transizione Digitale (RTD), figura chiave nell'ecosistema dell'innovazione pubblica.
Non mancheranno esperienze e casi di studio per apprendere dai colleghi di altre amministrazioni buone prassi e errori da evitare.
Se vi interessa, trovate qui info su docenti, programma, iscrizione e costi.
🙏 Grazie per averci letto!
Per ora è tutto, torniamo la prossima settimana. Se la newsletter ti è piaciuta, sostienici: metti like, commenta o fai girare!





