La scorsa notte mi sono imbattuto in alcuni video su YouTube. Mostravano Richard Feynman, il celebre fisico americano, mentre guardava direttamente in camera e spiegava concetti di fisica e della nostra realtà con una chiarezza quasi disarmante. Per i primi minuti non ho avuto dubbi. Sembrava davvero lui. Certo, sapevo che era morto da tempo e che quelle immagini, se autentiche, avrebbero dovuto risalire a molti decenni fa. Proprio per questo la qualità audio e video mi è sembrata strana: troppo pulita, troppo stabile e convincente.
Anche il contenuto era semplice, brillante, ordinato. Aveva il tono che molti associano a Feynman, fisico noto per la sua capacità di rendere comprensibile anche ciò che di solito intimidisce. Eppure, mentre mi lasciavo trascinare, anche per i tempi tecnologicamente strani in cui viviamo, ho cominciato ad avere una sensazione difficile da ignorare. Stavo ascoltando una lezione autentica, oppure una ricostruzione artificiale costruita per sembrare autentica?
Ho aperto la descrizione del video in cerca di conferme. Nulla di chiaro.
Sono sceso nei commenti, aspettandomi almeno qualche dubbio, una discussione, una correzione. Invece quasi niente. Tutti entusiasti per la “lecture” del professore. Molti utenti sembravano accettare quel contenuto per quello che appariva in superficie: Richard Feynman che spiega il mondo.
La cosa più inquietante
La sensazione di autenticità oggi basta spesso a superare il controllo critico. Quando un video ha il volto giusto, la voce giusta e il tono giusto, molti spettatori smettono di chiedersi da dove arrivi davvero.
Continuando a esplorare la pagina, ho notato un avviso di YouTube formulato in modo vago: il video “potrebbe contenere contenuti sintetici o modificati digitalmente”. Non era una dichiarazione netta. Era più simile a una nota laterale, facile da perdere, o comunque incapace di interrompere l’illusione.
A quel punto, tra perplessità e irritazione, ho deciso di cercare altrove. Su Reddit ho scoperto che la mia impressione era condivisa da molte altre persone. Alcuni descrivevano questi video come sempre più frequenti. Altri dicevano di averli ascoltati senza accorgersi subito dell’artificio. Altri ancora notavano un dettaglio curioso: il problema non era una goffaggine evidente, ma l’eccesso di perfezione. Una voce troppo continua, un ritmo troppo regolare, un discorso troppo levigato per sembrare davvero vivo.
In un thread su r/AskPhysics, diverse persone raccontano di essere sommerse da video simili, spesso consigliati dall’algoritmo di YouTube.
Uno degli utenti scrive, in sostanza, di aver bloccato quasi una dozzina di canali senza riuscire a fermare il flusso di quei contenuti, e di essere infastidito dal fatto che materiale del genere stesse “diluendo” la divulgazione scientifica online.
Un altro utente taglia corto: non si tratta affatto di una vera lezione di Feynman, ma di un testo scritto da un software AI e letto con una voce clonata artificialmente. A suo parere, il fenomeno sta crescendo molto in fretta, o almeno dà chiaramente quell’impressione.
Un commento ancora più interessante spiega perché questi video risultano così strani anche quando non sembrano fatti male. Il problema, osserva l’utente, è proprio che suonano troppo perfetti: troppo concisi, troppo lineari, troppo continui. Nessun essere umano, nemmeno un grande divulgatore, parla per un’ora intera in modo così impeccabile. E poi ci sono piccoli segnali nell’intonazione, nei punti in cui la voce sembra comprendere la grammatica ma non del tutto il significato della frase.
In un’altra discussione su Reddit, pubblicata su r/IsaacArthur, un utente spiega molto bene il disagio provocato da questi contenuti. Il punto non è soltanto la possibilità che il video sia falso. È il fatto che il cervello, davanti a un volto credibile e a una voce familiare, tende a registrarlo subito come una rappresentazione vera della persona, anche quando si tratta solo di un montaggio artificiale di immagini, audio e testo fuori contesto.
Quando la perfezione diventa sospetta
Questo post non riguarda soltanto i video falsi di Feynman. Riguarda il modo in cui riconosciamo il vero in rete. Una meta-analisi pubblicata nel 2024, basata su 56 studi e 86.155 partecipanti, ha mostrato che gli esseri umani, nel complesso, riconoscono i deepfake solo poco meglio del caso. Tradotto in linguaggio semplice: non siamo affatto così bravi a distinguere un contenuto falso da uno autentico, soprattutto quando la manipolazione è ben fatta.
Questo aiuta a spiegare perché tanti video sintetici funzionino così bene. Non servono effetti speciali vistosi. Basta un volto credibile, una voce rassicurante e un testo scritto con tono didattico. A quel punto il nostro cervello completa il resto.
L’UNESCO ha richiamato l’attenzione anche su un altro aspetto: l’esposizione ripetuta ai deepfake può aumentare la credibilità della disinformazione. In pratica, più vediamo contenuti di questo tipo, più rischiamo di abbassare la soglia di diffidenza. Non perché diventiamo ingenui, ma perché la ripetizione modifica il nostro rapporto con ciò che vediamo.
Il quadro generale va nella stessa direzione. Un rapporto dell’Organizzazione per la Cooperazione e lo Sviluppo Economico pubblicato nel 2026 osserva che i rischi legati alla synthetic media, cioè ai contenuti sintetici come video, immagini e voci artificiali, sono cresciuti in modo netto tra il 2022 e il 2025.
Non si tratta più di un fenomeno marginale o curioso, è diventato un problema strutturale dell’ecosistema informativo.
Nel caso di Feynman, il dubbio è ancora più ragionevole
Esiste naturalmente materiale autentico di Richard Feynman. Il sito del California Institute of Technology mette online testi, foto e registrazioni delle lezioni del 1961-64. Esistono anche vere video-lezioni, come le Messenger Lectures del 1964. Proprio per questo conviene fare una distinzione semplice: un conto è consultare archivi verificabili, un altro è imbattersi in canali che pubblicano lunghi filmati in cui personaggi morti da decenni sembrano parlarci oggi con una fluidità quasi contemporanea, senza spiegare chiaramente l’origine del materiale.
Quando manca la provenienza, il problema non è soltanto tecnico. Diventa culturale. Perché sfrutta la reputazione di una persona reale, il prestigio di una voce storica e la disponibilità emotiva di chi guarda. Un conto è usare l’intelligenza artificiale per restaurare un documento o migliorare un audio d’archivio. Un altro è costruire un discorso nuovo, metterlo nella bocca di un morto e lasciar intendere che sia autentico.
Come verificare questi video in pochi minuti
Se vi trovate davanti a un video storico sorprendentemente perfetto, controllate tre cose: l’origine precisa del filmato, la chiarezza della descrizione e l’esistenza di un archivio istituzionale che lo confermi. Se questi tre elementi mancano, la cautela è pienamente giustificata.
Perché YouTube permette tutto questo?
La risposta, almeno in parte, è nelle regole della piattaforma. YouTube richiede ai creator di dichiarare quando un contenuto è “meaningfully altered” oppure “synthetically generated” e appare realistico. Questo include anche casi in cui una persona reale viene fatta sembrare intenta a dire o fare qualcosa che non ha mai detto o fatto. In teoria, quindi, un video che usa il volto o la voce di Feynman per leggere un copione nuovo dovrebbe essere chiaramente segnalato.
In pratica, però, la trasparenza è spesso debole. La stessa documentazione di YouTube spiega che l’etichetta compare spesso nella descrizione estesa del video. Per i temi considerati sensibili, come elezioni, salute, finanza, conflitti o disastri, può comparire anche un avviso più visibile nel player. Questo spiega perché molti utenti non si accorgano subito di nulla: il segnale esiste, ma può restare laterale, quasi nascosto rispetto alla forza del video.
Inoltre, secondo YouTube, dichiarare che un contenuto è alterato o sintetico non limita automaticamente la sua diffusione e non lo rende nemmeno non monetizzabile. Questo significa che la disclosure, da sola, non interrompe il meccanismo economico che spinge questi contenuti a moltiplicarsi.
Per i casi in cui l’immagine o la voce di una persona vengano imitate artificialmente, YouTube prevede anche richieste di rimozione. Però il sistema resta in gran parte basato su autodichiarazione, segnalazioni e reclami.
Chi pubblica carica. Chi subisce o chi nota il problema segnala.
Nel frattempo il video può già aver raccolto visualizzazioni, fiducia e guadagni.
E non dimentichiamoci la questione etica
C’è poi una domanda più profonda, che va oltre la tecnologia e oltre le regole delle piattaforme: è giusto mettere in bocca a una persona morta parole che non ha mai pronunciato?
Nel caso di Richard Feynman, il problema pesa ancora di più perché parliamo di uno studioso reale, con un suo stile, un suo rigore, una sua voce intellettuale molto riconoscibile. Non possiamo sapere che cosa penserebbe oggi vedendo il proprio volto usato per attirare clic e guadagni. Possiamo però dire con una certa sicurezza che attribuire a qualcuno frasi scritte da algoritmi, o da autori anonimi, altera il rapporto tra quella persona e il pubblico. Chi guarda non riceve più il pensiero di Feynman, ma una sua imitazione persuasiva. E quando un personaggio storico viene trasformato in un pupazzo digitale che recita testi nuovi, il danno riguarda anche la memoria culturale: si consuma lentamente la distinzione tra ciò che quella persona ha davvero detto, pensato e lasciato in eredità, e ciò che altri le fanno dire oggi per convenienza, intrattenimento o profitto.
Usare il volto di una persona scomparsa per farle pronunciare parole mai dette significa appropriarsi della sua autorevolezza. Chi ascolta si fida di un nome reale, mentre il contenuto nasce altrove. Ed è proprio questa sostituzione silenziosa a rendere il fenomeno così problematico.
Ci possiamo ancora fidare di internet?
Il punto, alla fine, non è soltanto stabilire se un singolo video sia falso ma capire che cosa succede quando il falso smette di presentarsi come falso. Quando assume la forma di una lezione ben fatta, di una voce autorevole, di uno sguardo diretto in camera. Quando si presenta come cultura, divulgazione, memoria storica.
Il National Institute of Standards and Technology negli Stati Uniti insiste su un’idea importante: per ridurre i rischi dei contenuti sintetici non basta contare sull’occhio umano. Servono sistemi di provenienza, tracciabilità, etichette chiare e strumenti tecnici che aiutino a capire da dove arriva davvero un file. È un passaggio fondamentale, perché affidarsi soltanto all’intuizione dello spettatore non è sufficiente.
In Europa, l’AI Act dell’Unione Europea è entrato in vigore il 1 agosto 2024 e diventerà pienamente applicabile dal 2 agosto 2026. Tra i suoi obiettivi ci sono anche obblighi di trasparenza per i contenuti generati o manipolati artificialmente. Un passaggio utile, ma che da solo non risolve tutto. La chiarezza concreta dipenderà da come le piattaforme mostreranno le etichette, da quanto saranno leggibili e da quanta responsabilità si assumeranno nella distribuzione dei contenuti.
Che programmi usano per creare video così realistici?
Di solito non c’è un solo programma, ma una piccola catena di strumenti.
Oggi esistono servizi che clonano una voce partendo da pochi minuti di audio, piattaforme che animano un volto o un avatar da una foto o da un video, e sistemi capaci di sincronizzare il movimento delle labbra con il parlato in modo sorprendentemente preciso. In altre parole, non serve una tecnologia segreta. Basta assemblare strumenti ormai commerciali, relativamente accessibili e sempre più convincenti. Nel caso di un falso Feynman, senza i file originali non possiamo sapere quale software sia stato usato davvero. Possiamo però capire perché l’effetto funzioni così bene: mette insieme tre segnali che il nostro cervello associa subito all’autenticità, cioè un volto familiare, una voce riconoscibile e un discorso fluido. Ed è proprio questa facilità di montaggio, più ancora della singola tecnologia, a rendere il fenomeno così inquietante.
Dopo quel video, il mio rapporto con internet non è più lo stesso
Da quella sera, dopo aver visto quel video, il mio rapporto con internet è cambiato in modo sottile. Mi è rimasta addosso una domanda più ampia: che cosa succede alla fiducia quando una piattaforma vi mostra il dubbio in piccolo, mentre sullo schermo occupa tutto la ricostruzione artificiale? Forse la parte più seria della faccenda riguarda la normalizzazione di contenuti sintetici che si travestono da memoria, divulgazione e autenticità. Quando arriviamo a quel punto, il problema non è più solo riconoscere il falso, ma imparare di nuovo a domandarci da dove viene ciò che stiamo guardando, chi lo ha costruito e perché.
Pagine web per approfondire 🐌🔍
- YouTube Help: disclosure dei contenuti alterati o sintetici
- YouTube Help: segnalare contenuti sintetici che imitano una persona
- California Institute of Technology: archivio ufficiale delle lezioni di Richard Feynman
- National Institute of Standards and Technology: rapporto sui rischi dei contenuti sintetici
- UNESCO: deepfakes e crisi della fiducia
- OECD: trends in AI incidents and hazards reported by the media
- Commissione europea: AI Act e calendario di applicazione




Leave a Reply