- datialdente
- Posts
- Una firma luminosa per difendersi dai deepfake
Una firma luminosa per difendersi dai deepfake
Una delle sfide più urgenti dell’era AI è stabilire se ciò che vediamo è reale. La generazione automatica di video realistici, facilitata da modelli sempre più potenti, sta rendendo difficile distinguere un contenuto autentico da un falso credibile. Mentre molte soluzioni cercano di identificare i fake, un nuovo approccio punta invece a proteggere l’originale fin dall’inizio. E parte dalla luce. Un team della Cornell University ha sviluppato un sistema che inserisce un segnale invisibile nei video registrati, grazie a un pattern di luce modulata proiettata durante la ripresa. Questo watermark non si basa su software o post-produzione, ma viene incorporato fisicamente nel video al momento dell’acquisizione, rendendo più difficile per i deepfake copiare o manipolare il contenuto senza lasciare tracce.
Cos’è il watermarking ottico e perché è importante
Il watermarking digitale esiste da tempo, ma è facilmente rimuovibile o non visibile nei formati compressi. L’idea di Cornell è diversa perché il segnale è nella luce stessa, modulata in modo da essere impercettibile all’occhio umano ma leggibile da un algoritmo. Quando un video originale contiene questo “codice segreto”, può essere autenticato, e ogni sua alterazione può essere rilevata. Il sistema, chiamato Optical Watermarking for Authenticated Video, è stato presentato a luglio 2025 e nasce dalla collaborazione tra il Dipartimento di Electrical and Computer Engineering di Cornell e lo University College London. È stato testato con diverse fotocamere e proiettori a LED, mostrando accuratezza di rilevamento fino al 98% anche dopo editing, compressione e ritagli.
Perché serve ora
Negli ultimi 12 mesi, l’uso di AI generativa per produrre contenuti video è esploso. Secondo Stanford HAI Index 2025, il numero di video generati tramite modelli come Sora o Runway è cresciuto del +387% rispetto all’anno precedente. La qualità è tale da trarre in inganno anche osservatori esperti. Le conseguenze sono concrete come la diffusione di contenuti falsi in politica, truffe video simulate nel customer care, manipolazione di testimonianze nei processi giudiziari. L’AI non è più solo uno strumento creativo, ma un potenziale vettore di disinformazione. In questo scenario, dimostrare l’autenticità di un contenuto video diventa una priorità. La soluzione di Cornell è molto interessante perchè non serve analizzare milioni di dati per scoprire se un video è falso, basta verificare la presenza o meno della firma luminosa originale.
A chi serve davvero
L’applicazione più immediata è per chi produce contenuti autentici in contesti ad alta sensibilità:
Giornalismo e media, per garantire che le immagini e video provengano da fonti verificate
Corpi di polizia e magistratura, per autenticare prove video
Customer service o onboarding video, per dimostrare che una persona reale ha compiuto un’azione
Ambito industriale e manifatturiero, per tracciare ispezioni o registrazioni di sicurezza non alterate
Ma in prospettiva può diventare una feature di sistema utilizzato come filtro per le piattaforme che devono distinguere contenuti generati da AI rispetto a quelli autentici.
Una strategia solida
Il caso Cornell è esemplare dove l’autenticità di un contenuto non si protegge a valle, ma si garantisce a monte, progettando i dati stessi in modo che portino con sé un’identità verificabile. È un ribaltamento della logica che evita di inseguire i falsi, e invece lavora per blindare l’originale. Per le aziende che stanno investendo in AI, è un segnale interessante che ci dice che la fiducia non passa solo dal modello, ma dalla qualità e tracciabilità dei dati. Ogni layer tipo input, elaborazione, output va pensato con una logica di governance.