Categories: Attualità

Zelensky e Jeffrey Epstein: smascherate le foto false create dall’Intelligenza Artificiale

Published by
Redazione

Volodymyr Zelensky, il presidente ucraino, accanto a Jeffrey Epstein, il finanziere noto per accuse di abusi su minori: questa è l’immagine che ha fatto il giro del web nelle ultime ore. Fotografie apparentemente rubate da telecamere di sorveglianza in una delle ville di Epstein, condivise su Facebook e altri social, che suggeriscono un legame tra i due, magari proprio sull’isola privata del controverso personaggio. Ma la realtà è un’altra, e più inquietante. Dietro quei pixel si nasconde un deepfake, creato con l’intelligenza artificiale di Google, capace di ingannare anche chi guarda con attenzione. I falsi digitali non sono più solo un rischio lontano: sono qui, e sanno come sembrare veri.

Immagini virali e teorie complottiste sui social

Il collage fotografico, rilanciato da decine di utenti, mostra quattro immagini che dovrebbero ritrarre Zelensky e Epstein in incontri privati. Le didascalie che accompagnano i post parlano di misteri, traffici di adolescenti, laboratori segreti in Ucraina e “centrali di destabilizzazione politica di estrema destra”. Non manca chi insinua silenzi e omertà attorno alla vicenda. La versione più diffusa sostiene addirittura che Zelensky abbia passato delle vacanze sull’isola di Epstein, ripreso dalle telecamere di sorveglianza. Alcuni utenti ringraziano chi ha condiviso le immagini, lamentando una possibile censura da parte dei social network.

Tuttavia, nessuno di questi racconti si basa su prove concrete. Non esistono documenti ufficiali o testimonianze affidabili che confermino tali incontri. Il messaggio punta più a seminare dubbi che a mostrare fatti, sfruttando la viralità di immagini manipolate per alimentare teorie complottiste. Il timore di censura da parte di piattaforme come Facebook è evidente, ma non scalfisce la natura artificiale e sospetta delle foto diffuse.

Alla ricerca dell’origine: un trucco ben architettato

Per capire da dove venissero queste immagini, è stata fatta una ricerca inversa. I fotogrammi non portano a nessuna fonte attendibile legata a Epstein, ma a un sito russo, Fotostrana, dove è stata trovata una versione del collage datata addirittura 11 aprile 2026, quindi nel futuro. Curioso anche il fatto che quella versione fosse specchiata rispetto a quella vista sui social, un espediente comune nei contenuti manipolati per confondere chi cerca di verificare.

L’account su X “@DanielGilr44222” ha rilanciato le immagini il 13 aprile, accompagnandole con messaggi che suggeriscono un rapporto stretto tra Zelensky e Epstein, ipotizzando incontri privati sull’isola del finanziere. Queste mosse sono tipiche delle campagne di disinformazione, che puntano a creare flussi di notizie apparentemente credibili proprio grazie alla qualità visiva dei contenuti.

Il watermark invisibile che smaschera il falso

La prova decisiva arriva da un’analisi tecnica fatta con Gemini, un sistema di intelligenza artificiale sviluppato da Google. Questo programma individua un watermark invisibile, chiamato “SynthID”, che viene inserito automaticamente nei file generati dall’AI. Nel collage in questione, il watermark è presente nell’immagine in alto a sinistra.

Ulteriori controlli con lo strumento online “AI or Not?” hanno confermato che tutte le immagini sono deepfake, cioè fotomontaggi creati artificialmente e non fotografie autentiche prese da telecamere reali.

Deepfake e fake news: una sfida sempre più grande

L’uso di deepfake e immagini generate al computer è diventato un problema serio per chi si occupa di verificare le notizie online. Le tecnologie AI sono sempre più abili a creare volti, ambienti e situazioni convincenti, rendendo difficile capire cosa è vero e cosa no. Chi fabbrica queste immagini false sfrutta la disinformazione per diffondere accuse infondate, spargere sospetti politici e alimentare complotti.

Questo caso si inserisce nel più ampio sforzo di contrastare le fake news. Alcune piattaforme, come Meta, stanno lavorando a sistemi automatici e a gruppi di verificatori umani per individuare e bloccare contenuti manipolati. L’obiettivo è limitare la diffusione di storie costruite su menzogne, proteggendo così la qualità del dibattito pubblico.

L’intelligenza artificiale rimane uno strumento prezioso se usata bene, ma diventa pericolosa quando serve a diffondere falsità. In questa vicenda, il semplice controllo su un watermark invisibile ha permesso di smascherare in fretta un falso che avrebbe potuto fuorviare l’opinione pubblica in modo grave e strumentale. “Un esempio lampante di come la tecnologia può essere manipolata per scopi malevoli.”

Redazione

Recent Posts

Biagio Antonacci torna con il nuovo singolo You & Me: anteprima del tour estivo acustico

«You & Me», il nuovo singolo di Biagio Antonacci, arriva a rompere il silenzio che…

5 ore ago

Abbuffate alcoliche in Italia: 4,5 milioni coinvolti e 79mila minori a rischio secondo il rapporto ISS 2024

Oltre 8,7 milioni di segnalazioni di prodotti pericolosi e danni: è questo il bilancio che…

6 ore ago

Mps, scontro decisivo tra Caltagirone e Del Vecchio per i vertici: ecco chi voterà cosa in assemblea

A Lussemburgo, ieri, il consiglio di amministrazione di Delfin ha preso una decisione destinata a…

7 ore ago

Borromini debutta con La Mareviglia: il cantautore neoclassico celebra lo stupore e l’emozione nel nuovo album

Quando è stata l’ultima volta che ti sei davvero meravigliato? Borromini, cantautore che fonde folk…

8 ore ago

Scandalo asilo nel Regno Unito: avvocati pagano migranti per fingere orientamento sessuale e ottenere protezione

“Dichiaro di essere gay.” Bastano poche parole, ma possono cambiare una vita. Almeno così sembra…

12 ore ago

Premier League 2023: AI di Google, OpenAI, Anthropic e XAI falliscono il test scommesse e vanno in bancarotta

La Premier League 2023 ha messo in crisi anche le intelligenze artificiali più sofisticate. Google,…

13 ore ago