Trump die broek van Clinton losmaakt en Melania die kust met Epstein: deze valse beelden komen zogezegd uit Epstein-files

dinsdag, 23 december 2025 (15:35) - VRT Nieuws

In dit artikel:

Op sociale media circuleren beelden die zogenaamd uit de vrijgegeven Epstein-documenten zouden komen, maar twee veelgeplaatste foto’s blijken vervalsingen gemaakt met AI. Het gaat vooral om: 1) een afbeelding waarin Donald Trump op zijn knieën lijkt te zitten vóór Bill Clinton, en 2) een foto waarop Melania Trump en Jeffrey Epstein elkaar zouden zoenen. Geen van beide foto’s is terug te vinden in de door het Amerikaanse ministerie van Justitie vrijgegeven documenten.

Het Trump–Clinton‑beeld oogt overtuigend: Trump gebogen voor Clinton, met een datum uit 2004 en een verouderde kleurtoon. Onderzoek wijst echter uit dat het kunstmatig is geproduceerd. Detectie door SynthID — een testfunctie van Google/DeepMind die onzichtbare digitale watermerken in AI‑gecreëerde content zet — geeft aan dat de afbeelding geheel of gedeeltelijk met Google‑AI is gemaakt. BBC‑factcheckers en Franse collega’s van TF1 bevestigden deze detectie; ook zoekinformatie van Google noemt “AI van Google” als maker. Daarnaast klopt de gezichtsuitstraling niet met andere foto’s uit die periode: Clinton’s haar was na zijn hartoperatie van september 2004 duidelijk witter dan op de bewerkte afbeelding.

Het beeld van Melania en Epstein draagt eveneens aanwijzingen van synthetische afkomst: gezichten die onnatuurlijk versmelten en een zichtbaar Gemini‑logo (de AI‑assistent van Google) in de hoek. Google’s afbeeldingsinformatie noemt ook hier AI‑generatie. Daarom classificeren factcheckers beide foto’s als onwaar.

Achtergrond: de vrijgave van een deel van de Epstein‑dossiers leidde tot veel online speculatie, onder andere vanwege verwijzingen in mails (zoals de bijnaam ‘Bubba’) die vragen opriepen over wie op bepaalde foto’s te zien zou zijn. Dergelijke geruchten stimuleren het maken en delen van vertekende beelden.

Aanbeveling: controleer afbeeldingen via betrouwbare factcheckers en hulpmiddelen zoals Google’s “Over deze afbeelding”, let op watermerken of AI‑logo’s, en wees terughoudend met virale beelden zonder bronvermelding. AI‑tools kunnen realistische nepbeelden produceren en bestaande zoek‑/chatbots geven niet altijd foutloze verificatie. Voor verdere verificatie kun je terecht bij erkende factcheckingorganisaties.