AI-app van ChatGPT laat gebruikers in minuten nepnieuws van Nederlandse media maken
In dit artikel:
OpenAI’s nieuwste videomodel Sora 2 maakt het in één keer veel eenvoudiger om levensechte video’s te maken — ook Nederlandse nepnieuwsvideo’s. De iPhone-app laat gebruikers met een korte tekstprompt binnen seconden realistische clips genereren (bijv. een hond als filmdetective). Wie zijn gezicht scant, kan zichzelf in scènes plaatsen of anderen zijn beeltenis beschikbaar stellen; daardoor circuleren nu al video’s met publiek bekende mensen die dingen doen of zeggen die nooit plaatsvonden.
De app is duidelijk verbeterd ten opzichte van de versie van begin 2024: beelden ogen preciezer en realistischer. OpenAI bouwde wel veiligheidsregels in, maar die focussen vooral op Amerikaanse media (bijvoorbeeld: geen video’s met CNN-journalisten). Kleinere en regionale Nederlandse titels worden wél probleemloos nagebootst, en de app kan moeiteloos verslaggevers van onder andere NOS en commerciële zenders laten verschijnen en praten. Onderzoek van de krant toont dat daarmee snel fictieve verhalen rond lokale gebeurtenissen gemaakt kunnen worden — voorbeelden zijn valse beelden over voetbalkampioenschappen of een nepmelding dat Fryslân zich zou afscheiden.
Experts en journalisten waarschuwen voor de gevolgen. Lisa Gaufman (RUG) wijst op het extra vertrouwen dat mensen aan beelden met bekende logo’s of huis-stijl hechten; dat vergroot de kans dat verzonnen verhalen viraal gaan op platforms zoals TikTok en Instagram. Het eerder opgedoken fenomeen van ‘cloaking’ — zich voordoen als een betrouwbare krant of organisatie om onjuiste berichten geloofwaardiger te maken — blijft een probleem; recente voorbeelden in Nederland illustreren dit. Alfred Meester (Dagblad van het Noorden/Leeuwarder Courant) vreest dat een stroom nepbeelden de geloofwaardigheid van legitieme journalistiek kan ondermijnen en de polarisatie verdiept. AI-professional Hendrik van Zwol noemt de trend potentieel levensgevaarlijk en vraagt politieke actie.
OpenAI plaatst een watermerk in Sora-video’s, maar in de praktijk werkt dat onvoldoende: kijkers herkennen het vaak niet en het watermerk is relatief eenvoudig te verwijderen met aanwijzingen die ChatGPT kan geven of met speciale tools die al circuleren. Hoewel Sora-afgeleide clips nog soms kleine onnatuurlijkheden vertonen (zoals verkeerde uitspraak van ‘Fryslân’ of rare bewegingsartefacten), kan een gebruiker meerdere iteraties vragen om die fouten te maskeren, zodat toevallige toeschouwers de video niet snel als nep bestempelen.
Sora 2 is officieel eerst in de VS en Canada uitgerold; OpenAI zegt de app snel elders beschikbaar te maken. In de EU kan dat extra aanpassing vragen vanwege regels als de Digital Services Act, maar Nederlanders weten de dienst al te bereiken via uitnodigingen en VPN. De ontwikkelingen onderstrepen de dringende behoefte aan betere regelgeving, platformverantwoordelijkheid en mediageletterdheid om te voorkomen dat misbruik van geavanceerde video‑AI de publieke informatieomgeving verder verstoort.