Hoe AI-beelden nog moeilijker te onderscheiden worden van echt: Sora 2, de nieuwe videogenerator van OpenAI
In dit artikel:
OpenAI lanceerde begin oktober in de VS en Canada Sora 2, een nieuwe AI-videogenerator die op basis van tekst hyperrealistische filmpjes creëert. Sindsdien circuleren op TikTok en Instagram massaal door het model gemaakte beelden die soms nauwelijks van echt te onderscheiden zijn. In Nederland worden onder meer vervalste NOS-journaals verspreid waarin wordt gemeld dat 50cc-scooters vanaf 2026 verboden zouden worden of waarin het jeugdjournaal praat over fictieve “labubu’s” die kinderen superkrachten geven. Veel clips ogen geloofwaardig, al zijn er soms opvallende fouten (zoals een zwevende microfoon of een gefingeerd woord in beeld).
Op Instagram verschijnen nep-archiefreclames waarin gevaarlijke producten worden aangeprezen — bijvoorbeeld asbest- dekenaanbiedingen of melk met lood — afkomstig van het account van een Amerikaanse programmeur. Daarnaast circuleren humoristische, maar ethisch beladen scènes met overleden beroemdheden, zoals Stephen Hawking op een skateramp of Michael Jackson die kip steelt bij KFC.
OpenAI zegt dat Sora 2 nu nog watermerken toevoegt, maar het is onzeker hoe lang dat zo blijft; het vorige model Sora 1 kon al zonder watermerk video’s genereren voor ChatGPT Pro-gebruikers. De snelle verbeteringen in AI-video maken het steeds moeilijker om echt nieuws van gemanipuleerde beelden te onderscheiden, wat vragen oproept over misinformatie, publieke veiligheid (bijvoorbeeld gevaarlijke adviezen in nepreclames) en de noodzaak van verificatie-, waarschuwingstechnieken en regulering.