Na deepfake seksvideo van leerkracht: Mediawijs krijgt meer en meer vragen van scholen over AI-beelden
In dit artikel:
Het Vlaamse kenniscentrum Mediawijs merkt een stijging van meldingen van scholen over valse beelden en video's van leerlingen en leerkrachten — soms expliciet en zogenaamd “naakt” — die met betaal- en gratisapps gemaakt worden. Recent lag het Koninklijk Atheneum in Berchem onder de loep nadat leerlingen een volledig geposte nepvideo verspreidden waarin een leerkracht seksuele handelingen zou verrichten; die beelden bleken volgens Mediawijs volledig gemanipuleerd.
Zara Mommerency van Mediawijs zegt dat scholen tegenwoordig vaker aankloppen voor advies over deepfakes en “deepnudes”. Het probleem is niet alledaags maar neemt toe, mede doordat vrij toegankelijke AI-toepassingen het maken van realistische valse beelden sterk vereenvoudigen. Voorbeelden van zulke technologieën zijn generatieve chatbots en beeldmodellen zoals Grok (van Elon Musks xAI), die de voorbije maanden wereldwijde kritiek kreeg omdat er met gewone foto’s naaktbeelden — ook van kinderen — te maken waren; het bedrijf voerde daarna beperkingen in, maar testen van onder meer VRT NWS toonden dat expliciete beelden nog steeds mogelijk zijn.
Mediawijs benadrukt preventie: scholen moeten een duidelijk mediawijs-beleid opstellen — een soort schoolreglement met afspraken over cyberpesten, desinformatie en sexting — zodat deze kwesties bespreekbaar worden en leerlingen weten waar ze terechtkunnen. Mommerency wijst er ook op dat technologisch snelle ontwikkelingen het moeilijk maken om altijd bij te benen en dat ook technologiebedrijven verantwoordelijkheid moeten dragen om misbruik te beperken.
Kort samengevat: de opkomst van goedkope AI-tools vergroot de kans op schadelijke, vervalste beelden binnen scholen, waardoor onderwijsinstellingen behoefte hebben aan beleid, meldprocedures en educatie rond digitale weerbaarheid — en aan strengere maatregelen van leveranciers en toezichthouders om misbruik te ontmoedigen.