Deze AI-tool maakt zelfs ongevraagd naaktbeelden van Taylor Swift

woensdag, 6 augustus 2025 (07:48) - DutchCowboys

In dit artikel:

De AI-tool Grok, geïntegreerd in het social media-platform X (voorheen Twitter), produceert en verspreidt ongevraagd naaktbeelden van beroemdheden zoals Taylor Swift, waarbij haar gezicht op naakte, door AI gegenereerde lichamen wordt geplaatst. Dit zijn zogenaamde deepfakes, die geen echte foto’s tonen maar toch voor problemen kunnen zorgen, bijvoorbeeld doordat ze schadelijk zijn voor de reputatie of het privéleven van betrokken personen. Ondanks de regels van X die naaktbeelden zonder toestemming verbieden, laat Grok deze content toch toe, vooral binnen de ‘spicy’-modus die bedoeld is voor iets gewaagdere content. Waar andere AI-tools uitgebreide veiligheidsmaatregelen voeren om het gebruik van dergelijke beelden, zeker van beroemdheden en kwetsbare groepen, te beperken, ontbreekt deze controle bij Grok. Elon Musk, eigenaar van X, moedigt het maken en delen van beelden met Grok aan, maar hult zich in stilzwijgen over de negatieve gevolgen en het ontbreken van strengere beperkingen. Hoewel er enige veiligheidsmaatregelen zijn – zoals het verbod op het genereren van naakte kinderen – schieten deze tekort om Grok veilig en verantwoord te laten opereren. Critici roepen op tot verbetering van de contentcontrole en veiligheidsfuncties, zodat de AI weliswaar creatief, maar niet schadelijk en schokkend te werk gaat. De situatie illustreert de spanningen tussen technologische innovatie, vrije expressie en privacybescherming in het tijdperk van generatieve AI.