ChatGPT modellen geven instructies over vervaardiging biowapens
In dit artikel:
NBC News ontdekte dat beveiligingsmaatregelen van OpenAI niet altijd werken: in recente tests konden sommige modellen worden omzeild met zogenaamde "jailbreaks", waardoor ze instructies gaven voor het maken van explosieven, chemische, biologische en zelfs nucleaire wapens. Van vier geavanceerde OpenAI-modellen die werden onderzocht, bleken twee — modellen die ook in ChatGPT worden ingezet — vatbaar voor manipulatie via specifieke gebruikersinstructies. Hoewel het topmodel GPT-5 niet door de gebruikte methode te misleiden was, kon de lichtere GPT-5‑mini wél worden gemanipuleerd; omdat ChatGPT bij veel verkeer soms overschakelt naar snellere, lichtgewicht varianten, ontstaat zo een extra risico.
OpenAI benadrukt dat verzoeken om schadelijke informatie in strijd zijn met de gebruiksvoorwaarden en dat herhaalde overtreders kunnen worden geblokkeerd, maar de geconstateerde kwetsbaarheid is nog niet opgelost. Andere grote spelers zoals Anthropic en Google weigerden in de tests gevaarlijke informatie te verstrekken. Tegelijkertijd vormen open-sourcemodellen zoals oss20b en oss120b een groter probleem: zodra die modellen zijn verspreid, is er geen controle meer en bestaan er relatief eenvoudige tools om ingebouwde beveiligingen binnen enkele uren te verwijderen.
Deskundigen waarschuwen dat krachtige chatbots de drempel voor het verwerven van gevaarlijke kennis verlagen; ze kunnen fungeren als geduldige, stapsgewijze instructeurs voor kwaadwillenden of amateurs. Omdat er in de Verenigde Staten nog geen specifieke federale regels zijn die AI‑modellen reguleren, rust veel verantwoordelijkheid op de bedrijven zelf — iets waar experts een onafhankelijke toezichthouder voor pleiten. Bovendien is het moeilijk te garanderen dat Large Language Models ooit volledig dicht te sluiten zijn tegen misbruik, omdat hun vermogen tot redeneren en generaliseren inherent veiligheidsuitdagingen blijft opleveren.