The world must stop AI from empowering bioterrorists
In dit artikel:
Anthropic’s interne model Mythos toont dat AI snel ook supermenselijke vaardigheden op biomedisch terrein kan bereiken. Recent behaalde het model bij een set van de moeilijkste taken die biologen hebben samengesteld sterke resultaten: op ongeveer een derde van die opdrachten presteerde Mythos beter dan alle geteste mensen, waaronder het reconstrueren van een celtype uit ruwe DNA-gegevens. Omdat Anthropic het model niet publiek wil uitbrengen, is het al beschouwd als risicovol—en de gevolgen zijn groot.
De kernzorg is dat zulke systemen mensen kunnen helpen om dodelijke middelen te ontwerpen: van het synthetiseren van virussen en het bedenken van nieuwe neurotoxines tot het samenstellen van hypothetische ‘mirror life’-vormen. In tegenstelling tot softwarefouten biedt biologie geen ruime marge om te leren van fouten; één mislukte uitbraak kan catastrofaal zijn. Daarom vergelijken de auteurs de dreiging met kernwapens: sommige capaciteiten mogen nooit in de openbaarheid terechtkomen.
Huidige publieke AI-modellen zijn vooral theoretisch ‘boekwijs’ en bieden nog weinig praktische hulp in het laboratorium. Maar ontwikkelaars zoals Anthropic waarschuwen dat hun systemen snel praktisch bruikbaar kunnen worden om ook onervaren personen door complexe experimenten te leiden. Cruciaal is dat de praktische capaciteiten van veel geavanceerde, niet-openbare modellen nauwelijks zijn getest — ze kunnen dus al meer kunnen dan bekend is.
Bestaande mitigaties schieten tekort. Het laten weigeren van gevaarlijke verzoeken helpt maar is te omzeilen; een recente studie toonde dat een groot deel van proefpersonen toch vitale virologie-informatie kon ontlokken. Het weglaten van gevoelige trainingsdata kan falen omdat krachtige modellen kennis uit eerste principes kunnen afleiden. Regulering van leveranciers (zoals DNA-synthesebedrijven) en strengere 'know your customer'-regels helpen deels, maar biowetenschap gebruikt veelal breed beschikbare apparatuur en grondstoffen, waardoor toezicht moeilijk is.
De oplossing vraagt fundamenteel nieuw onderzoek: technieken om getrainde modellen ‘operatief’ aan te passen, neurale componenten die risicovolle capaciteiten genereren uit te schakelen, of modellen opzettelijk fout te laten gaan in gevaarlijke domeinen. Tot zulke methoden bestaan, pleiten de auteurs dat overheden de toegang tot risicovolle systemen moeten beperken—vooral open-source modellen die niet terug te halen zijn. Tegelijkertijd moeten legitieme onderzoekers onder strikte beveiligingsprotocollen toegang houden, want AI kan ook levensreddende toepassingen versnellen (bijv. nieuwe kankertherapieën). Het dilemma is dus urgent: hoe maximaliseer je het positieve potentieel van AI in de biowetenschap zonder onverantwoorde risico’s voor de mensheid te creëren.