Anthropic houdt AI-model voorlopig achter slot: 'Een soort digitale koevoet'
In dit artikel:
Het Amerikaanse bedrijf Anthropic heeft een zeer krachtig AI-model ontwikkeld dat zich bewezen heeft in het vinden (en zelfs misbruiken) van softwarelekken. Uit testgebruik kwam naar voren dat het model zelfstandig een 27 jaar oude kwetsbaarheid in OpenBSD detecteerde — een besturingssysteem dat binnen de sector juist bekendstaat om zijn strikte beveiliging. Omdat het systeem ook in verkeerde handen tot gevaarlijk gereedschap kan verworden, geeft Anthropic het model niet vrij aan het publiek maar maakt het alleen beschikbaar voor ongeveer veertig technologiebedrijven, waaronder Apple, Microsoft en Google, binnen een programma dat Project Glasswing heet.
De naam verwijst naar de glasvlinder: bijna onzichtbare vleugels als metafoor voor jaren onopgemerkte beveiligingslekken. De geselecteerde bedrijven mogen het model inzetten om hun software op zwakke plekken te doorzoeken en zo kwetsbaarheden eerder te vinden en te dichten. Anthropic presenteert dit als een verantwoorde aanpak; het bedrijf probeert zich daarmee te onderscheiden — deels ook omdat het eerder dit jaar in aanvaring kwam met het Amerikaanse ministerie van Defensie over voorwaarden voor militair gebruik.
Cybersecurityspecialisten reageren gemengd maar waarschuwend. Dave Maasland (ESET) karakteriseert het instrument als een “digitale koevoet”: nuttig voor verdedigers, maar tegelijk een enorm risico als misbruikt door criminelen. Volgens Maasland gaat het model verder dan eerdere scanners: het kan niet alleen zien waar een lek zit, maar ook hoe het exploitabel is — “alsof je in de muur ziet waar de scheur is, maar ook met een hamer door die muur kunt komen.” Sijmen Ruwhof waarschuwt dat AI zich sneller ontwikkelt dan menselijke tegenreacties en vindt het verstandig dat Anthropic voorlopig terughoudend is, zodat grote spelers eerst hun systemen kunnen versterken.
Tegelijk is er een spanningsveld tussen ethiek en commercie: concurrenten werken eveneens aan krachtige modellen en marktdruk kan bedrijven ertoe brengen minder rigoureus te zijn met beperkingen. Experts roepen vooral op tot betere basisbeveiliging bij organisaties — betere patching, toegangscontrole en prioritering van cyberhygiëne — om te voorkomen dat zulke krachtige AI’s onbedoeld als sloopkogels fungeren.