Ruzie tussen het Pentagon en een AI-bedrijf: waarvoor mag je AI inzetten?
In dit artikel:
De Amerikaanse minister van Defensie Hegseth en het AI-bedrijf Anthropic botsen over de grenzen van militair gebruik van generatieve AI. Vorig jaar sloot Anthropic een Pentagon-contract van ongeveer 200 miljoen dollar; begin dit jaar stuurde Hegseth een memo waarin hij stelde dat AI-toepassingen in principe voor elk doel ingezet mogen worden zolang dat wettelijk is toegestaan. Anthropic verzet zich fel: het wil expliciet voorkomen dat zijn modellen gebruikt worden voor massasurveillance of voor autonome wapensystemen die beslissingen over leven en dood nemen.
Anthropic profileert zich als voorvechter van “verantwoorde AI”. Het bedrijf, opgericht in 2021 door ex-OpenAI-topman Dario Amodei, zou volgens techmedia als enige aan zeer hoge veiligheidseisen voor het Pentagon voldoen. Volgens bronnen van The Wall Street Journal is technologie van Anthropic mogelijk ook gebruikt bij een operatie rond de ontvoering van de Venezolaanse president Maduro, al blijven details onduidelijk. Expert Paul Verhagen wijst erop dat AI bijvoorbeeld ingezet kan zijn om sociale media te monitoren en zo te toetsen of een operatie nog geheim is.
Hegseth eist uiterlijk vrijdag een beslissing van Anthropic; weigert het bedrijf, dan dreigt hij het contract te beëindigen en Anthropic als “supply chain risk” te bestempelen. Dat label zou het gebruik van Anthropic-technologie door het Amerikaanse leger en door leveranciers aan het Pentagon verbieden. Verhagen merkt op dat die maatregel zelden tegen Amerikaanse bedrijven wordt ingezet en dat zo’n stap een vreemde dynamiek oplevert: tegelijk willen militaire klanten technologische versnelling en sluiten ze leveranciers uit.
De ruzie illustreert de bredere spanning tussen techbedrijven die zichzelf gebruiksbeperkingen willen opleggen en overheden die brede toegang tot nieuwe AI-mogelijkheden nastreven — met grote implicaties voor zowel ethiek als nationale veiligheid.