America wakes up to AI's dangerous power

maandag, 20 april 2026 (11:34) - NRC Handelsblad

In dit artikel:

Vijf befaamde technici — onder wie Dario Amodei (Anthropic), Demis Hassabis, Elon Musk, Mark Zuckerberg en Sam Altman — hebben momenteel buitengewone invloed op de ontwikkeling van generatieve AI-modellen. Tot voor kort koos de Amerikaanse regering onder Trump voor een hands‑offbeleid, in de veronderstelling dat hevige competitie tussen bedrijven de beste route was om de VS voor te laten lopen op China. Die houding kantelde echter snel toen de mogelijkheden van die modellen nog sneller dan gedacht gevaarlijk bleken te kunnen worden.

De omslag kwam duidelijk naar voren op 7 april, toen Anthropic zijn model Claude Mythos presenteerde — een systeem dat bijzonder bedreven bleek in het herkennen van softwarekwetsbaarheden. Dario Amodei besloot Mythos niet openlijk vrij te geven, maar alleen beschikbaar te maken voor een beperkte groep (ongeveer vijftig) grote bedrijven om hun eigen digitale verdediging te versterken. Die stap leidde tot acute ongerustheid in Washington: onder meer minister van Financiën Scott Bessent riep banken bijeen, en het Pentagon had zich al eerder gemengd in het debat nadat Amodei gebruik in volledig autonome wapens en massale binnenlandse surveillance weigerde toe te staan.

Naast veiligheidszorgen groeit ook de politieke druk. Amerikaanse kiezers zijn meer bezorgd over AI dan mensen in veel andere landen; enquêtes laten een sterke angst zien dat AI werkgelegenheid schaadt, en lokale weerstand tegen datacenters neemt toe. De emotie rond het onderwerp escaleerde zelfs tot aanvallen bij het huis van OpenAI‑topman Sam Altman.

Historische analogieën wijzen erop dat grote technologische omwentelingen vaak begonnen in de handen van enkele machtige figuren, waarna de overheid intervenieerde (denk aan Standard Oil, AT&T). Maar AI-regulering stuit op bijzondere moeilijkheden: de technologie ontwikkelt zich razendsnel, gespecialiseerde ingenieurs zijn mobiel, rekenkracht is een algemene grondstof en opensource‑concurrenten verspreiden kennis in korte tijd. Daardoor zijn klassieke middelen zoals nationalisatie of langdurige regelgeving minder effectief.

Een mogelijk tussenweg die op tafel ligt is gecontroleerde, beperkte vrijgave van de meest krachtige modellen: alleen vertrouwde gebruikers krijgen vroege toegang, en commerciële uitrol zou pas mogen na certificering door door de industrie geleide testinstituten. OpenAI en Anthropic experimenteren al met zo’n model door nieuwe tools eerst aan vetted cyber‑specialisten te geven. Dit idee reduceert direct misbruikrisico’s en kan regering en bedrijven tijd geven om adequaat te reageren.

Toch kent die aanpak forse nadelen. Beperkte toegang concentreert macht en inkomsten bij de al dominante bedrijven, vertraagt de brede economische verspreiding van AI‑voordelen en creëert een tweedeling tussen insiders en de rest van de economie. Het maakt lobbying en outsized winsten waarschijnlijker en stelt vragen over hoe om te gaan met opensource‑modellen die regels kunnen omzeilen. Bovendien is nationale beheersing ontoereikend: effectieve AI‑veiligheid vraagt om internationale samenwerking — ook met China — en om beleid dat de economische en sociale gevolgen afhandelt, zoals banenverlies en belastingherzieningen.

Kortom: de “Mythos‑moment” is een wake‑upcall. Het dwingt de VS om snel te kiezen tussen risico’s van nalaten en die van overregulering, terwijl technische realiteit en geopolitieke concurrentie weinig tijd geven. Naast technische veiligheidsmaatregelen zijn er brede keuzes nodig over toegang, eerlijke verdeling van voordelen en internationale afspraken — vraagstukken waar nog geen eenvoudige oplossingen voor bestaan.