Militaire top moet leiden tot 'ethisch AI-gebruik'

woensdag, 4 februari 2026 (20:16) - NOS Nieuws

In dit artikel:

In A Coruña (Spanje) begint vandaag de derde REAIM-top, waar vertegenwoordigers van meer dan honderd landen bijeenkomen om het militaire gebruik van kunstmatige intelligentie te bespreken. Centraal staat de vraag hoe AI in oorlogvoering binnen ethische grenzen kan blijven; Nederland pleit daarbij herhaaldelijk voor een "human in the loop", zodat mensen betrokken blijven bij beslissingen met mogelijk dodelijke gevolgen.

Defensie en experts benadrukken dat AI in toenemende mate al op het slagveld wordt ingezet: Israël gebruikte systemen die doelwitten in Gaza bepaalden, en in Oekraïne opereren drones die deels autonoom vliegen. Ook de Nederlandse krijgsmacht past AI toe, van voorspellend onderhoud aan tanks tot experimentele projecten die helpen videobeelden te analyseren of potentiële doelwitten vast te stellen. Volgens hoogleraar Roy Lindelauf kan AI uren videomateriaal binnen seconden doorspitten, waarna een militair eventueel nog de uiteindelijke vuurkracht activeert.

Naast geassisteerde systemen bestaan er volledig autonome toepassingen die taken geheel zonder menselijke tussenkomst uitvoeren, zoals robotwagens die munitie vervoeren. Dergelijke autonome wapens roepen bezorgdheid op: ze maken het technisch eenvoudig om drones te laten beslissen en vuren zonder menselijk commando — wat in de publieke discussie vaak als 'killerdrones' wordt aangeduid. Marc Derksen, medeoprichter van de AI-startup Intelic, stelt dat de technologie daarvoor beschikbaar is en dat acceptatie sterk van de context afhangt; in een bos met duidelijk militair doelwit kan autonoom handelen volgens hem anders beoordeeld worden dan in stedelijke gebieden.

Internationale afspraken op de REAIM-top hoeven niet automatisch naleving te garanderen. Volgens analisten hanteren landen verschillende normen: China en, volgens sommige experts, ook Israël leggen minder strikte ethische grenzen, terwijl Rusland technologische achterstand heeft door beperkte toegang tot onderdelen. Lindelauf vergelijkt de wens tot regulering met historische verdragen tegen chemische wapens: als genoeg landen zich committeren, kunnen normen ontstaan die misbruik beperken.

De top vormt een poging tot mondiale afstemming over verantwoordelijk gebruik van militaire AI, waarbij technische mogelijkheden, ethische principes en geopolitieke verschillen samenkomen.