Zorgen over gebruik van AI in oorlogen, 'menselijke afweging blijft nodig'
In dit artikel:
Kunstmatige intelligentie speelt inmiddels een directe rol in moderne oorlogsvoering: niet alleen via autonome drones of robots, maar vooral door systemen die razendsnel mogelijke doelen identificeren. Ook Defensie in Nederland onderzoekt de inzet van dergelijke AI-toepassingen. Dat roept zowel kansen als ernstige zorgen op.
Een prikkelend voorbeeld is de Amerikaanse campagne tegen Iran, waarbij op de eerste dag van Operation Epic Fury een Iraanse meisjesschool werd gebombardeerd met meer dan 175 doden tot gevolg. Of AI rechtstreeks bij die aanval betrokken was, is onduidelijk, maar de school stond op een Amerikaanse doelwitlijst en werd mogelijk voor een militaire locatie aangezien. De VS gebruikte bij veel aanvallen het Maven Smart System (MSS), een beeldherkenningssysteem dat drones, radar- en satellietbeelden snel analyseert en potentiële doelen aandraagt. Project-Maven, waarvan Jack Shanahan een van de initiatiefnemers is, moet met minder mensen en in kortere tijd targets herkennen; voorstanders zeggen dat dat juist fouten en nevenschade kan verminderen.
Tegenstanders wijzen op belangrijke risico’s. Jurist Jessica Dorsey (Universiteit Utrecht) benadrukt dat het oorlogsrecht onderscheid maakt tussen burgers en strijders en dat proportionaliteit en het inschatten van risico’s op burgerslachtoffers lastig controleerbaar zijn wanneer beslissingen zwaar leunen op AI. Complexe systemen kunnen onvoorspelbaar reageren en de enorme snelheid waarmee aanvallen worden uitgevoerd — in de eerste twee dagen werden naar verluidt circa 2.000 doelen geraakt, waar eerder campagnes maanden nodig hadden voor dat aantal — maakt grondige menselijke toetsing bijna onmogelijk.
Experts verschillen van mening over hoe dat moet worden afgewogen. Roy Lindelauf (NLDA/Tilburg) wijst op menselijke fouten door vermoeidheid bij langdurige beeldanalyse: AI kan in seconden wat mensen uren zouden doen, waardoor er volgens hem alsnog tijd blijft voor menselijke goedkeuring. Politiek bepaalt uiteindelijk de kaders: softwareleverancier Anthropic weigerde autonomie te leveren voor wapens die zonder mensen doden, waarop politieke reactie in de VS fel was. Sommige leiders pleiten voor ruime militaire bevoegdheden, anderen — waaronder Shanahan — waarschuwen dat het respecteren van oorlogsrecht en regels essentieel blijft.
Internationaal speelt de discussie over zogenaamde lethale autonome wapens en de noodzaak van “meaningful human control”. Naast technische ontwikkeling vraagt dit om juridische, ethische en politieke keuzes voordat AI-systemen routinematig over leven en dood kunnen beslissen.