Hoe moeten we omgaan met slimme wapens?

Een man tankt een enorme drone bij op een vliegveld.

Hoe moeten we omgaan met slimme wapens?

Laatste update: 20-01-2026

Wapensystemen die zelf doelwitten kunnen herkennen en vernietigen klinkt misschien als sciencefiction. Maar deze killer robots worden nu al volop gebruikt in oorlogen. Dat zijn niet alleen drones, maar kunnen ook tanks en luchtafweersystemen zijn. Je leest in dit artikel hoe gevaarlijk deze wapens zijn en of je ze kan verbieden.

Wat zijn autonome wapens?

Autonome wapens zijn wapensystemen die zelfstandig doelwitten kunnen selecteren en uitschakelen. Dat kunnen drones zijn, maar er zijn bijvoorbeeld ook raketten, tanks en luchtafweersystemen die op eigen houtje kunnen handelen. Ze gebruiken hiervoor slimme software, oftewel: kunstmatige intelligentie (AI). Deze software beoordeelt zelf op basis van alle beschikbare informatie of iets een doel is en uitgeschakeld moet worden.

AI wordt volop gebruikt in defensie. Zo worden in Noorwegen de straaljagers bewaakt door een in Nederland ontwikkelde radar. Deze radar is verbonden met een kanon dat automatisch gaat schieten als er een drone wordt gedetecteerd. Dat gebeurt allemaal zonder enige menselijk input.

Joint Strike Fighter
De Joint Strike Fighter wordt in Noorwegen volautomatisch bewaakt door een killer robot.

In de oorlogsvoering wordt al jarenlang steeds meer AI gebruikt. Bedrijven en landen zetten op grote schaal in op autonome wapens. Zo betaalt de Amerikaanse overheid miljoenen dollars aan grote AI-ontwikkelaars, zoals OpenAI, om onderzoek te doen naar nieuwe AI-toepassingen voor haar wapens. En wapenleveranciers presenteerden al in de zomer van 2018 raketsystemen die zelfstandig voorgeprogrammeerde doelen uitzoeken en vernietigen. ‘And bang, the bad guy goes to bed’, zoals één van de verkopers op de Parijse wapenbeurs Eurosatory het uitdrukt:

Bekijk de hele aflevering op NPO Start.

Wat zijn de gevaren van autonome wapens?

Autonome wapens kunnen geheel zelfstandig bepalen wanneer ze een persoon moeten verwonden of een doelwit vernietigd moet worden. Ze moeten daarom op z’n minst onderscheid kunnen maken tussen de vijand en de eigen manschappen, maar ook tussen burgers en soldaten. Of tussen een legerbasis, en een woonwijk.

Daarnaast zijn er ook belangrijk ethische vraagstukken aan verbonden. Want een doelwit kan misschien succesvol herkend worden door een autonoom wapen, maar het moet ook weten wanneer het over kan gaan tot handelen en wanneer juist niet. Schiet je bijvoorbeeld een doelwit neer als diegene thuis aan de eettafel zit met zijn familie. Of wacht je tot diegene alleen is. Een volledig autonoom wapensysteem moet die keuze zonder enige menselijke controle maken. Veel mensen vinden het een eng idee om dit helemaal uit handen te geven.

Man bestudeert autonome tank.
Bij slimme wapens denk je al snel aan vliegtuigen. Maar er bestaan onder andere ook autonome tanks.
 © ANP

Op dit moment zijn er ook geen vaste regels over wie er verantwoordelijk is wanneer het misgaat. Bijvoorbeeld als er een verkeerd doelwit is uitgeschakeld, of wanneer er meer mensen gedood worden dan gedacht. Is dat de schuld van de fabrikant van het wapen of de legercommandant? En wat als het wapensysteem gehackt wordt?

Hoe kan AI fouten maken?

Ook zonder gehackt te worden kunnen deze wapens fouten maken. Een klassiek voorbeeld is het zogenaamde wolven-husky-probleem. Je kan een computer leren het verschil te herkennen tussen wolven van husky’s. Dat gebeurt door honderden plaatjes van beide diersoorten te laten zien en daarbij te vertellen wat een husky is en wat een wolf. Een AI-systeem zal na enige tijd het verschil kunnen zien. Maar als het systeem eenmaal ingezet wordt blijken er toch veel fouten gemaakt te worden.

Slimme software kan zomaar de mist in gaan - op manieren die je niet verwacht.

De fouten die het systeem maakt, ontstaan in dit geval doordat de computer naar andere dingen dan de kenmerken van de dieren heeft gekeken. Als de meeste wolven in de trainingsdata bijvoorbeeld in de sneeuw zijn gefotografeerd en de husky’s in een stad, dan is er een behoorlijke kans dat de computer een husky in de sneeuw voor een wolf zal aanzien. Nou is een kleine foutmarge bij het herkennen van husky's en wolven misschien niet zo erg. Maar als het gaat om het wel of niet neerschieten van een mens vinden we dat een ander verhaal.

Wat is het gevaar van een wapenwedloop?

De ontwikkelingen in de wapenindustrie gaan erg snel. Veel wereldmachten proberen de beste (slimme) wapens in handen te krijgen om elkaar te overtreffen. Dit wordt ook wel een wapenwedloop genoemd. Maar doordat de ontwikkelingen zo snel gaan, is het moeilijk voor wetgeving en afspraken om de innovaties bij te benen.

Uit onderzoek blijkt dat deze AI-wapens in de praktijk al gebruikt worden. Bijvoorbeeld in de oorlog tussen Israël en Palestina. Israël gebruikt een AI-machine om doelwitten te bepalen die gebombardeerd moeten worden. Vooral in de eerste weken van de oorlog gebeurde dit met minimale inmenging van echte mensen. Als resultaat werden veel van deze doelwitten gebombardeerd met weinig tot geen aandacht voor de omgeving van het doelwit. Concreet betekent dit dat doelwitten werden gebombardeerd wanneer ze bijvoorbeeld thuis waren, met hun familie. Wapenexpert Lauren Gould legt in onderstaande video uit hoe die beslissingen gemaakt worden:

Bekijk de hele aflevering van Bureau Buitenland op NPO Start.

 © Bureau Buitenland (VPRO)

Hoe kunnen we de gevaren beperken?

Het voelt misschien logisch om deze AI-wapens compleet te verbieden. Maar dat is erg moeilijk. Want welke technologie ga je dan verbieden? De meeste onderdelen van robotwapens kan je gewoon kopen. Drones bestaan, gezichtsherkenning bestaat en explosieven bestaan. Er moet dan heel specifiek worden afgesproken op welke manier de techniek verboden is en daar moeten dan ook nog eens met 70 of 80 landen akkoord mee gaan.

Hoe goed slimme wapens ook worden, je moet als mens altijd kunnen ingrijpen. De hele aflevering bekijk je op NPO Start.

Wel zijn er jaren geleden al internationale afspraken gemaakt over oorlogsvoering. Deze afspraken staan in het Verdrag van Genève. Hierin staat onder andere dat, zodra er nieuwe wapens en technologieën in een conflict worden ingezet, deze streng juridisch getoetst moeten worden voordat ze gebruikt worden.

De VN is druk bezig om afspraken over deze wapens te maken. Maar de meningen zijn nog verdeeld. Hoewel iedereen van mening is dat er altijd een bepaalde mate van menselijke controle moet zijn, zijn ze het niet met elkaar eens in welke mate. Volgens sommige landen is de menselijke bemoeienis tijdens het ontwikkelings- en testproces voldoende. En mag een wapensysteem daarna zelf de trekker overhalen. Andere landen vinden juist dat alleen een mens de trekker over mag halen.

Nederland is van mening dat er duidelijke wettelijke kaders nodig zijn om autonome wapens verantwoordelijk te gebruiken. Toch bestaat de angst onder experts dat, zoals wel vaker bij wapenwedlopen gebeurt, het eerst een keer erg fout moet gaan voordat dat werkelijkheid wordt.

Bekijk de hele aflevering van Bureau Buitenland op NPO Start.

 © Bureau Buitenland (VPRO)

In het kort

  • Slimme wapens zijn wapens die autonoom, zonder menselijke tussenkomst, een doel kunnen uitschakelen.

  • Er dreigt een wapenwedloop in slimme wapens. Dat roept veel angst, weerstand en vragen op.

  • Menselijke controle over slimme wapens moet altijd mogelijk blijven. Dat kan door ze goed te ontwerpen en met de juiste software uit te rusten.

  • Verkeerde 'training' van een AI-model maakt fouten mogelijk. Dat is vooraf niet altijd te voorspellen.

  • Een verbod op slimme wapens is erg lastig. Vele landen moeten het met elkaar eens zijn. Bovendien zijn de verschillende onderdelen van zo'n wapen gewoon legaal.

En je weet het!

Anderen het laten weten?

auteur

Door Jasper van Leeuwen

Wil je nog meer?

Blijf op de hoogte met de
wekelijkse nieuwsbrief

Velden met een * zijn verplicht.

Volg ons op social: