De ontwikkeling van wapensystemen met kunstmatige intelligentie (AI) die zelfstandig doelen kunnen selecteren en aanvallen, baart steeds meer zorgen. Deze zogenaamde autonome wapensystemen, ook wel bekend als 'killer robots', opereren zonder directe menselijke tussenkomst, wat leidt tot complexe ethische en veiligheidsvraagstukken.
De kern van de bezorgdheid ligt in het feit dat deze wapensystemen beslissingen over leven en dood kunnen nemen zonder menselijke controle. Dit roept vragen op over verantwoordelijkheid en aansprakelijkheid in geval van fouten of onbedoelde gevolgen. Wie is verantwoordelijk als een autonoom wapen een verkeerd doelwit aanvalt? De programmeur, de commandant, of het wapen zelf?
Daarnaast zijn er zorgen over de mogelijkheid van escalatie en de impact op de internationale veiligheid. Als autonome wapensystemen op grote schaal worden ingezet, kan dit leiden tot een wapenwedloop en een afname van de stabiliteit. De vrees bestaat dat deze systemen, eenmaal ingezet, onvoorspelbaar kunnen reageren en conflicten kunnen escaleren zonder menselijke tussenkomst.
Ethische bezwaren richten zich op de fundamentele vraag of machines überhaupt de bevoegdheid zouden moeten hebben om over leven en dood te beslissen. Critici stellen dat dit een morele grens overschrijdt en dat menselijke controle over wapensystemen te allen tijde gewaarborgd moet blijven. De discussie over de regulering en het verbod op autonome wapensystemen is dan ook in volle gang, zowel op nationaal als internationaal niveau.