Al in de jaren '40 van de vorige eeuw
formuleerde science fictionschrijver Isaac Asimov drie wetten voor
robots die nog steeds de basis vormen voor de ethiek van robotica en
kunstmatige intelligentie. De eerste twee wetten luiden: Een robot
mag een mens geen letsel toebrengen of door niet te handelen toestaan
dat een mens letsel oploopt. En: Een robot moet de bevelen uitvoeren
die hem door mensen gegeven worden, behalve als die opdrachten in
strijd zijn met de Eerste Wet.
Intussen wordt in november opnieuw
onderhandeld door 88 landen over een verbod – of niet – op
'killer robots'. Een aantal landen (waaronder de VS, Rusland en
Israël) wil wel praten maar geen verbod. De Nederlandse regering is
wel voor een verbod en stelt dat er bij autonome wapens altijd sprake
moet blijven van 'betekenisvolle menselijke controle.' Natuurlijk is
er nog wel onenigheid over wanneer menselijke controle 'betekenisvol'
is.
Een merkwaardige positie wordt
ingenomen door het Europees Parlement. Bij de onderhandelingen over
het EU Programma voor Defensie Industrie
Ontwikkeling (EDIDP) en het Europees
Defensie Fonds verwierp dit parlement een amendement van de Groene,
Linkse en Sociaaldemocratische fracties die een verbod voorstelden op
het financieren van ontwikkeling van autonome wapens. Estland krijgt
inmiddels een subsidie van €30-40 miljoen uit het Europees DefensieFonds voor een robot onderzoeksprogramma, zij het geen 'killer'
robots.
Maar in september nam datzelfde Europees Parlement een motie aan omte waarschuwen tegen het gebruik van autonome wapens voor
doelbepaling en beschieting. Daarin werd dan wel weer expliciet
verwezen naar het EU Programma voor Defensie Industrie Ontwikkeling
(EDIDP) en het Europees Defensie Fonds.
Is er sprake van verwarring of van
voortschrijdend inzicht? Dat laatste zou mooi zijn. Maar een verbod
moet wel in de officiële programma's worden vastgelegd en een losse
motie blijven.