Zullen killer robots science fiction blijven?

Miriam Struyk

30 november 2015
Opinie

Zullen killer robots science fiction blijven?

Zullen killer robots science fiction blijven?
Zullen killer robots science fiction blijven?

Het is niet eenvoudig voorstanders van volledig autonome wapens te vinden. Waarom is het dan zo moeilijk een onderhandelingsproces voor een verbod op deze wapens op gang te krijgen? Wat zijn deze Killer Robots of lethal autonomous weapon systems?  Hoe urgent is dit probleem en reageert de internationale gemeenschap navenant? De Nederlandse vredesbeweging PAX brengt het kort in kaart.

‘De killer robot heeft geen mens nodig om te werken.’

Killer robots, wat zijn dat nu weer? Er is niet echt één definitie, maar vaak wordt de volgende gehanteerd: killer robots zijn volledig autonome wapensystemen die, eenmaal geactiveerd, zelfstandig hun doelwit selecteren en vervolgens zonder enige menselijke interventie besluiten om tot de aanval over te gaan of niet.

Dus, terwijl bewapende drones nog – weliswaar op grote afstand – door mensen worden bestuurd, is bij de killer robot de mens volledig afwezig; er is geen betekenisvolle menselijke controle meer.

Zijn ze al in gebruik?

Nee, maar er is wel een duidelijke trend naar meer autonomie en deze evolutie is zorgwekkend. Voordat het te laat is en deze autonome wapens onderdeel worden van militaire strategieën, moeten deze killer robots dan ook een halt worden toegeroepen. De Nederlandse vredesbeweging PAX richtte daarom in april 2013 samen met enkele andere organisaties de Campaign to Stop Killer Robots op. Deze internationale coalitie beoogt een verbod op de ontwikkeling, de productie en het gebruik van deze wapen(systemen).

Deze autonome wapensystemen zijn nog niet in gebruik, maar de technologie voor deze wapens ontwikkelt zich razendsnel. Zo hebben bijvoorbeeld China, Israël, Rusland, de Verenigde Staten en het Verenigd Koninkrijk interesse in de ontwikkeling van dergelijke wapensystemen.

Voorlopers

Voorlopers van deze wapens zijn bijvoorbeeld de Samsung SGR -1. Dat is een robot met machinegeweren die indringers in het verboden grensgebied tussen Noord- en Zuid Korea volautomatisch kan neerschieten. Dat doen ze echter nog niet: ze houden nu hun doelwit onder schot en vragen aan mensen in een commandopost wat hun verdere instructie is.

Andere voorlopers zijn bijvoorbeeld de Iron Dome, de Goalkeeper, de Taranis (zie filmpje) en de X47B.

Deze wapensystemen laten heel duidelijk een trend zien naar meer autonomie. Ontwikkelingen rond kunstmatige intelligentie gaan razendsnel. Afgelopen zomer tekenden meer dan 3000 onderzoekers in kunstmatige intelligentie en robotica een oproep om killer robots te verbieden. Tot de ondertekenaars behoren Steven Hawking, Demis Hassabis, CEO van Google’s DeepMind, Elon Musk van Tesla, Apple mede-oprichter Steve Wozniak en Skype mede-oprichter Jaan. Als deze mensen zich zorgen maken en zelfs hun eigen werkterrein willen limiteren dan is er toch wel iets aan de hand, toch?

Wat is er mis met killer robots?

‘Het is onduidelijk wie verantwoordelijk is voor de daden van killer robots.’

Vanuit ethisch oogpunt vindt PAX dat moraliteit niet uit handen gegeven mag worden aan een machine en dat dergelijke wapensystemen niet ontwikkeld, laat staan gebruikt moeten worden. Killer robots zijn ons inziens niet in staat om te handelen in overeenstemming met het internationaal humanitaire recht en/of met mensenrechten. Zij kunnen de volledige en vaak ingewikkelde context van een conflictsituatie niet bevatten. Ze kunnen in strijd zijn met de beginselen van proportionaliteit en distinctie.

Ook is het onduidelijk wie verantwoordelijk is voor de daden van killer robots: de maker, de programmeur, de commandant, of de robot zelf? Verder roept het de vraag op of de afstand tussen militairen en het conflictgebied niet zo groot wordt dat iedere menselijke betrokkenheid bij, en gevoelde verantwoordelijkheid voor het conflict dreigt te verdwijnen. De drempel om tot militair geweld over te gaan dreigt te worden verlaagd.

Komt de internationale gemeenschap in actie?

Net na de oprichting van de ‘Campaign to Stop Killer Robots’ in april 2013 leek het erop dat de alarmbellen snel gehoord werden. VN-rapporteur Heyns presenteerde bij de Mensenrechtenraad in Geneve een rapport waarin hij opriep tot een pauze middels moratoria voor deze ‘inherent onethische wapens’. Er volgden negen expertdagen bij de Conventie voor Conventionele Wapens (CCW). Inmiddels hebben meer dan 60 landen hun bezorgdheid over deze wapens uitgesproken. Maar het blijft voorlopig bij het uitwisselen van informatie.

Enkele weken geleden werd er in de CCW gesproken over vervolgstappen. Maar helaas gaven onder meer de VS, Israël, het Verenigd Koninkrijk en Rusland aan dat ze het nog te vroeg vinden voor een formeel mandaat en zo zal er ook in 2016 wederom een informele expert meeting plaatsvinden – en kunnen de ontwikkelingen voorlopig rustig doorgaan. Na een snelle start, lijkt het nu weer business as usual binnen de CCW…

Wat doet Nederland?

De Nederlandse ministers van Defensie en Buitenlandse Zaken hebben advies gevraagd aan de AIV (Adviesraad Internationale Vraagstukken) en de CAVV (Commissie van Advies inzake Volkenrechtelijke Vraagstukken). Deze commissies publiceerden eind oktober een rapport waarin ze stelden dat een internationaal verbod op autonome, bewapende systemen ‘niet haalbaar en niet wenselijk’ zou zijn.

Bovendien achten de adviseurs het technisch gezien ‘onwaarschijnlijk’ dat er de komende twintig jaar wapens komen die zullen functioneren zonder ‘betekenisvolle menselijke controle’. Het wachten is nu op een reactie van de Nederlandse regering op dit rapport.

Urgentiebesef

Bewapende drones bieden nieuwe mogelijkheden om geweld te gebruiken en verlagen, zo wordt alom verondersteld, de drempel om tot geweld over te gaan. Er is nog steeds weinig transparantie, maar er komt wel  steeds meer naar buiten. Zo beschikt The Intercept over de zogenaamde Drone Papers; een onderzoek van het Pentagon naar aanvallen in Afghanistan, Jemen en Somalië tussen 2011 en 2013. Hieruit blijkt dat 9 op de 10 doden die bij een vijf maanden durende operatie in Afghanistan vielen, niet het beoogde doelwit waren. Oftewel ze stonden niet op de zogeheten ‘kill list’.

Dergelijke onthullingen laten wat PAX betreft zien dat we op de rem moeten staan. We moeten veel opener kijken naar de gevolgen en de impact van remote warfare. Te vaak is er een heilig geloof in technologische oplossingen en te vaak lopen diplomatie en regelgeving achter de feiten aan. Om dan, terwijl we in het midden zitten van een discussie rondom bewapende drones, de deur open te zetten naar de ontwikkeling van wapens met nog meer autonomie is onverantwoord.

Miriam Struyk is teamleider Veiligheid en Ontwapening bij PAX