Maleisië wil strafmaat bepalen met behulp van kunstmatige intelligentie

Nieuws

Maleisische Orde van Advocaten uit haar bezorgdheid over de AI-test

Maleisië wil strafmaat bepalen met behulp van kunstmatige intelligentie

Maleisië wil strafmaat bepalen met behulp van kunstmatige intelligentie
Maleisië wil strafmaat bepalen met behulp van kunstmatige intelligentie

IPS / Thomson Reuters News Foundation / Rina Chandran

26 april 2022

Het gebruik van kunstmatige intelligentie in het rechtssysteem is wereldwijd in opmars. Maleisië rondt net een landelijke test af waarbij een digitaal systeem de strafmaat aanbeveelt. Critici zeggen dat kunstmatige intelligentie geen partij is voor het beoordelingsvermogen van menselijke rechters.

Geoff / Wikimedia (CC BY-SA 2.0)

Het gerechtsgebouw in Kuala Lumpur, Malaysia. Deze maand willen de Maleisische federale autoriteiten de testen afronden met AI-instrumenten die de strafmaat bepalen.

Geoff / Wikimedia (CC BY-SA 2.0)

Er zijn maar weinig zaken die nog indruk maken op Hamid Ismail, na bijna twee decennia als advocaat. Maar toen hij een man verdedigde wiens strafmaat bepaald werd met behulp van kunstmatige intelligentie (AI), moest hij toch even slikken.

Ismail wist dat rechtbanken in de Maleisische staat Sabah en het naburige Sarawak het gebruik van AI om strafaanbevelingen te doen aan het testen waren, als voorbereiding op een landelijke uitrol. Maar hij werd ongemakkelijk toen hij zag dat de technologie werd gebruikt voordat advocaten, rechters en het publiek het volledig begrepen.

Geen publiek debat

Hij waarschuwt dat er geen behoorlijk overleg plaatsgevonden heeft over het gebruik van de technologie en het wordt niet vermeld in het strafwetboek van het land.

‘Ons Wetboek van Strafvordering voorziet niet in het gebruik van AI in de rechtbanken… Volgens mij is het ongrondwettelijk’, zegt Ismail. Hij voegt eraan toe dat de door AI aanbevolen straf voor zijn cliënt – voor een kleine aanklacht wegens drugsbezit – te zwaar was.

Volgens de Maleisische autoriteiten kunnen AI-instrumenten die de strafmaat bepalen ‘de kwaliteit van de rechterlijke uitspraak verbeteren.’

De rechtbanken van Sabah en Sarawak gebruiken software die is ontwikkeld door Sarawak Information Systems. Dat staatsoverheidsbedrijf stelt dat het tijdens het ontwikkelingsproces overleg had gepleegd met een testpubliek en maatregelen had genomen om enkele van de geuite zorgen weg te nemen.

Over de hele wereld groeit het gebruik van AI in het strafrechtsysteem snel. Zo is er de populaire chatbotadvocaat DoNotPay, een mobiele app die juridisch advies op maat biedt. In Estland zijn er robotrechters die kleine vorderingen beoordelen, in Canada robotbemiddelaars en in Chinese rechtbanken zijn er heuse AI-rechters.

Snelrecht

Autoriteiten zeggen dat op AI gebaseerde systemen de straffen consistenter maken en achterstanden snel en goedkoop kunnen wegwerken. Op die manier zouden langdurige, dure en stressvolle gerechtelijke procedures vermeden worden.

Meer dan een derde van de overheidsrespondenten in een wereldwijd onderzoek vorig jaar door onderzoeksbureau Gartner gaf aan dat ze van plan waren meer te investeren in AI-aangedreven systemen. Ze hadden het dan over onder meer chatbots, gezichtsherkenning en datamining in verschillende sectoren.

Deze maand willen de Maleisische federale autoriteiten de testen afronden met AI-instrumenten die de strafmaat bepalen. Volgens hen kan het ‘de kwaliteit van de rechterlijke uitspraak verbeteren’. Het is vooralsnog echter niet helemaal duidelijk hoe ze in rechtbanken zullen worden gebruikt.

Een woordvoerder van de Maleisische opperrechter zei dat het gebruik van AI in rechtbanken ‘nog in de procesfase verkeert’, en weigerde verder commentaar.

Vooroordelen en verzachtende omstandigheden

Critici waarschuwen dat AI het risico loopt vooroordelen tegen minderheden en gemarginaliseerde groepen te verankeren en te versterken. De technologie heeft namelijk niet het vermogen om individuele omstandigheden af te wegen of zich aan te passen aan veranderende sociale zeden, zoals een rechter dat wel heeft.

‘Een rechter mag zijn flexibel beoordelingsvermogen niet uitbesteden aan een weinig transparant algoritme.’

‘Bij de veroordeling kijken rechters niet alleen naar de feiten van de zaak – ze houden ook rekening met verzachtende omstandigheden en gebruiken hun vrijheid om te beslissen wat er in een specifieke situatie moet gebeuren. Dat kan een AI-instrument niet’, vertelt Ismail.

Het overwegen van verzwarende en verzachtende factoren ‘vereist een menselijke geest’, zegt Charles Hector Fernandez, een Maleisische mensenrechtenadvocaat.

‘Strafmaten variëren ook met veranderende tijden en veranderende publieke opinie. We hebben meer rechters en openbare aanklagers nodig om de toenemende hoeveelheid zaken aan te kunnen. AI kan menselijke rechters niet vervangen’, voegt hij eraan toe.

Gebrekkig systeem

Sarawak Information Systems wil de bezorgdheid wegnemen dat zijn AI-software zou kunnen leiden tot vooringenomenheid bij de veroordeling. Het staatsbedrijf zegt dat het de rassenvariabele uit het algoritme heeft verwijderd.

Het bedrijf zou slechts een dataset van vijf jaar (van 2014-19) hebben gebruikt om het algoritme te trainen.

Maar hoewel ‘dergelijke maatregelen waardevol zijn, maken ze het systeem niet perfect’, aldus een rapport uit 2020 over het systeem van het Khazanah Research Institute (KRI), een denktank die de overheid adviseert.

Het merkte ook op dat het bedrijf slechts een dataset van vijf jaar (van 2014-19) had gebruikt om het algoritme te trainen. ‘Dat lijkt enigszins beperkt in vergelijking met de uitgebreide databases die worden gebruikt bij soortgelijke systemen wereldwijd’, staat te lezen in het rapport.

Sarawak Information Systems was niet bereikbaar voor commentaar over de vraag of het sindsdien zijn database heeft uitgebreid.

Een KRI-analyse van rechtszaken in Sabah en Sarawak toonde aan dat rechters de aanbevelingen van het AI-systeem volgden in een derde van de zaken. Volgens de voorwaarden van de test hadden de zaken allemaal betrekking op verkrachting of drugsbezit.

Sommige rechters hebben de voorgestelde straffen verlaagd in het licht van verzachtende omstandigheden. Andere straffen werden harder gemaakt omdat ze niet zouden dienen als ‘sterk genoeg afschrikmiddel’.

Weinig transparantie

Technologie heeft het potentieel om de efficiëntie van het strafrechtsysteem te verbeteren, zegt Simon Chesterman, een professor in de rechten aan de National University of Singapore.

Maar de legitimiteit ervan hangt niet alleen af van de nauwkeurigheid van de genomen beslissingen, maar ook van de manier waarop ze worden genomen, voegt hij eraan toe.

‘Veel beslissingen zouden op de juiste manier aan de machines kunnen worden overgedragen. (Maar) een rechter mag zijn flexibel beoordelingsvermogen niet uitbesteden aan een weinig transparant algoritme’, zegt Chesterman, senior director bij AI Singapore, een overheidsprogramma.

De Maleisische Orde van Advocaten heeft ook haar bezorgdheid geuit over de AI-test van de overheid.

Toen rechtbanken in Kuala Lumpur, de hoofdstad, het medio 2021 begonnen te gebruiken voor veroordelingen in twintig soorten misdaden, zei de koepel dat het ‘helemaal geen richtlijnen had gekregen en dat we geen gelegenheid hadden om feedback te krijgen van beoefenaars van strafrecht’.

In Sabah ging Ismail in beroep tegen de strafaanbeveling van zijn cliënt door de AI-tool, die gevolgd werd door de rechter.

Maar hij denkt dat veel advocaten de uitspraak niet zouden aanvechten, waardoor ze hun cliënten veroordelen tot overdreven harde straffen. ‘De AI gedraagt zich als een oudgediende rechter’, vindt Ismail.

‘Jonge magistraten denken misschien dat de aanbeveling de beste keuze is en accepteren die zonder meer.’

Dit artikel verscheen oorspronkelijk bij IPS-partner Thomson Reuters Foundation