De maand van Elisa Hulstaert
“‘We mogen besluitvorming nooit blind overlaten aan artificiële intelligentie’
© Konstatinos Tsanakas
© Konstatinos Tsanakas
Artificiële intelligentie kan op basis van enorme hoeveelheden data goede voorspellingen doen. Dat kan erg nuttig zijn, maar die voorspellingen blindelings volgen, kan ook gevaarlijk zijn, meent MO*columniste van de maand Elisa Hulstaert. Want artificiële intelligentie zit er soms ook naast. Toch delegeren we steeds meer besluitvorming aan machines en steeds vaker gaat het om beslissingen die een grote impact kunnen hebben op mensen.
Er wordt volop geëxperimenteerd met gevaarlijke vormen van artificiële intelligentie, en vooral op plekken die buiten het gezichtsveld van de doorsnee burger vallen.
Eerder dit jaar brachten verschillende media aan het licht dat Israël op grote schaal artificiële intelligentie inzet om potentiële doelwitten in Gaza te identificeren. Zo voorspelt het systeem Lavender wie er deel uitmaakt van Hamas, zoekt The Gospel uit waar die mensen wonen en berekent Where’s Daddy? wanneer ze thuiskomen zodat ze daar kunnen worden aangevallen. Het zijn behoorlijk cynische namen om systemen aan te duiden die sneller en meer mensen doden dan tot nu toe ooit mogelijk was.
Volgens Aviv Kochavi, die tot januari aan het hoofd van de Israel Defense Forces (IDF) stond, genereert The Gospel zo’n 100 doelwitten per dag, waarvan de helft wordt aangevallen. Nog volgens het Israëlische leger is The Gospel een systeem dat ‘nauwkeurige aanvallen’ uitvoert en ‘grote schade’ toebrengt aan de infrastructuur van Hamas, terwijl burgers ‘minimale schade’ oplopen.
Is dat wat er gebeurt in tijden van algoritmische oorlogsvoering? Sinds 7 oktober zijn er in Gaza meer dan 40.000 mensen gedood, onder wie zeker 14.000 kinderen. Meer dan 92.400 mensen raakten gewond en zowat 90% van de bevolking is er op de vlucht.
Artificiële intelligentie zorgt in Gaza niet voor minder, maar net voor meer burgerdoden en -slachtoffers. Aan de basis daarvan liggen menselijke beslissingen, want algoritmische besluitvorming vereist een betekenisvolle menselijke controle, en die ontbreekt.
De manier waarop die betekenisvolle menselijke controle wordt vormgegeven, wordt immers niet door machines, maar door mensen bepaald. In het Israëlische leger krijgt men 20 seconden de tijd om de voorspellingen van The Gospel te legitimeren. Zoiets heeft geen enkele betekenis.
Leugendetector
In Xingjiang, in het noordwesten van China, waar twaalf miljoen Oeigoeren en andere voornamelijk islamitische minderheden wonen, wordt al jaren op grote schaal artificiële intelligentie gebruikt om de bevolking te controleren. Overal hangen camera’s met gezichtsherkenningssoftware en via een verplichte app op de mobiele telefoons worden data, zoals contactenlijsten en berichten, automatisch verzameld en geanalyseerd.
Wie denkt dat Gaza of Xingjiang ver-van-zijn-bedshows zijn, vergist zich, want ook dichter bij huis worden bedenkelijke AI-systemen gebruikt.
Volgens mensenrechtenorganisatie Human Rights Watch (HRW) verzamelen de Chinese autoriteiten er biometrische gegevens (zoals DNA, vingerafdrukken, stem- en gezichtsscans) van alle inwoners tussen 12 en 65 jaar oud. Er zouden ook systemen gebruikt worden om emoties te herkennen, als een soort gesofisticeerde leugendetector.
Al die data worden door de politie gebruikt voor (etnische) profilering en ‘misdaadpreventie’. Duidt het systeem iemand aan als potentiële terrorist, separatist of religieuze fundamentalist, dan kan die opgepakt en opgesloten worden in een heropvoedingskamp, ook als die nooit een effectieve misdaad begaan heeft. De machine beslist en het regime gaat daarin mee.
Stress en angst
Wie denkt dat Gaza of Xingjiang ver-van-zijn-bedshows zijn, vergist zich, want ook dichter bij huis worden bedenkelijke AI-systemen gebruikt. Zo experimenteert Europa met de technologie om haar buitengrenzen te bewaken.
In Griekenland, Hongarije en Letland werden leugendetectors met artificiële intelligentie getest. Terwijl migranten ondervraagd werden door een avatar werden hun emoties nauwlettend in het oog gehouden. Vertoonden ze volgens de machine tekenen van stress of angst, dan zou dat erop kunnen wijzen dat ze iets achterhielden en kon hun de toegang tot de Europese Unie ontzegd worden. Hoe verdedigt iemand zich tegen een algoritme?
Ook in België begeven we ons op glad ijs. Na de zomer zullen wetenschappers van de Universiteit Gent de criminaliteitscijfers van 19 Vlaamse politiezones analyseren met behulp van artificiële intelligentie. Vanaf het najaar zouden die zones vervolgens voorspellingen op maat krijgen, die een inschatting geven van waar en wanneer misdaden zouden plaatsvinden. Met die voorspellingen zouden die misdaden voorkomen kunnen worden. Het zou nog te complex zijn om te voorspellen wie misdrijven zal plegen, en – gelukkig – zien de wetenschappers daarvoor ook ethische bezwaren, maar we bevinden ons op een hellend vlak.
Onaanvaardbaar risico
Moest de AI Act, die op 1 augustus van kracht ging, ons dan niet beschermen tegen de uitwassen van artificiële intelligentie? Zeker wel.
Even ter opfrissing: de AI Act deelt AI-toepassingen, afhankelijk van hun risico, op in vier categorieën. Systemen met een zogenaamd ‘onaanvaardbaar risico’ worden beschouwd als een gevaar voor de mens en zijn daarom verboden. Daaronder valt cognitieve gedragsmanipulatie, sociale scoring, voorspellend politiewerk op basis van profilering en biometrische identificatie om mensen in te delen in specifieke categorieën op basis van bijvoorbeeld ras, godsdienst of seksuele geaardheid.
De Europese Unie klopt zich, deels terecht, op de borst omdat ze als eerste ter wereld een verregaande AI-wetgeving heeft aangenomen. Tegelijk blijft diezelfde Unie artificiële intelligentie inzetten op manieren die minstens zorgwekkend te noemen zijn.
Systemen die op basis van grote hoeveelheden data beslissingen nemen, hebben een statistische relevantie die wij als mens niet kunnen overtreffen. Ik begrijp dus best dat de verleiding groot is om de machine eerder te vertrouwen dan onszelf. Maar daarmee schuiven we ook de verantwoordelijkheid van ons af, en dat mogen we niet laten gebeuren.
Als het op algoritmische besluitvorming aankomt, blijft een betekenisvolle menselijke controle van (levens)belang. We zijn het de mensheid verplicht om ons moreel kompas te blijven gebruiken.