Arnaud Louwette en Jolien Carnel
Waakzaamheid blijft belangrijk
“‘‘Is artificiële intelligentie een bedreiging voor de mensenrechten?’’
Artificiële intelligentie kan het leven heel wat makkelijker maken. Toch is het belangrijk waakzaam te blijven voor risico’s op schending van de mensenrechten, schrijven Arnaud Louwette en Jolien Carnel van het Federaal Instituut voor de Rechten van de Mens.
EFF (CC BY 2.0)
Artificiële intelligentie kan het leven heel wat gemakkelijker maken. Bedrijven en overheden kunnen efficiënter werken doordat taken geautomatiseerd worden. Toch is het belangrijk waakzaam te blijven voor risico’s op schending van de mensenrechten, schrijven Arnaud Louwette en Jolien Carnel van het Federaal Instituut voor de Rechten van de Mens.
Algoritmes en artificiële intelligentie (AI) maken een steeds groter deel uit van ons dagelijkse leven. Maar wat precies bedoeld wordt met deze begrippen en wat hun impact is, is niet altijd duidelijk. Nochtans is een goed begrip ervan belangrijk om waakzaam te blijven voor de risico’s die algoritmes en AI met zich meebrengen.
Een algoritme verwerkt een enorm aantal gegevens op een automatische manier en laat zo toe om snel beslissingen te maken. Wanneer een computer of andere machine daarbovenop ook nog zelf kan leren en beslissingen nemen, spreken we van AI. Denk maar aan robotstofzuigers, die de indeling van je huis leren kennen om het zo op een efficiënte manier stofvrij te houden.
AI en algoritmes zijn niet onfeilbaar
Het gedrag van zowel algoritmes als AI moet eerst door mensen worden bepaald. Bij klassieke algoritmes geeft een informaticus criteria in om uit een enorme hoeveelheid aan informatie de nodige gegevens te filteren. Het algoritme dat kinderen een school toewijst zal bijvoorbeeld kijken naar de afstand van de woonplaats tot de school, of naar broers of zussen die al naar die school gaan. Een algoritme is dus wiskunde. Het kan in een gewone Excel tabel verwerkt zijn.
Het wordt bij complexere dataverwerking steeds moeilijker om nog zicht te hebben op hoe een beslissing precies tot stand komt.
Artificiële intelligentie daarentegen kan je “voeden” met informatie, waaruit het zelf leert. Je kan AI bijvoorbeeld trainen om katten te identificeren, door het systeem heel veel foto’s van katten te laten bekijken. Als er tussen die foto’s echter ook een foto van een hond of een leeuw zit, kan de AI haar werk minder goed doen. Dat is ook het geval wanneer de AI enkel foto’s van witte katten te zien krijgt. Wanneer AI gebruikt wordt om gegevens van mensen te analyseren, kan de database waaruit AI leert ook foute of niet-representatieve gegevens bevatten, waardoor de AI fouten gaat maken of vooroordelen kan hebben. AI is dus niet zo neutraal als het op het eerste gezicht lijkt.
Bovendien wordt het bij complexere dataverwerking steeds moeilijker om nog zicht te hebben op hoe een beslissing precies tot stand komt. Dat werd heel duidelijk in Nederland, waar de overheid met SyRi (Systeem Risico Indicatie) een systeem van automatische gegevensverwerking creëerde om personen te identificeren die sociale fraude zouden kunnen plegen.
Gegevens van financiële diensten werden gekoppeld aan die van sociale zekerheid, immigratie, gezondheid of werk. Maar bijna niemand wist nog hoe die dataverwerking precies tot een beslissing leidde. Honderden kwetsbare families moesten hun kinderopvangtoeslag terugbetalen. De rechtbank van Den Haag stelde een schending vast van het recht op privéleven door het gebrek aan transparantie van het systeem en de daaruit voortvloeiende onmogelijkheid om het te controleren.
Meer transparantie nodig
Wanneer de overheid AI ontwikkelt of gebruikt, zou ze op zijn minst verplicht moeten zijn om een impactanalyse te doen die de risico’s op schending van de mensenrechten evalueert.
Het huidige voorstel voor wetgeving op Europees niveau gaat in die richting. Toepassingen van AI worden hier gecategoriseerd in functie van de risico’s voor schending van de mensenrechten. Het voorstel wil de meest risicovolle vormen van AI verbieden. Enkele voorbeelden hiervan volgen hieronder.
We moeten in België niet noodzakelijk wachten op ontwikkelingen op Europees niveau om meer transparantie te eisen. De risico’s van AI en algoritmes zijn er nu al.
Het voorstel wil ook eisen inzake kwaliteit, traceerbaarheid en menselijk toezicht opleggen voor bepaalde vormen van artificiële intelligentie die een groot risico vormen voor de mensenrechten. Dat is bijvoorbeeld zo voor toepassingen van AI die worden gebruikt om criminaliteit te proberen voorspellen. Zij identificeren wie strafbare feiten zou kunnen plegen en kijken hiervoor naar onder andere sociale achtergrond, woonplaats of opleiding. Criminaliteit voorkomen is natuurlijk positief, maar dergelijke systemen kunnen leiden tot systematische controles en stigmatisering van hele delen van de bevolking.
Tot slot eist het voorstel meer transparantie voor andere vormen van AI die minder gevaarlijk zijn, zoals de technologie voor deepfake en andere AI die wordt gebruikt om beeld-, audio- of video-inhoud te genereren of te manipuleren.
In België moeten we niet noodzakelijk wachten op de ontwikkelingen op Europees niveau om meer transparantie te eisen. Europese normen aannemen duurt namelijk lang, terwijl de risico’s van AI en algoritmes er nu al zijn. Daarom vroeg het Federaal Instituut voor de Rechten van de Mens recent nog om meer transparantie bij het gebruik van algoritmes en AI door de overheid.
Risicovolle vormen van AI verbieden
Meer transparantie is echter niet altijd voldoende. Sommige AI moet simpelweg verboden worden.
Aan de grenzen van de EU werd geëxperimenteerd met AI die grenscontroles zou kunnen automatiseren en “leugendetectors” die de geloofwaardigheid van migranten zouden moeten bepalen.
Denk maar aan “social scoring systems” waar mensen van de overheid een score krijgen. In Oostenrijk bijvoorbeeld geeft de overheid werkzoekenden een score op basis van de kans dat ze een job vinden. Uit een studie bleek dat wie als vrouwelijk werd geclassificeerd een lagere score kreeg.
Een andere risicovolle vorm van AI vind je aan de grenzen van de EU, waar in het kader van het controversiële proefproject iBorderCtrl geëxperimenteerd werd met AI die grenscontroles zou kunnen automatiseren en “leugendetectors” die de geloofwaardigheid van migranten zouden moeten bepalen. Het gebruik van dergelijke technologie is zeker niet onfeilbaar en creëert een risico op systematische schendingen van de mensenrechten en het recht op asiel. AI kan immers bepalen dat iemand geen recht heeft op asiel, terwijl dat eigenlijk wel het geval is.
Ook gezichtsherkenning met AI in de publieke ruimte moet verboden worden. Deze technologie maakte al het voorwerp uit van enkele proefprojecten in België, bijvoorbeeld op de luchthaven van Zaventem. In een recent advies heeft het Controleorgaan op de politionele informatie nog terecht vastgesteld dat er op dit moment geen wettelijke basis is voor het gebruik van deze technologie door politiediensten.
Nochtans is er op Europees niveau wel een debat gaande over de vraag of het gebruik van dergelijke technologie moet worden toegestaan. De Europese gegevensbeschermingsautoriteit riep alvast op tot een verbod. Volgens hen vormt dit een bedreiging voor de mensenrechten en zou het een maatschappij creëren waar iedereen op elk moment kan worden herkend en gevolgd.
Gelijkaardige kritiek werd geuit door het Hoog Commissariaat voor de Mensenrechten van de Verenigde Naties. Bovendien hebben studies al aangetoond dat dergelijke systemen het moeilijker hebben om gezichten te herkennen die niet wit zijn. Daardoor stijgt de kans dat mensen gecontroleerd worden louter omwille van hun huidskleur.
Waarborgen inbouwen
AI kan het leven heel wat gemakkelijker maken. Bedrijven en overheden kunnen efficiënter werken doordat taken geautomatiseerd worden. Bovendien kan AI heel snel een gigantische hoeveel data verwerken, iets wat mensen enorm veel tijd zou kosten. Een blindelings vertrouwen in deze technologie houdt echter ook risico’s in.
We moeten niet wachten op een Belgische SyRi-affaire om meer transparantie door te voeren en de gevaarlijkste vormen van AI te verbieden. Enkel zo kunnen we het potentieel van AI waarmaken met respect voor de mensenrechten van iedereen.
Arnaud Louwette is jurist en Jolien Carnel is communicatiemedewerker bij Het Federaal Instituut voor de Rechten van de Mens.