woman with camera

Handreiking gepubliceerd ter voorkoming van discriminatie door algoritmen

Published: 10 juni 2021 Laatst bijgewerkt: 10 juni 2021

In opdracht van het Ministerie van Binnenlandse Zaken heeft een team van onderzoekers van Tilburg University, Eindhoven University of Technology, Vrije Universiteit Brussel en het College voor de Rechten van de Mens een handreiking samengesteld met daarin stap voor stap uitgelegd hoe organisaties die kunstmatige intelligentie willen inzetten kunnen voorkomen dat hun algoritmen discrimineren. Het onderzoeksteam heeft gekeken naar technische, juridische en organisatorische voorwaarden die daarbij in acht moeten worden genomen. De handreiking geldt voor zowel de publieke als de private sector en zal zowel in het Nederlands als in het Engels verschijnen. Vandaag is deze Handreiking Non-Discriminatie by Design door het Kabinet naar de Tweede Kamer gestuurd.

Algoritmen worden steeds vaker ingezet om risico-gestuurd te werken en geautomatiseerde besluiten te nemen. Dat dit fout kan gaan bleek maar al te goed uit de kindertoeslagaffaire, waarbij minderheden onder meer door algoritmen stelselmatig werden gediscrimineerd door de Belastingdienst. De Handreiking geeft regels en randvoorwaarden aan overheidsorganisaties en bedrijven die algoritmen en kunstmatige intelligentie willen inzetten.

De Handreiking onderscheidt zes stappen voor het ontwikkelen en toepassen van algoritmen:

  1. het vaststellen van de probleemdefinitie;
  2. het verzamelen van data;
  3. de dataselectie;
  4. het vaststellen van een beleid voor automatische besluitvorming;
  5. het implementeren van het beleid; en
  6. het toetsen van het beleid.

Per stap worden juridische regels gegeven uit onder meer de Algemene Verordening Gegevensbescherming, de Wet Gelijke Behandeling en het Europees Verdrag voor de Rechten van de Mens, best practices uit de praktijk en voorbeelden uit de literatuur waarmee partijen rekening moeten houden.

Partijen betrekken

De handreiking vereist onder meer dat organisaties belanghebbenden en relevante groepen in de samenleving al vanaf het begin betrekken bij de ontwikkeling van het algoritme en dat externe, onafhankelijke experts gedurende het hele proces kritisch meekijken. Ook moeten personen ten aanzien waarvan automatische besluiten worden genomen daarvan op de hoogte worden gesteld en daar bezwaar tegen kunnen aantekenen, moet het systeem worden stopgezet bij geconstateerde fouten en gebreken en moet het hele proces permanent worden gemonitord. 

Mensenrechten

De Handreiking vloeit voort uit de toezegging van de regering dat mensenrechten als uitgangspunt zullen dienen bij de inzet van kunstmatige intelligentie en sluit aan bij de recentelijk aangenomen motie van Klaver en Ploumen over de nieuwe bestuurscultuur, waarin de Tweede Kamer onder meer uitsprak dat ‘er zo snel mogelijk een einde gemaakt moet worden aan racisme, in elk geval door te stoppen met het gebruik van discriminerende algoritmes’.

De handreiking is hier te vinden.

Zie ook de Kamerbrief van de regering aan de Tweede Kamer.

Noot voor de pers

Voor vragen of opmerkingen: dr. Bart van der Sloot, Tilburg Law School / TILT, bereikbaar via b.vdrsloot@tilburguniversity.edu of via persvoorlichter Corine Schouten, tel. 013 - 466 2993.