Algoritmische discriminatie
'Slimme algoritmes' nemen steeds meer arbeidsrechtelijk relevante beslissingen. Zo kunnen zelflerende systemen onder meer worden ingezet om te bepalen wie promotie krijgt of welk cv wordt geselecteerd in een sollicitatieprocedure. Ook in de opkomende platformeconomie worden veel arbeidsrechtelijk relevante beslissingen genomen door geautomatiseerde systemen: wie doet welke klus en tegen welke beloning?
Het is de vraag of dit soort beslissingen ook eerlijk(er) zijn wanneer zij geautomatiseerd zijn. Zelflerende algoritmes kunnen namelijk tot niet objectief te rechtvaardigen resultaten komen, zowel doordat het algoritme de vooroordelen van de programmeurs of hun opdrachtgevers weerspiegelt, als doordat het is getraind met historische oefendata die is voortgekomen uit een ongelijke historische situatie. In deze 'Ter Visie' verken ik twee arbeidsrechtelijk relevante, hiermee samenhangende, eigenaardigheden van zelflerende systemen.
De eerste eigenaardigheid is dat zulke systemen beslissingen nemen op basis van zeer grote hoeveelheden data, factoren en daarmee blootstaan aan veel potentiële claims uit hoofde van indirecte discriminatie. Een systeem dat onderscheid maakt op basis van de ogenschijnlijk neutrale maatstaf 'postcode' kan zo bijvoorbeeld ook onderscheid maken op basis van etniciteit, omdat het nu eenmaal vaak voorkomt dat mensen van een bepaalde etniciteit of sociale klasse bij elkaar in dezelfde wijk wonen.
De tweede eigenaardigheid is dat zelflerende systemen vaak een zogeheten 'black box' zijn. Dat hangt deels samen met het feit dat zulke systemen bedrijfsgeheim zijn. Het kan echter ook gaan om een eigenschap die inherent is aan het type systeem dat wordt gebruikt: van de meeste zelflerende systemen kan achteraf maar moeilijk worden gereconstrueerd waarom zij een bepaalde beslissing namen. Dat leidt tot verschillende problemen op het gebied van zowel materieel gelijkebehandelingsrecht als bewijsrecht.
Een voorbeeld van een probleem op het gebied van materieel gelijkebehandelingsrecht is het volgende: volgens jurisprudentie van het Europees Hof van Justitie zal van een beloningssysteem dat ondoorzichtig is eerder worden vermoed dat het discriminatoir is.
Een bewijsrechtelijk probleem zou kunnen voortvloeien uit het feit dat de bewijslast verschuift naar de werkgever zodra de werknemer het vermoeden van discriminatie heeft gevestigd. De werkgever moet dan bewijzen dat hij niet heeft gediscrimineerd. Een werkgever zal echter moeilijk in dit bewijs kunnen slagen, als hij een systeem hanteert dat kan worden omschreven als black box.
Het beste dat een werkgever die een black box gebruikt kan doen, is uitleggen hoe het systeem is ontworpen – bij voorkeur onder verwijzing naar maatregelen die zijn getroffen om zo min mogelijk discriminatoire effecten te hebben. Gelet hierop doen werkgevers die gebruik willen maken van zelflerende systemen er goed aan het ontwerpproces van hun zelflerende systeem goed te documenteren. Welke ontwerpbeslissingen worden er gemaakt, en waarom?
- M. Jovović, 'Ter Visie – Algoritmische discriminatie', TAO 2018, nr. 4, p. 141-145