Discriminerende algoritmes?! Recent was in het nieuws dat de overheid op grote schaal algoritmes zou inzetten die potentieel discriminerend zouden kunnen zijn.

Lees verder onder de foto.

algoritmes-machine-learning-discriminatie-overheid

Algoritmes, ofwel machine learning modellen, leren van de data die ze gevoed krijgen. Hierdoor kunnen ze onbedoeld gaan discrimineren op basis van geslacht, etniciteit, geloof of seksuele voorkeuren.

Er zijn meerdere manieren om te voorkomen dat algoritmes ongewenst of zelfs onwettelijk gedrag gaan vertonen. Een eenvoudige oplossing is om dit soort kenmerken niet te gebruiken als trainingsdata voor het model. Zo kan er ook niet op gediscrimineerd worden.

Lastiger wordt dit als in de data zaken zitten die gerelateerd of gecorreleerd zijn aan zo’n kenmerk. Denk hierbij bijvoorbeeld aan de lichaamslengte en beroepsgroep: in dit soort informatie kan het geslacht verborgen zitten. Dit vraagt zorgvuldigheid in het onderzoeken en inzetten van die data.

Er zijn nog veel meer tactieken om ongewenste discriminatie van machine learning modellen te voorkomen. Herken je deze uitdaging en wil je voorkomen dat de algoritmes die je gebruikt, onbedoeld discrimineren? We denken graag met je mee!