Nieuws
08 augustus 2019

CBS en Amsterdam bestrijden oneerlijk algoritme

Het Centraal Bureau voor de Statistiek (CBS) heeft voor de gemeente Amsterdam een methode ontwikkeld om oneerlijke algoritmes tegen te gaan in de praktijk. Deze zogeheten FairTrade-methode spoort op wanneer etniciteit of andere gevoelige persoonsgegevens invloed hebben bij de besluitvorming van algoritmes. Bijvoorbeeld bij Nederlanders die, al dan niet onterecht, bijstand ontvangen. Dat meldt het CBS.

De methode is ontwikkeld door student Rik Helwegen van de Universiteit van Amsterdam (UvA). Hij ontwikkelde de methode in het kader van zijn masteropleiding Kunstmatige Intelligentie.

‘Steeds meer gemeenten experimenteren met een data gedreven-aanpak en zetten hiervoor algoritmen in die gebruik maken van machine learning. Wanneer etniciteit of andere gevoelige achtergrondkenmerken van personen de beslissingen van gemeenten beïnvloeden, kan dat ethische of wettelijke bezwaren opleveren’, legt Helwegen uit aan het CBS.

Daarom ontwikkelde hij een praktische methode waarbij algoritmen 'een eerlijk antwoord op complexe vragen geven’. Hierbij maakt hij gebruik van de causaliteitstheorie. ‘De methode corrigeert aan de hand van schattingen causale verbanden, die voortkomen uit de combinatie van data en domeinkennis. Het uitgangspunt is dat de uitkomst van het model hetzelfde moet zijn als de waarde van een gevoelig persoonskenmerk wordt omgewisseld, bijvoorbeeld een niet-westerse achtergrond voor een westerse achtergrond.'

Lees verder >>

FacebookTwitterLinkedinMailPrint

Lees ook

Hoofdmediapartner
Mediapartners