Customize Consent Preferences

We use cookies to help you navigate efficiently and perform certain functions. You will find detailed information about all cookies under each consent category below.

The cookies that are categorized as "Necessary" are stored on your browser as they are essential for enabling the basic functionalities of the site. ... 

Always Active

Necessary cookies are required to enable the basic features of this site, such as providing secure log-in or adjusting your consent preferences. These cookies do not store any personally identifiable data.

No cookies to display.

Functional cookies help perform certain functionalities like sharing the content of the website on social media platforms, collecting feedback, and other third-party features.

No cookies to display.

Analytical cookies are used to understand how visitors interact with the website. These cookies help provide information on metrics such as the number of visitors, bounce rate, traffic source, etc.

No cookies to display.

Performance cookies are used to understand and analyze the key performance indexes of the website which helps in delivering a better user experience for the visitors.

No cookies to display.

Advertisement cookies are used to provide visitors with customized advertisements based on the pages you visited previously and to analyze the effectiveness of the ad campaigns.

No cookies to display.

Racisme in algoritmes

De Black Lives Matter-beweging strijdt voor vrijheid, bevrijding en rechtvaardigheid.

Tijd om ook algoritmes onder de loep te nemen om te zien of ze rechtvaardig en zonder vooroordelen zijn opgebouwd. Is de mens in staat om een algoritme te bouwen zonder vooroordelen, discriminatie en racisme?

De Belastingdienst voegde bij de controle van de aangiftes een extra selectieregel toe, op basis van etniciteit. Bedacht door een mens, uitgevoerd door computer. Een soort ‘Computer Says No’- principe, waar de computer op binair niveau een uitslag uitspuugt op basis van een tweede nationaliteit. Het ging mis, en de Belastingdienst erkende haar fout.

Hoe kunnen we ervoor zorgen dat algoritmes gevrijwaard zijn van subjectiviteit en vooroordelen? Of kunnen we sommige oordelen toch beter overlaten aan de mens? In een podcast van The Guardian vertelt schrijver Malcolm Gladwell over zijn nieuwe boek Talking to Strangers. Hij deelt een experiment uit de Verenigde Staten waarin rechters wedijveren met robots. Rechters in New York moeten soms honderden zaken per dag wegwerken. Ze beslissen of ze de verdachte vrijlaten en terug laten komen voor een uitgebreider proces, of opsluiten omdat er een ogenblikkelijk gevaar is voor de maatschappij.

Is de mens in staat om een algoritme te bouwen zonder vooroordelen, discriminatie en racisme?

In dit experiment op schaal worden honderdduizenden zaken behandeld door een menselijke rechter en een AI-robot. Het verschil tussen het beoordelingsvermogen van robot en mens blijkt aanzienlijk. Als de computer hetzelfde aantal beklaagden zou vrijlaten als de rechters, zouden deze beklaagden een kwart minder misdaden begaan in de toekomst. De voorspelling van de robotrechter was in dit geval dus aanzienlijk accurater. Onbewust neemt de rechter niet-rationele zaken mee, zoals non-verbale communicatie. Iemand die lacht in de rechtszaal of ongeduldig schuifelt op zijn stoel zal wel wat te verbergen hebben. Dit wordt door een relatief homogene groep van rechters, onbewust of bewust in de uitspraak meegenomen.

Het blijft mensenwerk om morele en sociale zaken af te wegen en te oordelen over goed en fout. En uiteraard wordt de kwaliteit van de robot-output bepaald door programmering en input van mensen die de algoritmes schrijven.

Toch zijn er voordelen in dit voorbeeld: naast accuratesse is er de tijdswinst. Laat die computer zich maar verdiepen in dikke wetboeken en dossiers vol met jurisprudentie, dan kan er meer menselijke tijd besteed worden aan complexere zaken. Om die reden wordt in Amerika Robot Ross al ingeschakeld, een soort Siri die je juridische vragen kan stellen. Geen Mike Ross uit Suits, maar Robot Ross.

Minder vooroordelen in de rechtszaal is het streven, zodat Vrouwe Justitia haar blinddoek kan blijven om houden.

Bron: FD.
Door: Sanne Kanis

June 30, 2020