... en je weet het
Kunnen algoritmes discrimineren?
Steeds meer bedrijven gebruiken kunstmatige intelligentie in de vorm van algoritmes.
Hiermee laten we computers voor ons beslissen.
Maar zijn computers wel zo neutraal?
Nee.
Computers kunnen discrimineren. De algoritmes leren van de data die mensen er in stoppen.
Wat nu als deze data (onbedoelde) vooroordelen van mensen bevatten die de algoritmes overnemen?
Die vooroordelen kunnen soms verkeerd uitpakken als de algoritmes voor belangrijke beslissingen worden ingezet. Zo gebruiken banken algoritmes om te beoordelen of je een krediet mag aanvragen. En ook in rechtszaken in de VS experimenteren ze hiermee.
Door vooroordelen in algoritmes kan je een baan of een paspoort mislopen.
1:56 min
Algoritmes krijgen vaak eenzijdige data te zien. Zo worden ze bijvoorbeeld vaker 'getraind' met voorbeelden en foto's van witte mensen.
Veel herkenningssystemen met algoritmes werken daardoor beter op witte mensen dan op mensen met een donkere huidskleur.
Zelfrijdende auto’s zouden bijvoorbeeld mensen met een donkere huidskleur minder goed detecteren.
NOSop3
Algoritmes kunnen naast gevaarlijke effecten ook seksistische resultaten opleveren.
Google Translate bevatte tot voor kort een bekend vooroordeel. Het algoritme pakte bij vertalingen stereotiep uit en vond de man belangrijker dan de vrouw.
Wie ‘she is a doctor, he is a nurse’ intypte en dit vanuit het Engels naar een onzijdige taal als het Turks of Perzisch en weer terug vertaalde, zag dat hij ineens de dokter was en zij de verpleegster. Google Translate is bezig deze fouten te herstellen.