Hoe discriminerend zijn algoritmes? Wetenschap­pers testen dat met twee­duizend wereldburgers

donderdag, 6 november 2025 (11:13) - De Volkskrant

In dit artikel:

Een internationale groep wetenschappers zette een grote, zogenaamd representatieve fotocollectie in om meerdere gezichtsherkennings- en labelingsystemen te testen op vooroordelen. Aanleiding is eerdere observaties dat AI bij het herkennen en categoriseren van mensen nog regelmatig foutief of bevooroordeeld handelt. Met het onderzoek wilden de onderzoekers nagaan of die problemen met moderne systemen nog steeds voorkomen en in welke mate bepaalde groepen (bijvoorbeeld op basis van huidskleur, geslacht of leeftijd) onevenredig worden getroffen.

De nadruk ligt niet alleen op het vergelijken van algoritmen, maar ook op de rol van de dataset zelf: een ‘representatieve’ verzameling foto's bepaalt in sterke mate hoe eerlijk een model presteert. Hoewel de korte tekst geen uitkomstbeschrijving geeft, sluit dit type studie doorgaans aan bij bredere zorgen over discriminatie in toepassingen zoals surveillance, werving en medische beeldanalyse. Belangrijke lessen uit vergelijkbare onderzoeken zijn het belang van transparante audits, diversere trainingsdata en onafhankelijke toetsing om onbedoelde bias te beperken.