Reclassering gebruikte jarenlang foutieve algoritmes: één op vijf risicobeoordelingen klopte niet
In dit artikel:
De Nederlandse reclassering gebruikte jarenlang een risicomodel, Oxrec, om rechters te adviseren over terugkeer van verdachten en veroordeelden — ongeveer 48.000 keer per jaar. Een onderzoek van de Inspectie Justitie en Veiligheid laat zien dat dat model grootschalig tekortschiet: in één op de vijf gevallen bleek de inschatting onjuist, en bij de meeste fouten werd het recidiverisico te laag voorgesteld. Dat betekent dat mensen mogelijk te vroeg vrijgelaten zijn of dat publieke veiligheid onnodig is aangetast.
Belangrijke gebreken in het model:
- Het draaide op verouderde Zweedse gegevens in plaats van Nederlandse data, waardoor demografie, criminaliteitscijfers en rechtssystemen niet overeenstemden met de Nederlandse context.
- Cruciale formules waren verwisseld, probleemgebruik van drugs werd niet goed meegenomen en ernstige psychische stoornissen ontbraken als factor.
- Het model bevatte variabelen zoals postcode en inkomen, die indirect kunnen leiden tot discriminerende uitkomsten en etnisch profileren.
Al in 2020 werd de reclassering gewaarschuwd voor discriminatiegevaar; in 2021 benadrukte het College voor de Rechten van de Mens dat zulke elementen zonder degelijke onderbouwing niet gebruikt mogen worden. Desondanks bleef Oxrec in gebruik, zonder voldoende toetsing of lokale validatie. Experts, onder wie Cynthia Liem (TU Delft), noemen het pijnlijk dat het model nooit correct is toegepast en dat toezicht ontbrak. De Autoriteit Persoonsgegevens bestempelt het rapport als een van de “pijnlijkste” in jaren; hun woordvoerder wijst erop dat burgers moeten kunnen vertrouwen op eerlijkheid en niet-discriminatie van zulke systemen.
Directeur Jessica Westerik erkent dat de conclusies confronterend zijn en spreekt van onvoldoende kennis binnen de organisatie. Ze zegt verantwoordelijkheid te willen nemen en wijst erop dat het professionele oordeel van medewerkers leidend blijft. Tegelijk kan ze niet uitsluiten dat mensen te vroeg vrijkwamen, maar noemt de kans “heel erg klein.”
De kern van de kritiek is bestuurlijk en maatschappelijk: een algoritme met serieuze fouten en mogelijke bias heeft jarenlang invloed gehad op beslissingen die over vrijheid en veiligheid gaan, terwijl de gevolgen vooral door gewone burgers worden gevoeld — winkeliers, buurtbewoners en slachtoffers. Het rapport roept vragen op over toezicht, verantwoording en het gebruik van buitenlandse datasets in strafrechtelijke risico-inschattingen. Voor een publiek dat veiligheid en rechtsgelijkheid verwacht, zijn maatregelen voor herstel, heldere verantwoording en strikte validatie van dergelijke modellen noodzakelijk.