Gemeenten gebruiken slimme algoritmes voor fraudebestrijding

Man zit achter zijn laptop met pen in de hand

Minimaal 25 gemeenten maken gebruik van voorspellende systemen en slimme algoritmes om fraude binnen de gemeente te detecteren en bestrijden. In sommige gevallen gaat het om experimenten en pilots, in andere gevallen worden algoritmes volwaardig gebruikt in de dagelijkse praktijk. Critici waarschuwen voor de gevaren van risicoprofilering.

Dat blijkt uit onderzoek van de NOS.

Algoritmes, vloek of zegen?

Algoritmes zijn in beginsel niets meer dan een reeks instructies die een computer uitvoert om een beslissing te nemen, probleem op te lossen of prognose te doen. Algoritmes zorgen er bijvoorbeeld voor dat iemand automatisch een ontvangstbevestiging ontvangt. Of dat er een boete op de deurmat belandt als je een X-aantal kilometer boven de maximumsnelheid rijdt. Algoritmes nemen dus heel wat werk uit handen, maar zijn ook in staat om patronen te herkennen.

Er gaan echter ook gevaren schuil bij het gebruik van algoritmes, zeker als ze gebruikt worden voor risicoprofilering. Discriminatie, vooringenomenheid en stigmatisering loeren om de hoek. Een goed voorbeeld daarvan is de toeslagenaffaire met de kinderopvangtoeslag. Duizenden ouders werden ten onrechte bestempeld als fraudeur zodra er ook maar iets mis was met de aanvraag. Het gevolg was dat ze ten onrechte tienduizenden euro’s moesten terugbetalen en tot de financiële wanhoop werden gedreven. Sommigen moesten zelfs hun huis verkopen om de schulden bij de Belastingdienst te betalen.

Een ander voorbeeld waaruit blijkt dat algoritmes gevaarlijk kunnen zijn, is het Systeem Risico Indicatie (SyRI). Dit systeem maakt gebruik van algoritmes om uitkeringsfraude en andere vormen van bedrog op te sporen. Het combineert daarvoor persoonsgegevens en andere informatie van burgers uit verschillende systemen. In februari 2020 oordeelde de rechtbank dat het systeem een te grote inbreuk maakt op de privacy van burgers. Minister voor Rechtsbescherming Sander Dekker kreeg hiervoor zelfs de Big Brother Award van belangenorganisatie Bits of Freedom.

Gemeenten zetten algoritmen in voor fraudebestrijding en andere doeleinden

Niet alleen de Rijksoverheid, maar ook decentrale overheden doen een beroep op algoritmes. Deze worden veelal voor eenvoudige processen gebruikt, zoals het versturen van ontvangstberichten. Sommige Nederlandse gemeenten gaan een stuk verder. De NOS stelt dat zeker 25 gemeenten voorspellende systemen en algoritmes gebruiken voor zaken als het opsporen van bijstandsfraude, burgers helpen die met hoge schulden kampen of detecteren van criminaliteit op lokaal niveau.

In Amsterdam signaleren algoritmes inwoners die illegaal hun woning verhuren via platforms als Airbnb of in de schuldsanering dreigen te belanden. Breda zet algoritmes en machine learning in om de leefbaarheid van de stad te verbeteren. In de gemeentes Brielle en Nissewaard sporen ambtenaren bijstandsfraude op met algoritmes. En in Twenterand gebruiken medewerkers algoritmes om de zorgproblematiek in kaart te brengen.

Niet altijd duidelijk hoe algoritmen werken

Tegenstanders waarschuwen voor de gevaren van algoritmes. Ze zijn bang dat vooroordelen in voorspellende modellen en algoritmes terecht komen. Bits of Freedom erkent dat het lastig is om discriminatie helemaal uit te sluiten. “Ik geloof best dat gemeenten het goed bedoelen, maar je wordt als burger toch al vrij snel in een hoekje gestopt”, vertelt Nadia Benaissa van de burgerrechtenorganisatie tegenover de NOS.

Volgens de NOS is niet altijd duidelijk hoe algoritmes werken om risicoprofielen op te stellen. De Vereniging van Nederlandse Gemeenten (VNG) benadrukt dat algoritmen allerlei voordelen bieden voor gemeenten, maar is tegelijkertijd waakzaam. “Ze moeten wel voldoen aan principes van zorgvuldigheid, transparantie en proportionaliteit”, zegt een woordvoerder.

Algemene Rekenkamer: ‘Algoritmes bevatten geen black box’

De Algemene Rekenkamer bracht onlangs een rapport uit over de inzet van algoritmes door de overheid. Eén van de bevingen was dat ambtenaren zich niet louter laten leiden door de uitkomsten van algoritmes, maar altijd zelf beslissingen nemen op basis van hun kennis en expertise. Ook constateerden de onderzoekers dat de algoritmes geen black box bevatten. Dat houdt in dat de Rekenkamer kon nagaan hoe algoritmes werken en waarvoor ze werden ingezet.

Een andere conclusie was dat niet de burger, maar de overheid centraal staat als ze algoritmes inzet. De regering heeft weliswaar oog voor de privacy van burgers, maar ethische aspecten krijgen te weinig aandacht. Een van de aanbevelingen van de Rekenkamer luidde om “burgers op een logische plek inzicht te geven in welke data worden gebruikt in welke algoritmes, hoe die algoritmes op hoofdlijnen functioneren en welke impact de uitkomsten daarvan hebben”.

Om zwakheden van algoritmes in kaart te brengen, ontwikkelde de Rekenkamer een toetsingskader. Deze bevat vijf perspectieven waar de overheid rekening mee dient te houden als ze algoritmes inzet of laat ontwikkelen: sturing en verantwoording, data en model, IT General Controls, privacy en ethiek.

Privacy en security redacteur
Techliefhebber pur sang: Anton is gek op alles wat met technologie en internet te maken heeft. Cybersecurity, privacy en internetcensuur hebben dan ook zijn volle aandacht. 
Plaats een reactie
Een reactie plaatsen