GroenLinks kritisch over inzet algoritmes voor opsporen uitkeringsfraude

IT'er werkt aan een algoritme op zijn laptop

Kauthar Bouchallikh en Laura Bromet (beiden GroenLinks) zetten vraagtekens bij de inzet van algoritmes om uitkeringsfraude op te sporen. Ze vrezen dat algoritmes leiden tot vooringenomenheid en dat bijstandsontvangers onmogelijk kunnen weten waarom ze door het risicomodel worden aangemerkt voor nadere controle. Ook vragen ze zich af of de AVG in staat is om de kwaliteit van algoritmes te waarborgen.

Dat blijkt uit schriftelijke vragen van Bouchallikh en Bromet aan demissionair minister van Binnenlandse Zaken en Koninkrijksrelaties Kajsa Ollongren en staatssecretaris van hetzelfde ministerie Raymond Knops.

Rekenkamer Rotterdam: ‘Algoritmes kunnen leiden tot vooringenomenheid’

De vragen volgen nadat de Rekenkamer Rotterdam afgelopen week het rapport ‘Gekleurde technologie’ publiceerde. De onderzoekers concludeerden dat ambtenaren van de gemeente Rotterdam zich nauwelijks beseffen dat er ethische bezwaren kleven aan het gebruik van algoritmes. Doordat de besef niet wijdverbreid is, kan dit leiden tot vooringenomenheid. Het programma ‘analytics uitkeringsfraude’ analyseert bijvoorbeeld wie er mogelijk onterecht een uitkering ontvangt, maar uitkeringsgerechtigden hebben geen flauw idee waarom ze voor heronderzoek worden uitgenodigd.

Verder schrijft de Rekenkamer Rotterdam in het rapport dat de gemeente Rotterdam geen volledig overzicht heeft van de algoritmes die ze gebruikt, en wat de aard ervan is. Tevens is er geen centrale regisseur en integraal eindverantwoordelijke voor algoritmes. En tot slot zijn er geen richtlijnen om algoritmes te evalueren.

Wat vindt het kabinet van het rapport?

Al met al uitte de Rekenkamer Rotterdam forse kritiek op het handelen van de gemeente Rotterdam. Het College van B&W verdedigde het beleid door te stellen dat het werken met algoritmes ‘een relatief nieuw vakgebied’ is en daardoor waarborgen nog niet goed zijn uitgekristalliseerd. De burgemeester en wethouders beloven de aanbevelingen van de Rekenkamer te zullen overnemen.

De GroenLinks-fractie in de Tweede Kamer vindt dat niet ver genoeg gaan en vindt dat het kabinet meer moet doen om vooringenomenheid van algoritmes te voorkomen. De overheid heeft niet gereageerd op de uitkomsten van het rapport van de Rekenkamer. Bouchallikh en Bromet willen daarom weten wat demissionair minister Ollongren en staatssecretaris Knops over de conclusies van het rapport vinden.

De Kamerleden vragen zich af of het algoritme dat de gemeente Rotterdam gebruikt voor het programma ‘analytics uitkeringsfraude’ een zelflerend algoritme is of niet. In dat geval is het denkbaar dat het algoritme vaker specifieke demografische groepen eruit pikt voor heronderzoek. Ze willen van de bewindslieden horen of ze de conclusie delen dat het algoritme tot vooringenomenheid kan leiden omdat het risicomodel ook etnische achtergrond meeneemt om mensen te onderwerpen aan controles. De Rekenkamer Rotterdam stelde dat dit mogelijk via een omweg gebeurt door variabelen als laaggeletterdheid mee te nemen in het model.

GroenLinks wil van de minister en staatssecretaris horen hoe deze constatering zich verhoudt tot de motie-Klaver. Afgelopen januari nam de Tweede Kamer een motie van GroenLinks-fractievoorzitter Jesse Klaver aan. Daarin vroeg hij aan het kabinet om te verzekeren dat algoritmes die gebruikt worden door de overheid geen gevoelige variabelen als nationaliteit en etniciteit bevatten. Bij het algoritme dat de gemeente Rotterdam gebruikt lijkt daar wel sprake van.

Is het algoritme dat de gemeente Rotterdam gebruikt rechtmatig?

Een ander aspect waar GroenLinks kritische vragen over stelt, heeft met de controle door de gemeente Rotterdam te maken. Privacywetgeving geeft burgers het recht om inzicht te krijgen in de achtergrond van belangrijke beslissingen die hen aangaan. De Rekenkamer Rotterdam zegt dat bijstandsontvangers onmogelijk kunnen weten waarom het algoritme hen aanmerkt voor nadere controle. Ze willen weten hoe de vork in de steel steekt en een juridische onderbouwing met verwijzingen naar relevante wet- en regelgeving waaruit blijkt dat het algoritme zich aan de geldende regels houdt.

Bouchallikh en Bromet willen van de bewindslieden horen hoe het gebruik van algoritmes binnen het project ‘analytics uitkeringsfraude’ zich verhouden tot de rechterlijke uitspraak van vorig jaar februari die het gebruik van SyRI verbiedt. Systeem Risico Indicatie of SyRI was een fraude-opsporingssysteem dat gebruik maakte van algoritmes om uitkeringsfraude op te sporen. Daarvoor combineerde het systeem persoonsgegevens en andere informatie van burgers uit verschillende systemen. In februari 2020 oordeelde de rechtbank dat het systeem een te grote inbreuk maakt op de privacy van burgers. Minister voor Rechtsbescherming Sander Dekker kreeg hiervoor zelfs de Big Brother Award van belangenorganisatie Bits of Freedom.

De Rekenkamer Rotterdam concludeerde dat de bestaande AVG-wetgeving niet toereikend is voor een ‘goede borging van de ethiek en kwaliteit van algoritmes’. GroenLinks wil van het kabinet weten of zij deze mening deelt. Zo ja, op welke wijze vinden zij dan dat de Europese privacywetgeving aangepast moet worden.

Hoe staat het met de opzet van een algoritmeregister bij de overheid?

Verder is GroenLinks kritisch over het feit dat het programma ‘analytics uitkeringsfraude’ in de gemeente Rotterdam al vier jaar bestaat en nog steeds de status van een pilot heeft. Ze willen van Ollongren en Knops weten of ze bereid zijn om deze pilot per ommegaande te laten stopzetten. Ook vraagt de fractie zich af hoe het mogelijk is dat de betrokken ambtenaren amper beseffen dat er ethische risico’s aan het algoritme verbonden zijn. “Deelt u de mening dat de verantwoorde inzet van algoritmes onmogelijk is zonder besef van de risico’s? Zo ja, wat onderneemt u om bewustwording en kennis onder rijksambtenaren en medeoverheden op dit vlak te vergroten?”

De Rekenkamer constateerde dat de gemeente Rotterdam geen overzicht heeft van de algoritmes die de gemeente gebruikt. Bouchallikh en Bromet vragen of de Rijksoverheid wel zo’n overzicht heeft. Ze informeren of het kabinet bereid is om bij overheidsorganen aan te dringen op de aanstelling van een centrale regisseur en eindverantwoordelijke voor het gebruik van algoritmes. Tegelijkertijd vragen ze hoe ver de overheid is met de opzet van een algoritmeregister.

Gaat het kabinet regels, richtlijnen en instructies formuleren voor algoritmes?

GroenLinks vermoedt dat de problemen met algoritmes die bij de gemeente Rotterdam spelen, ook elders spelen. De fractie vraagt aan de bewindslieden of dit klopt en in hoeverre de regering dit bijhoudt. Bouchallikh en Bromet willen van de minister Ollongren en staatssecretaris Knops weten welke instanties toezicht houden op het gebruik van algoritmes bij de Rijksoverheid en andere overheidsorganen. “Hoeveel modellen zijn door een toezichthouder getoetst en hoeveel zijn aangemerkt als problematisch?”

De Rekenkamer Rotterdam stelde voor om voor alle algoritmes regels, richtlijnen en instructies te formuleren die transparantie en eerlijkheid waarborgen in ‘de systematische beoordeling en evaluatie van de in gebruik zijnde algoritmes’. De Kamerleden van GroenLinks willen weten of het kabinet bereid is om deze aanbeveling Rijksbreed op te volgen.

Techredacteur
Techliefhebber pur sang: Anton is gek op alles wat met technologie en internet te maken heeft. Cybersecurity, privacy en internetcensuur hebben dan ook zijn volle aandacht. Meer over Anton.
Plaats een reactie
Een reactie plaatsen