Rechters en bezwaarcommissies moeten scherp zijn op besluiten van de overheid waarbij algoritmes een rol hebben gespeeld. En de overheid moet uit zichzelf transparant zijn over het gebruik van algoritmes. Daarvoor pleitte Aleid Wolfsen, voorzitter van de Autoriteit Persoonsgegevens (AP), tijdens een bijeenkomst in de Week van de Rechtsstaat over kunstmatige intelligentie (AI) in de rechtspraak.
Wolfsen ging in op de uitdagingen die algoritmes en AI met zich meebrengen voor de rechtelijke controle van overheidsbesluiten. Waarom werden bijvoorbeeld de problemen met algoritmes om het risico op fraude in te schatten, zoals bij de Belastingdienst en DUO, zo laat ontdekt? Wolfsen: “Het had veel leed kunnen voorkomen als deze organisaties transparanter waren geweest over deze algoritmes. En als rechters actiever en nieuwsgieriger waren geweest.”
Een eerste stap naar meer transparantie is dat de overheid het uit zichzelf laat weten wanneer algoritmes een rol hebben gespeeld bij een genomen besluit of in de aanloop daarnaartoe. En hierbij heldere uitleg geeft. Dit kan bijvoorbeeld in de toelichtingsbrief bij het besluit. “De rechter moet overheidsbesluiten kunnen controleren op bijvoorbeeld discriminatie, ook bij algoritmes. Daarom is actieve transparantie over het gebruik van algoritmes belangrijk. Zo kunnen burgers, advocaten en rechters daar alert op zijn”, aldus Wolfsen.
Verder kijken dan het geschil
Maar transparantie alleen is niet voldoende. Het is ook nodig dat rechters actief toetsen op de impact van algoritmes op overheidsbesluiten. De rechter zou dus altijd voorbij het geschil moeten kijken waarvoor iemand naar de rechter is gestapt.
Wolfsen legt uit: “De overheid gebruikt algoritmes vaak om efficiënter te zijn door algoritmes op grote schaal in te zetten. Hierdoor kunnen de mogelijke risico’s – zoals onjuiste uitkomsten en discriminatie – impact hebben op een grote groep mensen. Dit zagen we bij de Toeslagenaffaire.”
“Rechters zouden al extra alert moeten zijn bij ieder vermoeden dat er bij of in de aanloop naar een besluit een algoritme is gebruikt, bijvoorbeeld voor risicoselectie. En zij zouden dat moeten toetsen. Ook als advocaten of burgers daar niet om vragen. Als er in de aanloop naar een besluit bijvoorbeeld sprake is geweest van discriminatie, dan heeft dat immers bijna altijd gevolgen voor de rechtmatigheid van het besluit dat daarop volgt.”
AI op het programma
Tijdens de bijeenkomst kwamen meerdere sprekers aan het woord. Directeur Sven Stevenson (directie Coördinatie Algoritmes van de AP) ging in op de aankomende AI-verordening en het toezicht op algoritmes en AI door de AP en andere toezichthouders. De dag stond verder in het teken van een lezing van raadsheer Manuella van der Put (Gerechtshof ‘s-Hertogenbosch), gepromoveerd op AI in de rechtspraak, over het gebruik van algoritmes en AI door rechters.
Robotrechter of mens?
Hoewel Van der Put potentie ziet voor AI in de rechtspraak, betwijfelt zij of er een heuse ‘robotrechter’ aankomt. Die zal misschien geen last hebben van vermoeidheid, werkdruk of een ‘afterlunchdip’. Maar oog hebben voor emoties, rechtvaardigheid en rechtsgevoel kan een machine (voorlopig) nog niet, aldus Van der Put.
Tijdens haar promotieonderzoek ontwikkelde Van der Put samen met de Jheronimus Academy for Data Science een AI-tool waarmee rechters de grote hoeveelheid beroepszaken over lichte verkeersovertredingen efficiënter kunnen afhandelen. De tool geeft in een dashboard een overzicht van de zaak: bijvoorbeeld of deze niet-ontvankelijk is (vanwege het te laat indienen van het beroep), een samenvatting van de kern van de zaak en hoe er is geoordeeld bij vergelijkbare zaken.
Van der Put concludeerde haar lezing met de stelling dat de menselijke rechter nodig blijft. Bovendien moeten rechters compleet transparant te werk gaan. Dat is met AI niet altijd mogelijk. Desondanks denkt zij dat AI het werk van de rechter kan verlichten, bijvoorbeeld door het automatisch beoordelen van de niet-ontvankelijkheid in bepaalde zaken.