Beveiligingnieuws Logo

Onze partners

Uniview

JMB Groep

HID

Nimo Drone Security

Akuvox

Network Optix

VBN

CDVI

SmartCell

DZ Technologies

ADI

Service Centrale Nederland

Milestone

Paxton

Unii

Crown Security Services

Alarm Meldnet

Eizo

CSL

Ajax Systems

NetworxConnect

HD Security

Avigilon Alta

Masset Solutions

ASSA ABLOY

Traka ASSA ABLOY

Eagle Eye Networks

Dero Security Products

OSEC

Top Security

BHVcertificaat.online

Optex

Explicate

Oribi ID Solutions

De Beveiligingsjurist

PG Security Systems

Hikvision

VEB

RoSecure

VVNL

Hanwha Vision Europe

VAIBS

Advancis

SOBA

Lobeco

CardAccess

Centurion

NIBHV

Regio Control Veldt

GFT

20face

Paraat

Securitas

Multiwacht

VideoGuard

Seagate

Bosch Security Systems

Bydemes

G4S

ARAS

Genetec

Secusoft

SmartSD

Seris

Kiwa

Add Secure

i-Pro

Gold-IP

SMC Alarmcentrale

Trigion

2N

Nenova

Alphatronics

Sequrix

Brivo

ASIS

Connect Security

IDIS

EAL

Nimo Dog Security

Zorgen over kunstmatige intelligentie in rechtspraak

26 juni 2024
Redactie
05:10

Rechters en bezwaarcommissies moeten scherp toezien op overheidsbesluiten waarbij algoritmes zijn gebruikt. De overheid moet zelf transparant zijn over het gebruik van algoritmes, benadrukte Aleid Wolfsen, voorzitter van de Autoriteit Persoonsgegevens (AP), tijdens de Week van de Rechtsstaat over kunstmatige intelligentie (AI) in de rechtspraak.

Wolfsen belichtte de uitdagingen die algoritmes en AI meebrengen voor de juridische controle van overheidsbesluiten. Hij vroeg zich af waarom problemen met algoritmes voor fraude-inschatting bij bijvoorbeeld de Belastingdienst en DUO zo laat aan het licht kwamen. Wolfsen stelde: “Veel leed had kunnen worden voorkomen als deze organisaties transparanter waren geweest over hun algoritmes en als rechters actiever en nieuwsgieriger waren geweest.”
Een eerste stap naar meer transparantie is dat de overheid zelf aangeeft wanneer een algoritme een rol heeft gespeeld bij een besluit en daarbij een duidelijke uitleg geeft. Dit kan bijvoorbeeld in een toelichtingsbrief bij het besluit. “Rechters moeten overheidsbesluiten kunnen controleren op bijvoorbeeld discriminatie, ook bij algoritmes. Daarom is actieve transparantie over het gebruik van algoritmes cruciaal,” aldus Wolfsen.

Verder kijken dan het geschil
Transparantie alleen is echter niet genoeg. Rechters moeten ook actief toetsen wat de impact van algoritmes op overheidsbesluiten is. Ze moeten verder kijken dan alleen het geschil waarvoor iemand naar de rechter is gestapt. Wolfsen legt uit: “De overheid gebruikt vaak algoritmes om efficiënter te zijn, wat risico’s zoals onjuiste uitkomsten en discriminatie met zich mee kan brengen. Dit zagen we bij de Toeslagenaffaire.”
Rechters moeten extra alert zijn bij ieder vermoeden dat er een algoritme is gebruikt in de aanloop naar een besluit, bijvoorbeeld voor risicoselectie, en dit toetsen, zelfs als advocaten of burgers hier niet om vragen. Discriminatie in de aanloop naar een besluit beïnvloedt immers de rechtmatigheid van het daaropvolgende besluit.

AI op het Programma
Tijdens de bijeenkomst spraken verschillende experts. Sven Stevenson, directeur Coördinatie Algoritmes van de AP, besprak de aankomende AI-verordening en het toezicht op algoritmes en AI door de AP en andere toezichthouders. Raadsheer Manuella van der Put van het Gerechtshof ‘s-Hertogenbosch, gepromoveerd op AI in de rechtspraak, sprak over het gebruik van algoritmes en AI door rechters.
Van der Put ziet potentie voor AI in de rechtspraak, maar betwijfelt of er een ‘robotrechter’ zal komen. Een machine kan voorlopig geen oog hebben voor emoties, rechtvaardigheid en rechtsgevoel. Ze ontwikkelde een AI-tool waarmee rechters efficiënt lichte verkeersovertredingen kunnen afhandelen, maar concludeerde dat menselijke rechters essentieel blijven en transparantie noodzakelijk is.
De bijeenkomst eindigde met een debat, stellingen en een gesprek met het publiek over deze ontwikkelingen.

Deel dit artikel via:

Vlog 11

Premium partners

Videoguard

Seagate

SequriX

Suricat

Wordt een partner