Beveiligingnieuws Logo

Onze partners

Synguard

ARAS

Ajax Systems

Alphatronics

VGN Group

VBN

ASIS

Bydemes

Brivo

Hanwha Vision Europe

CSL

SmartCell

OSEC

Traka ASSA ABLOY

Unii

Multiwacht Security

Gold-IP

Service Centrale Nederland

Secusoft

ASSA ABLOY

Eizo

NIBHV

VEB

Intrasec

SOBA

Seagate

Advancis

Kidde Commercial

Paraat

Top Security

SmartSD

SMC Alarmcentrale

HID

Alarm Meldnet

Network Optix

MOBOTIX

Lobeco

VAIBS

VVNL

Eagle Eye Networks

LUGN

Aritech

Teletek

ADI

i-Pro

Add Secure

Nenova

CDVI

Seris

Centurion

Masset

VisionPlatform.ai

Optex

Securitas

BHVcertificaat.online

Uniview

Bosch Security Systems

Milestone

Trigion

Distri Company

IDIS

Hikvision

MPL

Regio Control Veldt

Akuvox

Paxton

Paralax

HD Security

Genetec

2N

Van Dusseldorp Training

OpenEye

Crown Security Services

Sequrix

Connect Security

G4S

Zorgen over kunstmatige intelligentie in rechtspraak

26 juni 2024
Redactie
05:10

Rechters en bezwaarcommissies moeten scherp toezien op overheidsbesluiten waarbij algoritmes zijn gebruikt. De overheid moet zelf transparant zijn over het gebruik van algoritmes, benadrukte Aleid Wolfsen, voorzitter van de Autoriteit Persoonsgegevens (AP), tijdens de Week van de Rechtsstaat over kunstmatige intelligentie (AI) in de rechtspraak.

Wolfsen belichtte de uitdagingen die algoritmes en AI meebrengen voor de juridische controle van overheidsbesluiten. Hij vroeg zich af waarom problemen met algoritmes voor fraude-inschatting bij bijvoorbeeld de Belastingdienst en DUO zo laat aan het licht kwamen. Wolfsen stelde: “Veel leed had kunnen worden voorkomen als deze organisaties transparanter waren geweest over hun algoritmes en als rechters actiever en nieuwsgieriger waren geweest.”
Een eerste stap naar meer transparantie is dat de overheid zelf aangeeft wanneer een algoritme een rol heeft gespeeld bij een besluit en daarbij een duidelijke uitleg geeft. Dit kan bijvoorbeeld in een toelichtingsbrief bij het besluit. “Rechters moeten overheidsbesluiten kunnen controleren op bijvoorbeeld discriminatie, ook bij algoritmes. Daarom is actieve transparantie over het gebruik van algoritmes cruciaal,” aldus Wolfsen.

Verder kijken dan het geschil
Transparantie alleen is echter niet genoeg. Rechters moeten ook actief toetsen wat de impact van algoritmes op overheidsbesluiten is. Ze moeten verder kijken dan alleen het geschil waarvoor iemand naar de rechter is gestapt. Wolfsen legt uit: “De overheid gebruikt vaak algoritmes om efficiënter te zijn, wat risico’s zoals onjuiste uitkomsten en discriminatie met zich mee kan brengen. Dit zagen we bij de Toeslagenaffaire.”
Rechters moeten extra alert zijn bij ieder vermoeden dat er een algoritme is gebruikt in de aanloop naar een besluit, bijvoorbeeld voor risicoselectie, en dit toetsen, zelfs als advocaten of burgers hier niet om vragen. Discriminatie in de aanloop naar een besluit beïnvloedt immers de rechtmatigheid van het daaropvolgende besluit.

AI op het Programma
Tijdens de bijeenkomst spraken verschillende experts. Sven Stevenson, directeur Coördinatie Algoritmes van de AP, besprak de aankomende AI-verordening en het toezicht op algoritmes en AI door de AP en andere toezichthouders. Raadsheer Manuella van der Put van het Gerechtshof ‘s-Hertogenbosch, gepromoveerd op AI in de rechtspraak, sprak over het gebruik van algoritmes en AI door rechters.
Van der Put ziet potentie voor AI in de rechtspraak, maar betwijfelt of er een ‘robotrechter’ zal komen. Een machine kan voorlopig geen oog hebben voor emoties, rechtvaardigheid en rechtsgevoel. Ze ontwikkelde een AI-tool waarmee rechters efficiënt lichte verkeersovertredingen kunnen afhandelen, maar concludeerde dat menselijke rechters essentieel blijven en transparantie noodzakelijk is.
De bijeenkomst eindigde met een debat, stellingen en een gesprek met het publiek over deze ontwikkelingen.

Deel dit artikel via:

Vlog

Premium partners

Boon Edam

Suricat

Seagate

SequriX

Distri Company

Artitech Kidde Commercial

Wordt een partner