AP wil duidelijke regels over kunstmatige intelligentie

De Autoriteit Persoonsgegevens (AP) roept het kabinet op om snel werk te maken van duidelijke regels en effectief toezicht op kunstmatige intelligentie. Volgens de toezichthouder nemen de risico’s rond AI en algoritmes snel toe, terwijl er in Nederland nog onvoldoende mogelijkheden zijn om op te treden tegen onveilige of discriminerende systemen.
De oproep volgt op de nieuwste editie van de rapportage AI & Algoritmes Nederland. In deze periodieke analyse brengt de AP de belangrijkste ontwikkelingen en risico’s rond algoritmes en AI in kaart. Daaruit blijkt dat het algemene risicobeeld verslechtert. In de zogeheten AI-Impactbarometer, die verschillende indicatoren rond toezicht, incidenten en regelgeving meet, staan inmiddels vier van de negen graadmeters op rood. Dat is een verdubbeling ten opzichte van de vorige rapportage.
Volgens AP-voorzitter Aleid Wolfsen is snelle actie nodig om nieuwe incidenten te voorkomen. Hij wijst onder meer op de lessen uit de Nederlandse toeslagenaffaire, waarbij een discriminerend algoritme jarenlang grote gevolgen had voor duizenden gezinnen. Volgens Wolfsen laten dergelijke gebeurtenissen zien dat algoritmes en AI-systemen grote impact kunnen hebben op mensenrechten en maatschappelijke veiligheid.
Nieuwe risico’s
De AP signaleert daarnaast verschillende nieuwe risico’s, waaronder de snelle toename van deepfakes, AI-gestuurde fraude en mogelijke psychische schade door chatbots. Ook groeit het gebruik van AI-systemen bij besluitvorming over mensen, bijvoorbeeld in de strafrechtketen of bij werving en selectie van personeel. In zulke situaties bestaat volgens de toezichthouder het risico dat systemen verkeerde of discriminerende conclusies trekken zonder dat duidelijk is hoe die tot stand zijn gekomen.
Hoewel er inmiddels Europese regelgeving bestaat in de vorm van de EU AI Act, moet Nederland deze nog verder uitwerken en implementeren. De AP pleit daarom voor snelle invoering van nationale uitvoeringswetgeving, het aanwijzen van een speciale AI-toezichthouder en voldoende budget voor handhaving. Volgens Wolfsen moeten AI-systemen, net als bijvoorbeeld auto’s of medicijnen, eerst aantoonbaar veilig zijn voordat ze op grote schaal worden ingezet.





































































































