Het kabinet heeft onderzoek laten doen naar de vraag of beleid en regelgeving rondom algoritmen voldoet. De conclusies die het kabinet uit de verschillende onderzoeken trekt, zijn vastgelegd in een Kamerbrief.
Highlights:
- In het onderzoek ‘Onvoorziene effecten van zelflerende algoritmen’ zijn de onvoorziene effecten van zelflerende algoritmen in kaart gebracht die zouden moeten worden voorkomen. Het kabinet gaat nader verkennen welke maatregelen kunnen bijdragen aan het voorkomen van negatieve onvoorziene effecten.
- In het onderzoek ‘Juridische aspecten van algoritmen die besluiten nemen’ is aan de hand van vier casestudy’s (contentmoderatie door online platformen, zelfrijdende auto’s, de rechtspraak en overheidsincasso bij verkeersboetes) verkend of het huidige juridisch kader volstaat. Het kabinet signaleert het volgende: Om normen toekomstbestendig te maken, worden ze vaak breed en open geformuleerd. Maar daardoor kan ook onzekerheid ontstaan voor concrete situaties. In het eerste kwartaal van 2021 zal het kabinet aanvullende wettelijke waarborgen inrichten voor de richtlijnen voor data-analyses door overheden.
- Dit jaar worden in opdracht van het kabinet technische ontwerpprincipes opgeleverd om risico’s op discriminatie door AI-systemen al in de ontwikkelfase te voorkomen. Begin 2021 volgt een model voor een impactassessment dat overheidsorganisaties in een vroegtijdig stadium helpt bij het ondervangen van risico’s.
- Volgens artikel 9 AVG is het verwerken van bijzondere persoonsgegevens (zoals bijvoorbeeld iemands etnische afkomst, politieke opvattingen of religieuze overtuiging) in beginsel verboden. Volgens het besluitvormingsonderzoek zou het verwerken van zulke gegevens echter juist kunnen helpen bij het voorkomen van discriminatie in het model van de werkelijkheid dat besloten ligt in een algoritme. Het kabinet gaat kijken naar een nationale wettelijke grondslag om zo nodig van genoemd verbod af te wijken.
De brief en de onderzoeken worden betrokken bij het algemeen overleg Digitalisering op 10 december a.s.