Er moet haast worden gemaakt met de uitvoering van regels en toezicht rond kunstmatige intelligentie (AI). Dat is de duidelijke noodkreet van de Autoriteit Persoonsgegevens (AP). Nu AI steeds dieper doordringt in het dagelijks leven van zowel particulieren als organisaties, en steeds meer bedrijven ermee willen werken, groeit ook de behoefte aan heldere regels.
Volgens de AP ontbreekt het op dit moment vaak aan een goed beeld van de risico’s. In de nieuwe AI-impactbarometer kleurt de situatie zelfs rood. De toezichthouder waarschuwt dat organisaties onvoldoende voorbereid zijn op de gevolgen van hun AI-toepassingen en dat actie noodzakelijk is. Als dat te lang op zich laat wachten, kan dat grote gevolgen hebben voor onderzoekers, data-analisten en insightsprofessionals. Juist zij staan namelijk vaak aan de basis van de modellen, analyses en datastromen waar AI op draait.
▼
AI groeit sneller dan het toezicht erop
De AI-impactbarometer van de AP laat zien dat het gebruik van AI in Nederland snel toeneemt, maar ook dat er nog flink wat aandachtspunten liggen. Zo werd in de zomer van 2025 al opgeroepen tot duidelijkere kaders en meer bevoegdheden voor toezicht op AI-systemen. Ook werd gepleit voor geharmoniseerde en praktisch toepasbare standaarden, en voor meer transparantie rond hoe AI-systemen functioneren.
Kijk je naar de situatie een paar maanden later, in de winter van 2025/2026, dan blijkt dat die kaders inmiddels achterlopen op de snelheid waarmee AI zich ontwikkelt. Terwijl het gebruik van AI in organisaties blijft groeien, blijven de regelgeving en het toezicht nog achter. Dat vergroot de druk om snel duidelijkheid te creëren.
De zorgen van toezichthouders gaan inmiddels verder dan alleen technische of juridische risico’s. Er verschijnen steeds vaker signalen dat AI-systemen ook maatschappelijke en psychologische impact kunnen hebben. Zo klaagden ouders in de Verenigde Staten het bedrijf achter ChatGPT aan na de zelfmoord van hun tienerzoon, waarbij volgens hen een AI-chatbot een rol speelde. Tegelijkertijd wijzen onderzoeken op gevallen waarin chatbots schadelijke adviezen geven of manipulatieve tactieken gebruiken.
Die zorgen nemen toe omdat het gebruik van AI razendsnel groeit. Sinds 2024 is het aantal actieve gebruikers van chatbots op basis van grote taalmodellen bijna verdubbeld. Vooral jongeren gebruiken deze systemen steeds vaker, niet alleen voor informatie maar ook voor persoonlijke gesprekken.
Die ontwikkeling raakt uiteindelijk niet alleen individuele gebruikers, maar ook organisaties. Bedrijven die AI inzetten voor analyse, klantinteractie of geautomatiseerde besluitvorming krijgen steeds vaker te maken met vragen over verantwoordelijkheid, transparantie en de bredere impact van hun systemen. Daarmee verschuift AI steeds duidelijker van een technologische innovatie naar een vraagstuk van governance, onderzoek en organisatiebeleid.
De AI Act komt eraan, en dat raakt ook onderzoekers
De waarschuwing komt op een moment dat organisaties zich moeten voorbereiden op nieuwe Europese regels rond kunstmatige intelligentie. Met de EU AI Act worden de eisen voor organisaties die AI gebruiken voor analyse of besluitvorming een stuk strenger. Bedrijven moeten straks beter kunnen uitleggen hoe hun systemen werken, welke data zijn gebruikt en hoe mogelijke bias wordt voorkomen.
Voor organisaties die AI vooral als technologische innovatie zien, betekent dat een flinke verschuiving. AI is niet langer alleen een slimme tool, maar ook een verantwoordelijkheid.
En precies daar raakt het verhaal onderzoekers en analisten. De discussie over AI-risico’s speelt zich vaak af op bestuursniveau, maar een groot deel van de echte vragen ontstaat juist op het niveau van data en analyse. Onderzoekers werken dagelijks met datasets die worden samengevoegd, modellen die gedrag voorspellen en algoritmen die patronen herkennen.
Daar beginnen ook de vragen waar toezichthouders nu op wijzen. Waar komt de data vandaan? Welke aannames zitten er in een model? En wat gebeurt er als een algoritme verkeerde conclusies trekt? De kwaliteit van AI begint uiteindelijk bij de kwaliteit van het onderzoek en de analyse die eraan voorafgaan.
De experimenteerfase loopt ten einde
Veel organisaties zitten nog midden in de experimenteerfase met AI. Nieuwe tools worden getest, modellen gebouwd en toepassingen in hoog tempo uitgerold. Maar volgens de AP begint die fase langzaam ten einde te lopen.
AI wordt steeds vaker onderdeel van processen die directe impact hebben op klanten, burgers en medewerkers. Daarmee verandert ook hoe organisaties naar de toepassing ervan moeten kijken. De vraag wat er allemaal mogelijk is met AI blijft belangrijk en zal organisaties blijven bezighouden. Minstens zo belangrijk is echter het vermogen om te begrijpen hoe deze systemen tot hun beslissingen komen.
De impactbarometer van de AP laat niet alleen zien hoe diep AI-systemen inmiddels verweven zijn met organisaties en het dagelijks leven. Het onderstreept ook waarom het steeds belangrijker wordt om grip te houden op hoe deze systemen functioneren en welke invloed ze hebben op mensen en besluitvorming.

