AP: AI-chatbots sturen Nederlandse kiezers met misleidend stemadvies

Door Geplaatst door de redactie | 22-10-2025

Een chatbot oordeelt niet, zou je denken. Totdat hij vertelt op wie je moet stemmen en welke data het belangrijkst is. Dat blijkt uit onderzoek van de Autoriteit Persoonsgegevens (AP), die vier veelgebruikte AI-chatbots vergeleek met traditionele stemhulpen als Kieskompas en StemWijzer. De uitkomst: in meer dan de helft van de gevallen sturen de chatbots gebruikers richting dezelfde twee partijen, ongeacht de input.

Volgens de AP is het probleem niet politiek, maar technisch. Chatbots gebruiken trainingsdata en webinformatie die niet transparant of controleerbaar is. Daardoor sluipen er onzichtbare vooroordelen in de antwoorden, beïnvloed door de data waarmee de chatbot is getraind. Dat maakt deze tools momenteel nog ongeschikt voor stemadvies, maar het probleem reikt verder dan verkiezingen alleen.

Voor marketeers, onderzoekers en data-analisten laat dit zien hoe belangrijk het is om te blijven weten waar data vandaan komt, hoe modellen zijn getraind en welke biases ze versterken. Zonder inzicht in die keten kunnen ook commerciële AI-toepassingen, zoals sentimentanalyse of targeting, misleindende uitkomsten opleveren.

Eerlijke AI begint bij inzicht in data

De AP roept aanbieders van chatbots op te voorkomen dat hun systemen worden ingezet voor stemadvies. Tegelijk waarschuwt de toezichthouder dat AI-systemen met maatschappelijke impact straks onder de strengste categorie van de AI-verordening kunnen vallen.

Transparantie in data en algoritmes is niet alleen een maatschappelijk thema, maar ook een meetbare kwaliteitsvoorwaarde voor betrouwbare AI.

Bron: Autoriteit Persoonsgegevens

Deze artikelen vind je vast ook interessant

Ook de laatste bytes ontvangen?