AI-chatbots worden steeds vaker gebruikt om vragen over politiek en verkiezingen te beantwoorden. Met de gemeenteraadsverkiezingen van morgen zoeken steeds meer mensen online naar informatie over wie hun stem echt verdient. Maar uit onderzoek van de Autoriteit Persoonsgegevens (AP) blijkt dat AI-chatbots lokale partijen vaak over het hoofd zien wanneer gebruikers om stemadvies vragen. Volgens de toezichthouder kan dat een verkeerd beeld geven van het politieke landschap.
▼
Chatbots geven vooral nationale partijen
In het onderzoek stelde de AP meerdere AI-chatbots vragen over stemadvies bij verkiezingen. Daarbij viel op dat de systemen vaak dezelfde grotere, landelijke partijen noemen. Lokale partijen kwamen in de antwoorden nauwelijks naar voren, zelfs wanneer de vraag expliciet over lokale verkiezingen ging. In minder dan één procent van de gevallen waarin een chatbot een duidelijke eerste stemkeuze suggereerde, ging het om een lokale partij. Dat staat in scherp contrast met de vorige gemeenteraadsverkiezingen, waar lokale partijen samen meer dan dertig procent van de stemmen kregen.
Volgens de toezichthouder kan dat problematisch zijn. Wanneer AI-systemen vooral bekende of veelgenoemde partijen aanbevelen, krijgen gebruikers mogelijk een onvolledig beeld van hun keuzes.
Waarom AI-chatbots geen betrouwbare stemhulp zijn
De beperkte zichtbaarheid van lokale partijen heeft waarschijnlijk te maken met de manier waarop AI-modellen worden getraind. Veel systemen baseren hun antwoorden op grote hoeveelheden online tekst. In die datasets komen landelijke partijen doorgaans veel vaker voor dan lokale partijen. Daarnaast zijn lokale partijen vaak minder zichtbaar in landelijke media of online databronnen. Daardoor hebben AI-modellen simpelweg minder informatie beschikbaar over deze partijen.
Het gevolg is dat chatbots eerder terugvallen op partijen die vaker voorkomen in hun trainingsdata. Volgens de AP maakt dat duidelijk dat AI-chatbots niet geschikt zijn als stemhulp. Anders dan traditionele stemhulpen analyseren deze systemen geen partijprogramma’s of beleidsstandpunten op een gestructureerde manier.
Stemhulpen zoals Kieskompas of vergelijkbare tools zijn speciaal ontwikkeld om kiezers te helpen hun politieke voorkeur te vergelijken met partijstandpunten. AI-chatbots zijn daar niet voor ontworpen en kunnen daardoor onvolledige of misleidende adviezen geven.
AI-antwoorden krijgen steeds meer invloed
De bevindingen raken aan een bredere discussie over de rol van AI bij informatievoorziening. Steeds meer mensen gebruiken AI-systemen om vragen te stellen, ook over politiek of maatschappelijke onderwerpen. Daarmee groeit ook de invloed van de manier waarop deze systemen hun antwoorden formuleren.
Voor onderzoekers en beleidsmakers roept dat belangrijke vragen op. Niet alleen over mogelijke bias in AI-modellen, maar ook over transparantie, verantwoordelijkheid en de betrouwbaarheid van AI-gegenereerde informatie.
Het onderzoek van de AP laat zien dat AI-systemen niet altijd een volledig beeld geven wanneer ze adviesvragen beantwoorden. Voor gebruikers betekent dit dat antwoorden van chatbots met de nodige voorzichtigheid moeten worden geïnterpreteerd.
Voor ontwikkelaars en toezichthouders onderstreept het onderzoek vooral dat AI-systemen steeds vaker worden ingezet in situaties waar betrouwbaarheid en transparantie essentieel zijn. Dat vergroot de aandacht voor hoe deze systemen worden ontwikkeld, getest en toegepast.

