De gemeenteraadsverkiezingen van 18 maart liggen net achter ons. Ook deze campagne speelde AI weer volop mee, dat is inmiddels bijna vanzelfsprekend. Wat wél opvalt: naar schatting bevatte zo’n 90% van de AI-content nergens een vermelding daarvan. Kiezers zagen de content, maar niet hoe die tot stand kwam. Onderzoekers van de Universiteit van Amsterdam (UvA) brachten dit in kaart met de nieuwe CampAIgn Tracker. Wat betekent dat voor transparantie en vertrouwen, zeker nu?
▼
AI achter de schermen van campagnes
AI is inmiddels niet alleen meer een vast onderdeel om teksten te genereren, of te vragen bij welk tankstation je nu de goedkoopste benzine kan vinden. Het wordt ook volop ingezet in politieke campagnes. Partijen gebruiken het om teksten te schrijven, beelden te genereren en content snel aan te passen per doelgroep. Campagnes worden daarmee flexibeler en efficiënter ingericht, vaak zonder dat de kiezer dat doorheeft. Juist daar ontstaat spanning. Want als je niet weet hoe content is gemaakt, wordt het lastiger om die goed te beoordelen.
De cijfers geven een helder beeld van hoe AI is ingezet tijdens deze verkiezingen:
• ongeveer 90% van de AI-content wordt niet als zodanig vermeld
• het grootste deel van de AI-content verschijnt op Facebook, gevolgd door Instagram, X en TikTok
• een groot deel van de AI-content komt van de PVV en andere rechts georiënteerde partijen
• gemeenten als Steenbergen en Lelystad springen eruit in het gebruik van AI, gevolgd door Utrecht, Nijmegen en Venlo
Ook opvallend: het grootste deel van de content heeft een satirisch karakter. AI wordt dus niet alleen ingezet om het werk efficiënter te maken, maar ook om tegenstanders neer te zetten of belachelijk te maken. Juist wanneer satire en framing zo’n grote rol spelen, vervaagt de grens tussen informeren en sturen. En precies dat zie je steeds vaker gebeuren.
Transparantie blijft achter
Het onderzoek van de UvA laat zien dat het gebruik van AI zelden expliciet wordt benoemd. De technologie zit overal in de campagne, maar blijft voor de kiezer grotendeels uit beeld. Dat roept vragen op. Moet je weten wanneer AI is gebruikt? Waar ligt de grens tussen slimme communicatie en het sturen van gedrag? En wie is verantwoordelijk als AI-content de werkelijkheid verdraait?
In verkiezingstijd zijn dit geen theoretische kwesties. Het raakt direct aan hoe mensen vertrouwen op wat ze zien.
Wat betekent dit voor data en onderzoek?
Voor data- en insightsprofessionals verschuift er iets. Het gaat niet meer alleen om wat een campagne doet, maar ook om hoe die tot stand komt. Als AI een grotere rol speelt in content en distributie, moet je dat meenemen in je analyse. Anders mis je een belangrijk deel van het verhaal. Dat vraagt om meer openheid over gebruikte tools, duidelijkere uitleg van methodes en scherpere duiding van resultaten. Campagnes draaien uiteindelijk om vertrouwen. En juist dat komt onder druk te staan als onduidelijk blijft hoe content wordt gemaakt.
Wie AI inzet in campagnes, moet ook laten zien hoe en waarom. Niet omdat het moet, maar omdat mensen willen begrijpen wat ze voorgeschoteld krijgen.

