AI-search groeit razendsnel. Maar hoe betrouwbaar zijn de uitkomsten eigenlijk?

Door Alexandro Felipa | 03-03-2026

Het is inmiddels de norm geworden dat gebruikers AI-systemen inschakelen voor advies over welke merken, producten en diensten ze moeten gebruiken. Tegelijk laat nieuw onderzoek zien dat die aanbevelingen sterk wisselen, zelfs bij exact dezelfde vraag. Dat wringt. Zeker nu voorspellingen aangeven dat AI-search rond 2028 traditionele zoekmachines kan inhalen. Als onderzoeker, analist of marketeer moet je jezelf daarom afvragen: kun je al op AI vertrouwen als graadmeter?

AI beveelt zelden twee keer hetzelfde aan

Uit nieuw onderzoek van SparkToro blijkt dat grote taalmodellen opvallend inconsistent zijn wanneer ze merken of producten aanbevelen. Voor het onderzoek werden de drie meest gebruikte tools getest: ChatGPT, Claude en Gemini.

600 vrijwilligers voerden elk 12 verschillende prompts in bij deze drie AI-tools. Dat leverde in totaal 2.961 tests op. De deelnemers kopieerden de antwoorden naar enquêteformulieren, waarna de resultaten zijn opgeschoond en omgezet in gestructureerde lijsten met merken en producten in volgorde van aanbeveling.

Wat blijkt? Stel je dezelfde vraag meerdere keren, dan krijg je vaak andere lijstjes terug. De volgorde wisselt regelmatig en soms verdwijnen merken zelfs volledig uit beeld. De kans op exact dezelfde lijst bij herhaalde prompts is extreem klein.

Voor wie AI-zichtbaarheid wil meten, is dat een probleem. Rankings suggereren stabiliteit, terwijl deze systemen zich juist dynamisch en kansgedreven gedragen. Eén antwoord zegt daardoor weinig. AI-output is voorlopig geen vast meetpunt, maar een momentopname.

Onbetrouwbare zichtbaarheid is geen detail

De urgentie groeit doordat AI-search snel de norm wordt. Volgens recente studies kan AI-zoekverkeer traditionele zoekmachines rond 2028 inhalen. Dat betekent minder klikken naar websites en meer directe antwoorden in de interface. Het betekent ook meer invloed van taalmodellen op merkzichtbaarheid.

Als AI-search het primaire kanaal wordt waarin consumenten advies krijgen, draait het niet alleen om zichtbaarheid. De stabiliteit van die zichtbaarheid wordt minstens zo belangrijk.

Veel organisaties experimenteren al met het meten van hun aanwezigheid in AI-systemen. Ze testen prompts, analyseren output en bouwen dashboards. Maar als hetzelfde traject morgen andere merken oplevert, wat meet je dan precies?

Een trend bouwen op basis van een momentopname mist logica. Dat betekent niet dat AI waardeloos is. Het betekent wel dat je herhaalde analyses nodig hebt, dat je beter frequentie dan positie kunt meten en dat je output altijd kritisch moet controleren. Kunstmatige intelligentie mag jouw logica niet vervangen. Het is een hulpmiddel om sneller en efficiënter te werken.

De waarschuwing klinkt breder dan onderzoek

De discussie speelt niet alleen in marketing en onderzoek. Recent berichtte NOS dat advocaten een officiële waarschuwing kregen na verkeerd gebruik van ChatGPT in echte rechtszaken. Zij namen gegenereerde informatie over zonder die goed te controleren. Het gevolg waren fouten in juridische stukken.

Een andere sector, maar dezelfde valkuil geldt voor alle professionals.

Zeker nu AI-search richting een dominante positie beweegt, moeten onderzoekers, analisten en marketeers scherp blijven op methodologische onderbouwing, controleerbaarheid van output en transparantie over hoe resultaten tot stand komen. Onderzoek, interpretatie en validatie blijven mensenwerk. De verantwoordelijkheid voor kwaliteit ligt nog altijd bij degene die de resultaten gebruikt.

AI-search zal traditionele zoekmachines sowieso inhalen. De cijfers laten weinig ruimte voor twijfel. Belangrijker is de vraag wie aan het stuur zit wanneer dat moment daar is.

Auteur: Alexandro Felipa, Redacteur en contentcoördinator

Deze artikelen vind je vast ook interessant

Ook de laatste bytes ontvangen?