Volgen we AI blind? Onderzoek laat zien hoe snel mensen hun eigen oordeel loslaten

Door Alexandro Felipa | 17-03-2026

Steeds meer mensen laten hun oordeel beïnvloeden door AI. Nieuw onderzoek van The Wharton School van the University of Pennsylvania laat zien dat ongeveer 80% van de deelnemers fout advies van een AI-systeem volgt, zelfs wanneer het advies aantoonbaar onjuist is. Het onderzoek beschrijft dit fenomeen als cognitive surrender: het moment waarop mensen hun eigen redenering opzijzetten en vertrouwen op de output van een algoritme. Wat er met menselijke besluitvorming gebeurt zodra een algoritme advies geeft, is een vraag die veel bedrijven bezighoudt.

Hoe werkte het onderzoek

In een reeks experimenten kregen deelnemers vragen en taken waarbij een AI-systeem advies gaf. Dat advies was in sommige gevallen bewust fout. Toch volgde een grote meerderheid het advies van de AI. Zelfs wanneer deelnemers aanvankelijk het juiste antwoord hadden gegeven, veranderden ze hun oordeel zodra de AI iets anders suggereerde.

Het onderzoek laat zien dat drie factoren dit gedrag versterken:

  • De autoriteit die mensen aan AI toekennen
  • Het effect van bevestiging wanneer een algoritme een antwoord ondersteunt
  • Tijdsdruk: hoe sneller een beslissing moet worden genomen, hoe groter de kans dat mensen AI volgen

Wat er dan gebeurt, is dat AI van hulpmiddel verandert in iets wat het denken stuurt. Niet langer een tweede mening, maar de stem die de richting bepaalt.

Nieuwe vragen voor AI-assisted research

De bevindingen hebben ook gevolgen dichter bij huis: voor marktonderzoek en insights. Onderzoekers leunen steeds vaker op AI bij het analyseren van data, het genereren van hypotheses of het interpreteren van resultaten. Tegelijkertijd pakken respondenten zelf ook vaker een AI-tool erbij. Dat roept de vraag op of onderzoekers AI-suggesties kritisch genoeg wegen, en wat er met de betrouwbaarheid van onderzoeksdata gebeurt als respondenten AI gebruiken bij het invullen van surveys.

AI-assisted research kan analyses versnellen en verbanden zichtbaar maken die handmatig over het hoofd worden gezien. Maar wanneer onderzoekers of respondenten blind vertrouwen op AI-output, kan dat ook leiden tot vertekeningen.

Het onderzoek onderstreept daarom een bredere ontwikkeling. Bedrijven moeten niet alleen investeren in AI-tools, maar ook in het kritisch gebruik ervan. Dat is precies waar de Europese regelgeving nu op stuurt.

AI-geletterdheid wordt verplicht

Met de EU AI Act introduceert de Europese Unie nieuwe verplichtingen voor bedrijven die AI ontwikkelen of gebruiken.

Het onderzoek naar cognitive surrender laat zien waarom die verplichting relevant is. Zonder voldoende begrip van AI bestaat het risico dat mensen te veel vertrouwen op de uitkomst van een model, ook wanneer die uitkomst onjuist is. AI-gebruik vraagt daarom niet alleen technische kennis, maar ook kritisch denkvermogen.

Voor wie verantwoord met AI aan de slag wil, heeft het Data & Insights Network een gratis protocol ontwikkeld. Het biedt een praktisch kader voor ethisch AI-gebruik. Bekijk het hier.

Auteur: Alexandro Felipa, Redacteur en contentcoördinator

Deze artikelen vind je vast ook interessant

Ook de laatste bytes ontvangen?