Is AI foolproof? Wat denk je zelf?

Door Jan Roekens | 21-09-2023

De basis van onderzoek zijn data. Maar met de groeiende integratie van AI in het dataverzamelingsproces, is het ook tijd om ons een beetje zorgen te maken. De onderzoeker moet verantwoordelijk blijven voor het juiste inzicht op basis van de juiste data. Dat betoogt Clare McHatton, directeur Business Development bij marktonderzoekbureau Walr.

Data vormen de basis van elk onderzoek. Om nauwkeurige en betrouwbare resultaten te garanderen, moeten onderzoekers vragen opstellen die neutraal en objectief zijn en vrij van sturende invloed op de respondent. Dat lijkt eenvoudig, maar het vereist nauwgezette aandacht voor taal en context, een vaardigheid die wordt bedreigd als je kijkt naar de groeiende integratie van AI in het dataverzamelingsproces.

AI-systemen, waaronder taalmodellen en ‘onderzoekopstellers’, kunnen onbedoeld vragen produceren die onderliggende vooroordelen bevatten. Deze vooroordelen kunnen een weerspiegeling zijn van de data waarop ze zijn getraind; data die onevenredig bepaalde demografische gegevens, culturen of perspectieven vertegenwoordigen. Onderzoekers moeten actief door AI gegeneerde vragen beoordelen, en verfijnen, om niet-representatieve resultaten te voorkomen.

Culturele nuances

De bias van AI is goed gedocumenteerd. In het proces van dataverzameling bleek vaak dat AI vragen genereert die stereotypen of vooroordelen bevorderen, waardoor respondenten naar bepaalde wereldbeelden worden geleid. Een voorbeeld van AI-bias komt uit een onderzoek in Duitsland naar een populair schoenenmerk. Uit de resultaten bleek dat geen enkele vrouwelijke respondent bereid was om de prijs voor de schoenen te betalen, ondanks dat de schoenen in veel andere markten hoog werden gewaardeerd. Na gedetailleerde datacontrole bleek dat de AI-vertaler de schoenen had beschreven in termen van dumppartijen uit het leger in plaats van als luxe mode.

Dit toont aan dat zelfs schijnbaar onschuldige vertalingen een aanzienlijke invloed kunnen hebben op onderzoeksresultaten. Geautomatiseerde vertalingen door AI slagen er niet in om culturele nuances te herkennen en ze kunnen vastgestelde waarden vervangen door onbedoelde associaties. Dit onderstreept het belang van menselijk toezicht in het dataverzamelingsproces.

Integere data

Het schoenenincident dient als voorbeeld dat onderzoekers waakzaam moeten blijven bij vooroordelen en onnauwkeurigheden, of ze nu voortkomen uit slecht opgestelde vragen, bevooroordeelde AI-algoritmen of onjuiste vertalingen. In een tijdperk waarin AI steeds meer verweven raakt met onderzoeksmethodologieën, moeten onderzoekers het als hun taak zien om door AI gegenereerde vragen grondig te beoordelen. De verantwoordelijkheid voor ‘integere’ data ligt volledig op de schouders van onderzoekers. Door proactief vooroordelen en onnauwkeurigheden in elke fase van de dataverzameling te bestrijden, kunnen onderzoekers ervoor zorgen dat verkregen inzichten niet alleen nauwkeurig zijn, maar ook representatief voor de complexe realiteit in onze wereld.

Bron: greenbook.org

Auteur: Jan Roekens, Hoofdredacteur

Deze artikelen vind je vast ook interessant

Ook de laatste bytes ontvangen?