Met haar 37 jaar staat Emma Beauxis-Aussalet op de internationale lijst van 100 briljante vrouwen in AI-ethiek. Als assistant professor ‘ethical computing’ aan de VU is ze gespecialiseerd in classificatiefouten. ‘Je kunt het mechanisme van de impact van AI niet begrijpen zonder de context.’
Sommige mensen vinden technologie weerzinwekkend, net als wiskunde. ‘Ik zie het als een puzzel’, zegt Emma Beauxis-Ausselet. Ze is assistant professor ‘ethical computing’ aan de Vrije Universiteit van Amsterdam. Drie jaar geleden is ze gepromoveerd op fouten en bias in artificial intelligence (AI). Dat de meeste mensen in AI een puzzel zien, begrijpt Beauxis. Toch – of misschien wel juist daarom – vindt ze het belangrijk dat mensen het gevoel hebben dat ze technologie snappen en er een stem in hebben. Het visualiseren van data en het ontwerpen van goede interfaces kan daarbij volgens haar helpen.
‘Net als bij autorijden, heb je bij AI regels nodig om ongelukken te voorkomen’
Neem de auto als metafoor. ‘Je kunt autorijden zonder de mechanica van de auto te kennen. Je kunt besluiten nemen op basis van de verkeersborden en navigatie, zonder te weten hoe de auto technisch werkt.’ Zie de auto als het AI-systeem. Dan moeten we dus verkeersborden en regels voor AI ontwikkelen, aldus Beauxis. ‘En dat moeten we doen vanuit de gebruiker. Bij een auto check je of de remmen werken en of de motor voldoende vermogen heeft, maar je hebt ook een stuur en knoppen om te rijden. Dat is de interface voor de bestuurder, de visualisatie van het model.’
Die interface hebben we ook te bouwen voor AI-systemen. Daar zit ook een maatschappelijk component van regelgeving aan. ‘Net als bij autorijden, heb je regels nodig om ongelukken te voorkomen. Je moet bepalen wie voorrang krijgt bij het oversteken: de voetganger of de auto? En bij AI: de burger of het systeem?’
Schildpadtype
Haar benoeming op de lijst van 100 briljante vrouwen in AI-ethiek kwam als een verrassing, zegt de van oorsprong Franse wetenschapper. ‘Er staan heel wat vrouwen op die ik bewonder. Ik dacht: ‘als ik het goed doe, staat misschien over vijf jaar mijn naam daartussen.’ Het voelt als een duwtje om nu te moeten doen wat ze eigenlijk voor later had gepland. Maar haast heeft ze niet, zegt ze – de Franse fabel in acht nemend over de hardloopwedstrijd tussen de haas en de schildpad van Jean de la Fontaine. De haas gaat een dutje doen omdat hij denkt makkelijk te kunnen winnen. Als hij wakker wordt, heeft de schildpad de finish bereikt.
‘Ik ben meer een schildpadtype’, zegt ze. ‘Neem die regelgeving. Als je ze niet goed maakt en er slipt iets tussendoor, kost het veel tijd om dat te herstellen.’ Het is goed om in AI een schildpad te zijn, denkt Beauxis. ‘Want je kunt de haas snel laten passeren – het model is heel simpel. Met een paar regels code heb je een AI-systeem. Maar daardoor kun je snel denken dat je de race hebt gewonnen, terwijl het veel inspanning en tijd kost om op een aantal zaken te reflecteren. Bijvoorbeeld dat je in een populatie een minderheid discrimineert omdat je systeem is ingericht op de meerderheid.’
‘Het is heel makkelijk om modellen of datasets in te zetten voor slechte ideeën’
Ook moet je nadenken over het gebruik in de praktijk. Want het is heel makkelijk om modellen of datasets in te zetten voor slechte ideeën, zegt Beauxis. ‘En ‘bad seeds’ zijn er altijd.’ Ze haalt het voorbeeld aan van de app Clearview, ontwikkeld door een Amerikaanse startup in gezichtsherkenning. ‘Upload de foto van een willekeurig persoon en de app geeft direct naam, adres en andere persoonlijke gegevens. De app werkt door de foto te vergelijken met een database van meer dan drie miljard foto’s, die Clearview van Facebook, YouTube enzovoort zegt te hebben afgehaald. En de app is beschikbaar voor politiediensten in de VS,’ aldus Beauxis.
Disruptieve technologie
Even terug naar de vergelijking tussen de haas en de schildpad: je zou met een AI-systeem snel kunnen denken dat je de race hebt gewonnen, maar er kunnen dus allerlei issues van achterop komen die je inhalen. Beauxis: ‘Je kunt klanten verliezen of juridische kwesties tegenkomen. Het kan dus slecht zijn voor je business of een grijs gebied om in te investeren. Dan is er het risico dat klanten zich van je afkeren.’
Als je kijkt naar technologie in relatie tot ethiek, zijn er veel voorbeelden van hoe technologie disruptief is geweest voor de maatschappij. ‘Denk aan oorlogstechnologie, de atoombom, maar ook landbouwtechnologie. Ik hou van de technologie van een simpel, oud ding: het mes. Het mes is een middel bij het koken, maar het is ook een moordwapen. Het roept discussie op of je bezit van een mes moet reguleren.’ Beauxis vat ethiek samen als ‘het willen voorkomen van schade en het promoten van goed doen’. Als het om AI gaat, is discriminatie een duidelijke vorm van schade. ‘Maar er zijn een aantal anderen die moeilijker te tackelen zijn. Zoals misinformatie of het fenomeen platformeconomie.’
‘Een risico van AI is dat je clichés bestendigt tot self fulfilling prophecy’
Eerlijk gebruik
Beauxis is gespecialiseerd in ‘classification errors’. Vanuit de VU werkt ze samen met het Civic AI Lab, een onderzoekscentrum dat zich richt op ‘eerlijk’ gebruik van AI in onder meer onderwijs en zorg. Haar rol ligt in het maken van de juiste meetmethoden, matrixen en statistieken. Als voorbeeld van een classificatiefout noemt ze het AI-systeem dat bepaalt aan wie je je bepaalde advertenties moet laten zien. Elk persoon kun je classificeren als wel of niet relevant. Dat maakt dat je fouten kunt maken in de populatie. ‘Stel, je product is een luxeproduct en je algoritme besluit dat alleenstaande moeders het geld daar niet voor hebben. Dan ontneem je die alleenstaande moeder een mogelijkheid. Daarnaast is het ook beledigend. En het kan zelfs illegaal zijn, bijvoorbeeld als je appartementen verhuurt.’
Het probleem van het niet onderkennen van foute classificaties zit in het gevolg dat je sociaal-culturele clichés bestendigt tot een self fulfilling prophecy. ‘De vraag is of marketeers de incentive hebben om ernaar te kijken. Daar heb je zowel een individuele stimulans voor nodig, vanuit je eigen morele principes, maar ook stimulans vanuit bedrijven.’ Vanuit haar vakgebied vraagt Beauxis zich ook af of de tools er zijn om te rapporteren dat bepaalde segmenten wel of niet worden aangesproken. ‘Misschien is er meer te doen om ze duidelijk te laten zien, met behulp van visualisaties, hoe ze die fouten in de classificatie maken.’
‘Je kunt het mechanisme van de impact niet begrijpen zonder de context’
Impact
Hoe dan als onderzoeker of marketeer zorgvuldig AI te gebruiken? ‘Als ik je nu één manier geef om fouten te voorkomen en je gebruikt die als enige manier, krijg je het probleem later alsnog. Het is iets dat je steeds weer opnieuw moet beoordelen. Het eerste is dus dat je niet één vaste methode neemt die je altijd gebruikt, maar een die je regelmatig herijkt. En betrek meerdere stakeholders. Vertrouw niet op één iemand die toegang heeft tot de informatie. Kijk vervolgens naar de impact en begrijp de mechanismen erachter. En kijk ook naar de impact die je eigenlijk niet wilt. Die moet je niet tolereren. En ga na hoe je mechanismen kunt aanpassen, zodat je die impact niet meer hebt of verkleint.’ Het gaat niet alleen om het AI-systeem maar om de hele context waarin je dingen doet. ‘Neem weer het mes. Aspecten als goed en slecht komen naar voren in context. Daarom moet je open zijn over de beoordelingen. Een enkel persoon of team kan zich niet bewust zijn van de hele context. Je kunt het mechanisme van de impact niet begrijpen zonder de context.’