De inzet van AI is niet zonder risico’s. Het CBS wil daarom zorgvuldig omgaan met vragen van externe partners over dit thema. Om de afwegingen die daarbij gemaakt worden helder vast te leggen, stelde de CBS-directie een AI-beleid vast. ‘De inzet daarbij is AI steeds beter te maken.’
Het CBS maakt statistieken over AI, bijvoorbeeld over de inzet van AI bij bedrijven en over welke soorten AI-technologie het gaat. Het bureau onderzoekt momenteel of het mogelijk is om meer statistische informatie rond AI te verzamelen. Maar het zet AI ook zelf in bij het maken van statistieken. Daarnaast krijgt het CBS vragen van andere overheidsorganisaties over de inzet van AI, inclusief de daarbij gebruikte databronnen. Wat betreft het maken van statistieken over AI geven de bestaande kaders voldoende duidelijkheid. Voor de vragen van externe partners over hoe zij AI het beste kunnen inzetten, is er nu door de CBS-directie een AI-beleidskader vastgesteld.
Zelflerend algoritme
Het CBS werkt nooit mee aan verzoeken die leiden tot de opsporing van personen of tot informatie over individuen of bedrijven. Kim van Ruler, beleidsadviseur bij het CBS: ‘Dat valt onder administratief gebruik van data en dat doen we nooit. Maar er is ook een groot grijs gebied als organisaties hulp willen bij de inzet van AI-algoritmes en de daarvoor gebruikte data.’ AI is een containerbegrip, zegt Joost Huurman, directeur Research en Development bij het CBS. ‘Het AI-beleid gaat vooral om AI waarbij zelflerende algoritmes een rol spelen. Het gevaar daarvan is dat door bias in de data – bijvoorbeeld als een bepaalde doelgroep oververtegenwoordigd is – een negatieve spiraal kan ontstaan. Dat kan leiden tot onterechte conclusies over bepaalde groepen mensen. Daar moet je enorm mee oppassen en erg alert op zijn.’
Een voorbeeld van een vraag die in het grijze gebied viel, kwam van het COA. Dat wilde met behulp van een algoritme passende plekken in Nederland zoeken voor statushouders. Huurman: ‘Dat neigt naar administratief gebruik, dus dat ging niet. Wat we wel voor het COA konden doen was advies geven over hun dataset. Een goede dataset is een voorwaarde voor een eerlijk algoritme. Het doel van de inzet van dit algoritme was positief, namelijk het zorgen voor goede huisvesting. Dat speelde mee in de afweging.’
Afwegingen
Als een organisatie een beroep doet op het CBS op het gebied van AI, dan wordt ten eerste gekeken naar de rol die gevraagd wordt: gaat het om adviseren of om beoordelen? Van Ruler: ‘Het beoordelen van data en algoritmen van externe partijen doen we niet. Dat is niet onze taak.’ De tweede afweging heeft te maken met de vraag of de hulpvraag over te gebruiken data gaat of over algoritmen. Adviesvragen over data kan het CBS meestal honoreren. Adviesvragen over algoritmen zijn afhankelijk van de context. Tot slot wordt gekeken naar het type algoritme: is dit bedoeld om iets te voorspellen of om iets te verklaren? Het CBS doet geen voorspellingen (behalve over de bevolkingsgroei) en zal dus doorgaans ook niet meewerken aan algoritmes die hierover gaan. Een algoritme dat iets verklaart, kan wel. Huurman: ‘Het ligt genuanceerd. Neem een algoritme dat risicofactoren destilleert uit een wijk waar veel armoede voorkomt. Dat is een verklarend algoritme. Het probleem is dat je zo’n onderzoek vaak kunt omdraaien: armoede voorspellen op basis van risicofactoren die in een wijk voorkomen. We blijven dus zeer zorgvuldig in onze afweging.’ Van Ruler: ‘En als het echt niet duidelijk is welke aanpak we moeten kiezen, dan is er bij het CBS een ethische commissie die zich over de hulpvraag buigt.’
Betrouwbare statistieken
‘Het CBS doet veel onderzoek naar AI’, aldus Huurman. ‘De inzet daarbij is om AI steeds beter te maken. Lerende algoritmen bieden veel mogelijkheden. Maar wij kijken in ons onderzoek specifiek naar de onderdelen die we zelf kunnen gebruiken voor de uitvoering van onze taak: het maken van betrouwbare statistieken.’