De Autoriteit Persoonsgegevens (AP) maakt zich zorgen om de omgang met persoonsgegevens bij organisaties die gebruikmaken van AI, zoals ChatGPT. De AP onderneemt daarom de komende tijd verschillende acties. Als eerste wil de AP van softwareontwikkelaar OpenAI weten hoe dat bedrijf omgaat met persoonsgegevens bij het trainen van het onderliggende systeem.
ChatGPT is gebaseerd op een geavanceerd taalmodel (GPT) dat is getraind met data. Dat kan door data te verzamelen die al op internet staan, maar ook door de vragen die mensen stellen op te slaan en te gebruiken. Die data kunnen gevoelige en heel persoonlijke informatie bevatten, bijvoorbeeld als iemand advies vraagt over een echtelijke ruzie of over medische zaken.
De AP wil nu van OpenAI weten of de vragen van mensen worden gebruikt om het algoritme te trainen, en zo ja, op welke manier. Ook heeft de AP vragen over de manier waarop OpenAI persoonsgegevens van internet verzamelt en gebruikt. Verder heeft de AP zorgen over informatie over mensen die GPT ‘genereert’ door antwoorden te geven op vragen. De gegenereerde inhoud kan onnauwkeurig zijn, verouderd, onjuist, ongepast, beledigend, of aanstootgevend en kan een eigen leven gaan leiden. Of en zo ja hoe OpenAI die gegevens kan rectificeren of verwijderen, is onduidelijk.
Gezamenlijke aanpak
Omdat algoritmes – met of zonder gebruik van persoonsgegevens – in alle sectoren te vinden zijn, is het van belang om overkoepelend in de gaten te houden wat de risico’s en effecten zijn. Ook andere privacytoezichthouders in Europa maken zich zorgen over ChatGPT en vinden een gezamenlijke aanpak noodzakelijk. De privacytoezichthouders in Europa hebben dan ook een ChatGPT-taskforce opgericht binnen hun samenwerkingsverband, de European Data Protection Board (EDPB), om informatie uit te wisselen en acties te coördineren.