James Parkinson overleed in 1824. Toch staat hij sinds kort op de website van het Stichting Parkingsfonds klaar om vragen te beantwoorden. Niet de historische figuur, maar een digitale reconstructie: een AI-personage met een gezicht, een stem en kennis over de ziekte die zijn naam draagt. Het is een aansprekend voorbeeld van wat digital humans al kunnen. Maar het roept ook meteen de vraag op die tijdens een event van MWM2 en Hibou steeds terugkwam: tot hoever gaat dit, en wie bewaakt die grens?
▼
De 24/7 medewerker die nooit pauze neemt
De aantrekkingskracht van digital humans voor organisaties is begrijpelijk. Ze zijn 24/7 beschikbaar, geven consistente antwoorden en kunnen een grote groep mensen tegelijk bedienen zonder dat daar medewerkers voor nodig zijn. Voor goede doelen, zorginstellingen en andere organisaties met beperkte capaciteit en een groot publiek is dat een aantrekkelijk perspectief.
Waar het ingewikkeld wordt
De case van Johan, die tijdens het event werd besproken, gaat een stap verder. Johan is een ALS-patiënt die in 2007 zijn diagnose kreeg. Zijn stem werd gereconstrueerd uit een tv-fragment van tien jaar geleden en zijn persoonlijkheid werd getraind op twee boeken die hij over zijn leven schreef. De digitale Johan beantwoordt vragen over leven met ALS en stuurt bezoekers door naar een donatiepagina.
Hier begint de ethische complexiteit. Want Johan leeft nog, maar hij gaat achteruit. Wat gebeurt er met zijn digitale versie als hij overlijdt? Moet de digital human hem weergeven zoals hij nu is, of zoals hij was? Wie beslist dat, en op basis waarvan?
Dit zijn vragen waar nog geen sluitend antwoord op is. Het zijn vragen waar het veld nog mee worstelt. En dat is precies het probleem met technologie die sneller gaat dan het gesprek erover. Digital humans zijn al inzetbaar, maar de ethische kaders lopen achter.
De kwetsbare gebruiker
De zaal liet ook zien waar gebruikers en opdrachtgevers nog mee worstelen. Wat gebeurt er als iemand emotioneel gehecht raakt aan een digital human? Een van de aanwezigen vertelde dat ze zelf vaker ChatGPT raadpleegt dan vrienden of familie, en vroeg zich hardop af hoe je zoiets ethisch verantwoord inzet voor kwetsbare mensen. Patiënten die net een diagnose hebben gekregen. Eenzame ouderen. Mensen die midden in de nacht met vragen zitten waar op dat moment niemand antwoord op kan geven.
Het antwoord is gedeeltelijk technisch: als een gesprek te emotioneel wordt, kan automatisch een doorverwijzing verschijnen naar een professional of een crisistelefoon. Maar of dat voldoende is, is een andere vraag. Ook blijft de vraag wie bepaalt wanneer een gesprek te emotioneel is.
Transparantie is daarbij een minimumvereiste waar iedereen het over eens was. Een gebruiker moet altijd weten dat hij met een AI praat, niet met een mens. Hoe realistisch een digital human ook is, die grens moet zichtbaar blijven. Dat klinkt vanzelfsprekend, maar is het in de praktijk niet altijd. Naarmate de technologie echter wordt, wordt die grens ook moeilijker te trekken.
Wat dit betekent voor organisaties
De EU AI Act biedt een juridisch kader, maar wetgeving regelt randvoorwaarden, geen waarden. Dat vraagt om duidelijke keuzes. Een heldere afbakening van wat de digital human wel en niet doet. Niet als disclaimer in kleine lettertjes, maar als bewuste ontwerpkeuze. Een doorverwijsprotocol voor momenten waarop een gesprek buiten de grenzen van de toepassing treedt. En een antwoord op de vraag wie verantwoordelijk is als er iets misgaat.
De organisaties die digital humans het meest verantwoord inzetten, zijn waarschijnlijk niet de organisaties met de beste juristen. Het zijn de organisaties die deze vragen stellen voordat de technologie live staat.

