De Europese Unie onderzoekt strengere maatregelen tegen AI-systemen die beelden kunnen manipuleren of genereren zonder toestemming van de afgebeelde persoon. Aanleiding is een recente controverse rond Grok, de chatbot van xAI die is geïntegreerd op platform X. Dat meldt Politico.
▼
“Dit gaat niet alleen over Grok. Het gaat erom hoeveel macht we AI willen geven om mensen te vernederen,” zei Duits Europarlementariër Sergey Lagodinsky, een van de politici die een verbod op dit soort toepassingen steunen.
Nieuwe dag, nieuwe AI-controverse
De discussie ontstond nadat gebruikers ontdekten dat AI-systemen zoals Grok beelden konden manipuleren voor zogenoemde nudification: het genereren van naaktbeelden op basis van bestaande foto’s.
Hoewel dergelijke technologie niet nieuw is, zorgt vooral de combinatie van gebruiksgemak, snelheid en de enorme schaal van sociale platforms ervoor dat dit soort beelden zich snel kunnen verspreiden.
Voor Europese beleidsmakers is dat reden om opnieuw te kijken naar de risico’s van generatieve AI. Het probleem zit daarbij niet alleen in de technologie zelf, maar ook in hoe eenvoudig deze op grote schaal kan worden ingezet.
Europa verduidelijkt regels voor AI
De discussie raakt direct aan de EU AI Act, de Europese wet die regels vastlegt voor het ontwikkelen en inzetten van AI-systemen. De controverse rond Grok laat zien dat deze regels niet alleen theoretisch zijn. Als de plannen worden aangenomen, kunnen nieuwe maatregelen al deze zomer ingaan.
Tegelijkertijd onderzoeken Europese toezichthouders eerst of bestaande regels al voldoende zijn om dit soort toepassingen aan te pakken. Naast nieuwe AI-wetgeving spelen ook platformregels een rol, bijvoorbeeld rond moderatie en risicobeperking. Technologiebedrijven hebben bovendien vaak eigen veiligheidsmaatregelen en filters om misbruik te beperken.
De vraag voor beleidsmakers is daarom niet alleen of er nieuwe regels nodig zijn, maar ook of bestaande regelgeving en interne controles streng genoeg worden toegepast.
Wie is verantwoordelijk?
Een belangrijke vraag in het debat is waar de verantwoordelijkheid ligt wanneer AI-systemen worden misbruikt.
Moeten ontwikkelaars van AI-modellen verantwoordelijk worden gehouden voor wat gebruikers ermee doen? Of ligt die verantwoordelijkheid vooral bij platforms die de technologie beschikbaar maken?
In het geval van Grok speelt nog een extra factor: de chatbot is direct geïntegreerd in een sociaal platform met miljoenen gebruikers. Dat vergroot de impact wanneer een AI-systeem ongewenste toepassingen mogelijk maakt.
Voor toezichthouders betekent dat dat AI-beleid steeds vaker samenkomt met bestaande platform- en digitale regelgeving.
Wat betekent dit voor organisaties die AI gebruiken?
De discussie rond Grok laat zien dat Europese AI-regels steeds concreter worden en steeds vaker worden toegepast op specifieke toepassingen.
Voor organisaties betekent dit dat niet alleen de ontwikkeling van AI-systemen onder toezicht staat, maar ook de manier waarop deze in de praktijk kunnen worden gebruikt.
Europese beleidsmakers verwachten rond 18 maart meer duidelijkheid over mogelijke maatregelen tegen AI-toepassingen zoals nudification.

