Grok, de AI-tool geïntegreerd in X, ligt in Europa onder vuur vanwege misbruik. De tool wordt ingezet om seksueel expliciete content te genereren en te verspreiden, waaronder gemanipuleerde beelden van vrouwen en kinderen. Tegelijk blijft onduidelijk hoe Grok is getraind, welke veiligheidsmaatregelen actief zijn en hoe misbruik wordt opgespoord en gestopt. Dit voorbeeld staat centraal in een breder Europees debat over tekortschietend toezicht op AI.
▼
Beperkt zicht op werking en data
In de basis is Grok bedoeld als een algemene AI-assistent, vergelijkbaar met tools als ChatGPT. De tool moet vragen beantwoorden, informatie analyseren en kan afbeeldingen genereren.
In de praktijk blijkt Grok echter kwetsbaar. Door tekortkomingen in de beveiliging wordt de AI veelvuldig misbruikt, onder meer voor het genereren van expliciete en schadelijke content. X heeft inmiddels verklaard de beveiliging en filters te hebben aangescherpt. Tegelijk melden meerdere publicaties, waaronder Politico, dat gebruikers via omwegen deze beperkingen nog steeds kunnen omzeilen, waardoor misbruik mogelijk blijft.
Bij Grok ontbreekt helderheid over:
- de herkomst van trainingsdata
- filters en blokkades tegen seksueel misbruik
- interne controle op gebruik en verspreiding
Dat maakt handhaving complex. Zeker wanneer het gaat om schadelijke content die zich snel verspreidt via platforms.
AI-modellen volgen elkaar snel op
De ontwikkelingen volgen elkaar in hoog tempo op. Grote AI-aanbieders blijven nieuwe basismodellen introduceren, vaak rond of zelfs voorbij belangrijke Europese deadlines. OpenAI, Google en het Europese Mistral presenteerden in korte tijd nieuwe generaties van hun modellen.
De informatie die zij delen blijft echter beperkt. In plaats van duidelijke en controleerbare details over trainingsdata en modelopbouw, geven aanbieders vooral globale beschrijvingen. Dat maakt het voor toezichthouders lastig om vast te stellen of daadwerkelijk aan de transparantie-eisen van de AI Act wordt voldaan.
Transparantie raakt het verdienmodel
De transparantieregels van de AI Act raken een gevoelig punt. Inzicht in trainingsdata kan blootleggen of modellen zijn gebouwd op mogelijk auteursrechtelijk beschermd materiaal. Dat raakt direct het verdienmodel van AI-bedrijven die miljarden investeren in schaal en snelheid.
Vooral Amerikaanse spelers zoals OpenAI, Google, Meta en Microsoft worden hierbij genoemd. Europese regels botsen hier met bedrijfsbelangen en juridische risico’s.
Versnipperd toezicht onder druk
Volgens Politico groeit binnen de Europese Unie de twijfel of het huidige toezicht volstaat. Nationale toezichthouders zijn verantwoordelijk voor handhaving, terwijl AI-modellen grensoverschrijdend worden ontwikkeld en ingezet.
De Grok-zaak laat zien wat er gebeurt wanneer misbruik zichtbaar wordt, terwijl toezicht pas daarna in beweging komt. Het brengt de discussie opnieuw terug op tafel over de noodzaak van een aparte Europese techtoezichthouder met centrale bevoegdheden en gespecialiseerde kennis.
Breder beeld
Grok is het meest zichtbare voorbeeld, maar staat niet op zichzelf. Ook andere AI-aanbieders geven weinig inzicht in:
- gebruikte datasets
- omgang met auteursrecht
- risicoanalyses en maatregelen
Deze signalen wijzen in dezelfde richting. De ontwikkeling van AI gaat sneller dan transparantie en toezicht kunnen volgen. De komende periode zal duidelijk maken hoe streng en uitvoerbaar het Europese AI-toezicht in de praktijk wordt.

