Generieke intelligentie die zich kan meten met de mens

Door Jan Roekens | 29-06-2023

De Rijksinspectie Digitale Infrastructuur (RDI) publiceerde samen met de Nationaal Cyber Security Centrum (NCSC) en met medewerking van de AIVD een blog over AI. Onder de titel ‘Cruciaal moment in de geschiedenis of een hype’ geven drie experts hun mening, en in deze Daily Data Bytes nemen we hun verhaal – in verkorte vorm – over. ‘Niet achterover leunen en afwachten wat AI ons brengt.’

In de afgelopen maanden is er door de media veel aandacht besteed aan de release en de ontwikkeling van ChatGPT. Deze kunstmatige intelligentie, in de vorm van een Large Language Model (LLM), voert met ogenschijnlijk gemak menselijke taken uit. Gaat deze nieuwe technologie de geschiedenis in als een cruciale stap in de menselijke ontwikkeling, zoals ook de uitvinding van de drukpers, de stoommachine en het internet? Of is het een interessante, maar relatief onbelangrijke technische gadget, met enig praktisch nut?

 

Tot voor kort was AI vooral breed beschikbaar in zogenaamde narrow AI-vorm. De toepassingen zijn taakspecifiek en al volledig in allerlei technologische oplossingen opgenomen, zoals gezichtsherkenning op mobiele devices of nummerplaatherkenning op camerabeelden. Een LLM leert op een vergelijkbare manier, door zeer grote hoeveelheden tekst te analyseren. Hierdoor kan het model leren te voorspellen wat het meest waarschijnlijke woord is dat zal volgen in een zinsconstructie, of wat de meest voor de hand liggende reactie is op een vraag. Het trainingsmateriaal voor de meest recente LLM’s, zoals GPT-4 van OpenAI, omvat nagenoeg alle tekst die openbaar beschikbaar is.

‘Eén centrale robot is in staat is om alle in- en output te coördineren’

Multi-agent

De manier waarop het brede publiek momenteel met LLM’s in aanraking komt is via het bekende chatvenster, waar enkelvoudige vragen kunnen worden gesteld, waar direct een reactie op wordt geformuleerd. Een belangrijke ontwikkeling is een multi-agent-structuur. Daarin wordt een veelvoud van chatvensters aangestuurd door één centrale robot die in staat is om alle in- en output te coördineren. Deze ‘orkestratie’ is een van de krachtigste ontwikkelingen, parallel aan de sterke kwaliteitsverbeteringen in de LLM’s zelf. Het lijkt veel op hoe een mens een complexe vraagstelling benadert om tot een concreet actieplan te komen. De multi-agent-methode kan worden gebruikt om vanuit een relatief abstracte vraagstelling te komen tot een gerichte aanpak. De eerste stap is probleemdefinitie, dus het

stellen van deelvragen, vervolgens het oplossen en beantwoorden daarvan, en daarna het samenvoegen van alle informatie tot een coherent antwoord of een actieplan. Het actieplan kan vervolgens weer verder worden ingevuld, en kan leiden tot concrete, uitvoerbare taken. LLM’s hergebruiken hiervoor de kennis die de mensheid heeft opgeschreven als trainingsmateriaal en voorbeeld.

Orkestratie

Een chatbot zou je als een van de narrow AI-vormen kunnen zien – het hersendeel dat verantwoordelijk is voor spraak. Die kan op zijn beurt ook worden georkestreerd in samenwerking met narrow AI’s, zoals beeldherkenning. In die zin kun je LLM’s zien als dé vorm van AI die overkoepelend en autonoom alle vormen van AI kan verbinden. Daarmee kan, net zoals bij de prefrontale cortex van het menselijke brein, een generieke coördinator ontstaan die strategieën en plannen kan ontwerpen en deeltaken coördineren. Is hier dan sprake is van Artificial General Intelligence (AGI) – een generieke intelligentie die zich kan meten aan dat van de mens? Dat geautomatiseerde systemen inmiddels beschikken over geavanceerde autonome analyse- en plan-capaciteiten, die de mens in allerlei vormen overtreffen en inhalen, staat in ieder geval vast.

‘Achter de schermen werken duizenden partijen aan meer geavanceerde versies’

Opschonen en censureren

De meeste LLM’s die voor het bredere publiek beschikbaar zijn, zijn uitgewerkte en verfijnde versies, getraind op informatie tot en met september 2021. Daarnaast is door OpenAI, het bedrijf achter ChatGPT, veel geïnvesteerd in het opschonen en censureren van het model om te voorkomen dat het voor kwaadaardige doelen wordt ingezet of maatschappelijk onacceptabele resultaten geeft. De publieke versies zijn al een langere tijd in ontwikkeling, waarbij het publiek-klaar maken een tijdrovende stap in de productvolwassenheid lijkt. Dit is dus zeker niet de laatste stand van de techniek – achter de schermen wordt door duizenden partijen gewerkt aan meer geavanceerde versies dan waar het brede publiek momenteel toegang toe heeft.

Eigen plan trekken

We moeten ervan uit gaan dat de versies die het bredere publiek kan zien, mogelijk niet de laatste versies zijn waar geopolitieke mogendheden wellicht al over beschikken: statelijke actoren die in theorie over sterk ontwikkelde, ongecensureerde LLM’s beschikken, met zelfstandige kenmerken, mogelijk gemaakt door orkestratie. Zij zouden ze kunnen gebruiken

in hun eigen geopolitieke belang, bijvoorbeeld voor het opzetten van complexe cyberaanvallen of het schrijven van exploit-code voor nog onbekende beveiligingsproblemen. Zowel in de plannings- als uitvoeringsfase kan alles worden geautomatiseerd – de computer kan een eigen plan trekken en hiernaar handelen. Een autonome cyberaanval, gebruikmakend van de modernste aanvalstechnieken, behoort tot de mogelijkheden. Het verkrijgen van deze zeer geavanceerde, weaponized LLM’s is een internationale race die kan worden vergeleken met de race naar quantum computing, waarin Europa momenteel niet of slechts zeer beperkt in participeert.

In het verweer tegen de risico’s zitten ook kansen van AI. AI kan worden aangewend om te interveniëren voordat een menselijke operator dat hoeft te doen. Verder zijn er al veel narrow AI-vormen in gebruik die met behulp van patroonherkenning onbekende malware of kwaadaardig netwerkverkeer herkennen.

‘AI kan al interveniëren voordat een menselijke operator dat kan doen’

Unknown unknowns

De kracht van AI neemt zodanig toe dat AI een disruptor kan vormen voor bepaalde bedrijfsmodellen of zelfs hele sectoren. Aandacht voor het onderwerp, door alle betrokkenen, is daarom van essentieel belang. Er zijn te veel unknown unknowns om achterover te leunen en af te wachten wat AI gaat brengen – de ontwikkelingen moeten op de voet worden gevolgd en de impact moet doorlopend worden bepaald.

Auteur van dit artikel blog is Ruben Faber, Strategisch Adviseur Cybersecurity NCSC-NL, in samenwerking met Huub Janssen, Kwartiermaker Toezicht op AI, Rijksinspectie Digitale Infrastructuur en voorzitter van de Nederlandse en Europese werkgroepen van Bevoegde Autoriteiten voor AI en Meindert Kamphuis, Project Manager Toezicht op AI, Rijksinspectie Digitale Infrastructuur.

Auteur: Jan Roekens, Hoofdredacteur

Deze artikelen vind je vast ook interessant

Ook de laatste bytes ontvangen?