Kunstmatige intelligentie wordt steeds slimmer, sneller en zelfstandiger. Waar AI eerst vooral simpele taken uitvoerde, zien we nu systemen die complete websites kunnen bouwen op basis van één opdracht, zelfstandig acties uitvoeren via AI-agents, code schrijven, analyses maken en steeds vaker beslissingen ondersteunen of deels overnemen. Daardoor komt ook een belangrijkere vraag naar voren: hoe houden mensen uiteindelijk controle over AI als die systemen nóg krachtiger worden? Het is een onderwerp waar ik zelf steeds vaker over nadenk, juist omdat de ontwikkeling momenteel zo hard gaat.
In dit artikel kijk ik onder andere naar het zogenaamde ‘human-in-the-loop’-principe, waarbij mensen altijd toezicht houden op belangrijke AI-beslissingen, maar ook naar ideeën zoals AI “boxing”, waarbij een systeem bewust beperkt wordt zodat het minder vrijheid heeft. Daarnaast komt regelgeving aan bod, zoals de Europese AI Act (lees meer), waarin de EU probeert vast te leggen hoe AI veilig en controleerbaar moet blijven.
Tegelijk probeer ik zelf ook nuchter naar dit onderwerp te kijken. Veel beelden van superintelligente AI komen uit films of theoretische discussies en liggen waarschijnlijk nog ver van de realiteit. De huidige generatie AI begrijpt de wereld namelijk niet zoals mensen dat doen.
Verduidelijking: Moderne AI-modellen hebben wel sterke wereldmodellen: ze leren hoe dingen meestal samenhangen en wat waarschijnlijk gebeurt op basis van enorme hoeveelheden data. Wat ze niet hebben is bewustzijn, eigen bedoelingen of echt menselijk begrip.
Toch denk ik dat het een fout zou zijn om de risico’s volledig weg te negeren. Juist omdat AI-systemen steeds vaker gekoppeld worden aan software, databases, workflows en autonome agents, kunnen fouten ook grotere gevolgen hebben dan een chatbot die een verkeerd antwoord geeft. Denk aan systemen die zelfstandig acties uitvoeren (binnen beperkte runtime en gecontroleerde omgevingen), overtuigend foutieve informatie genereren of beslissingen ondersteunen zonder dat iemand alles nog handmatig controleert. Daarom zie ik de discussie langzaam verschuiven van “wat kan AI?” naar “hoe zorgen we dat mensen controle houden?”.
Van chatbot naar AI-agent
Een paar jaar geleden zagen veel mensen AI vooral als een slimme chatbot die vragen kon beantwoorden. Inmiddels verschuift AI steeds vaker richting systemen die zelfstandig taken uitvoeren. De nieuwste AI-agents kunnen bijvoorbeeld tools gebruiken, code schrijven, bestanden aanpassen, websites bouwen en workflows automatiseren zonder dat iedere stap handmatig wordt ingevoerd. Juist die ontwikkeling maakt de discussie over controle en toezicht steeds relevanter.
Human-in-the-loop (HITL), de mens blijft meekijken
Een van de bekendste manieren om controle over AI te houden, is het zogenaamde human-in-the-loop-principe. Het idee daarachter is eigenlijk vrij simpel: een AI-systeem mag taken uitvoeren of ondersteunen, maar een mens blijft betrokken bij belangrijke beslissingen. Zeker bij gevoelige onderwerpen zoals gezondheidszorg, financiën, veiligheid of juridische processen vinden veel onderzoekers en overheden dat belangrijk.
In de praktijk zie je dit nu al regelmatig terug. AI kan bijvoorbeeld analyses maken, documenten samenvatten of aanbevelingen doen, maar uiteindelijk moet een mens nog steeds goedkeuring geven voordat er echt actie wordt ondernomen. Dat klinkt misschien logisch, maar juist bij krachtige AI-systemen wordt die menselijke controle steeds belangrijker. Hoe slimmer en sneller AI wordt, hoe groter namelijk ook de kans dat mensen te veel vertrouwen op de output van een systeem.
Tegelijk zie ik hier ook meteen een lastig punt ontstaan. Want hoe actief blijft een mens nog meekijken als AI in veel gevallen sneller, consistenter of slimmer lijkt te werken? Er bestaat namelijk een risico dat menselijke controle langzaam verandert in een soort symbolische controle, waarbij iemand vooral nog op “akkoord” klikt zonder alles echt kritisch te beoordelen. Juist daarom draait human-in-the-loop niet alleen om aanwezigheid van mensen, maar ook om daadwerkelijk toezicht houden en kunnen ingrijpen wanneer dat nodig is.
Een andere theorie die vaak terugkomt in discussies over AI-veiligheid is AI boxing. Daarbij draait het niet per se om een AI volledig afsluiten van de buitenwereld, maar vooral om het bewust beperken van wat een systeem zelfstandig mag doen. Ontwikkelaars proberen daarbij duidelijke grenzen in te bouwen rondom toegang, autonomie en acties.
Goed om te weten: “AI boxing” is meer een theoretisch begrip uit AI safety; in de praktijk spreken bedrijven vaker over “sandboxing”, “guardrails” of “capability restrictions”.
Dat gebeurt nu eigenlijk al op verschillende manieren. Sommige AI-systemen mogen bijvoorbeeld alleen specifieke tools gebruiken, hebben beperkte rechten binnen een softwareomgeving of moeten eerst menselijke goedkeuring krijgen voordat ze acties uitvoeren. Ook werken veel bedrijven met sandbox-omgevingen, waarin AI wel taken kan uitvoeren, maar geen volledige controle krijgt over systemen of data.
Juist nu AI-agents steeds zelfstandiger worden, zie ik waarom dit onderwerp serieuzer wordt genomen. Een AI die alleen tekst genereert, brengt andere risico’s met zich mee dan een systeem dat zelfstandig code uitvoert, bestanden aanpast of gekoppeld is aan externe software. Tegelijk blijft het lastig om de juiste balans te vinden. Hoe meer beperkingen je toevoegt, hoe veiliger een systeem vaak wordt, maar ook hoe minder krachtig of bruikbaar het kan zijn. Daarom zie ik AI boxing als één onderdeel van een bredere aanpak rondom AI-veiligheid en toezicht.
Hoe je nu al AI kunt beperken
Ook zonder superintelligente AI passen veel bedrijven en gebruikers nu al een vorm van AI boxing toe. Daarbij krijgt een AI-systeem bewust beperkte toegang tot data, software of acties.
Denk bijvoorbeeld aan:
AI alleen toegang geven tot specifieke documenten
Geen automatische toegang geven tot financiële systemen
AI-output eerst laten controleren door een medewerker
Werken met sandbox-omgevingen voor code
Beperkingen instellen op welke tools een AI-agent mag gebruiken
Gevoelige bedrijfsinformatie afschermen van AI-tools
Juist nu AI steeds vaker gekoppeld wordt aan workflows en externe software, worden dit soort beperkingen belangrijker.
Veel bedrijven waar ik mee samenwerk, geven AI-systemen momenteel eigenlijk veel te veel toegang tot interne bestanden, documenten en workflows, vaak zonder echt stil te staan bij de mogelijke risico’s of beperkingen.
De juiste doelstellingen ontwerpen
Een belangrijk onderdeel van AI-veiligheid draait om de vraag: hoe zorg je dat een AI-systeem daadwerkelijk doet wat mensen bedoelen? Dat klinkt eenvoudig, maar blijkt in de praktijk behoorlijk ingewikkeld. AI voert namelijk opdrachten uit op basis van doelen en optimalisatie, niet op basis van gezond verstand.
Juist daardoor kunnen problemen ontstaan. Een AI die puur gestuurd wordt op snelheid, clicks of efficiëntie kan technisch gezien succesvol zijn, terwijl de uitkomst alsnog ongewenst is. Het systeem volgt dan de opdracht, maar zonder echt begrip van context of gevolgen.
Daarom proberen ontwikkelaars AI-systemen steeds beter te trainen op menselijke feedback, veiligheidsregels en duidelijke grenzen. Toch blijft dat lastig, omdat menselijke normen niet altijd zwart-wit zijn. Zeker nu AI-systemen zelfstandiger worden, wordt het steeds belangrijker om vooraf goed na te denken over welke doelen een AI precies krijgt meegegeven.
Monitoring en regelgeving
Naast technische oplossingen draait AI-veiligheid ook steeds meer om toezicht en regels. Want hoe krachtiger AI-systemen worden, hoe belangrijker het wordt om te kunnen controleren wat een systeem doet, welke beslissingen worden genomen en waar iets misgaat.
Daarom investeren bedrijven steeds vaker in monitoring. Denk aan het loggen van AI-acties, menselijke controles, veiligheidsfilters en systemen die afwijkend gedrag kunnen detecteren. Zeker bij AI-agents die zelfstandig taken uitvoeren, wordt dat steeds belangrijker.
Daarnaast proberen overheden meer grip te krijgen op de ontwikkeling van AI. Een bekend voorbeeld is de Europese AI Act, waarin regels worden opgesteld rondom transparantie, risico’s en menselijke controle. Het doel daarvan is niet om AI tegen te houden, maar om ervoor te zorgen dat krachtige systemen veilig en verantwoord worden ingezet.
De Europese AI Act in het kort
Met de Europese AI Act probeert de EU duidelijke regels op te stellen voor AI-systemen op basis van risico. AI met een onaanvaardbaar risico, zoals social scoring of bepaalde vormen van emotieherkenning in het onderwijs, is sinds februari 2025 verboden. Voor hoog-risico-systemen, bijvoorbeeld binnen HR, kredietbeoordeling, biometrie en kritieke infrastructuur, gelden vanaf augustus 2026 strenge eisen rondom transparantie, logging, risicoanalyses en menselijke controle. Systemen met beperkt risico moeten duidelijk aangeven dat AI wordt gebruikt, zoals bij chatbots of deepfakes. Voor AI met minimaal risico zijn er vrijwel geen verplichtingen. De boetes kunnen oplopen tot €35 miljoen of 7 procent van de wereldwijde jaaromzet. Ook Nederlandse overheden moeten bestaande AI-systemen uiterlijk in 2030 aanpassen aan deze regelgeving, met extra aandacht voor veiligheid en grondrechten.
Wat mij betreft kan AI-veiligheid uiteindelijk niet alleen door losse bedrijven of landen worden opgelost. De ontwikkeling van AI gaat wereldwijd en grote modellen worden vaak internationaal gebruikt, aangepast en geïntegreerd in bestaande systemen. Juist daarom blijft samenwerking tussen overheden, onderzoekers en technologiebedrijven belangrijk.
Op dit moment zie je wel dat er steeds meer regels, discussies en veiligheidsafspraken ontstaan, maar tegelijkertijd loopt regelgeving vaak achter op de snelheid waarmee AI zich ontwikkelt. Nieuwe AI-tools en agents verschijnen soms sneller dan toezichthouders überhaupt kunnen beoordelen wat de impact ervan is. Daardoor voelt het geregeld alsof de technologie vooruit rent, terwijl beleid en controle pas later proberen bij te sturen. Kritieke sectoren (gezondheid, financiën, veiligheid) vereisen altijd menselijk toezicht zoals in de EU AI Act omgeschreven.
Ik denk daarom dat de discussie rondom AI-veiligheid de komende jaren alleen maar belangrijker wordt. Niet omdat superintelligente AI morgen de wereld overneemt, maar omdat AI nu al steeds meer invloed krijgt op hoe we werken, communiceren en beslissingen nemen. Juist daarom lijkt het mij verstandig om nu al serieus na te denken over grenzen, toezicht en samenwerking.