Publicaties

AI-agents en de EU AI-verordening: de kans is groot dat je in overtreding bent

In onze blogreeks hebben we AI-agents van verschillende kanten belicht van hun potentieel en implementatie tot hun waarde en impact op je enterprise-architectuur. Maar er is één aspect dat steeds urgenter wordt: de regelgeving. Met de EU AI-verordening is Europa vooroploper in het reguleren van kunstmatige intelligentie, en die regelgeving heeft directe gevolgen voor organisaties die AI-agents ontwikkelen of inzetten. Augustus 2025 was een mijlpaal, en augustus 2026 brengt nog meer verplichtingen met zich mee. De vraag is niet langer of de AI-verordening relevant is voor jouw AI-agents, maar hoe je er tijdig op anticipeert. 
 

De EU AI-verordening in vogelvlucht: wat moet je weten? 

De EU AI-verordening is ’s werelds eerste uitgebreide wetgeving voor kunstmatige intelligentie en volgt een risico-gebaseerde aanpak. AI-systemen worden ingedeeld in vier categorieën:  

  • Onaanvaardbaar risico (verboden) 
  • Hoog risico (streng gereguleerd) 
  • Beperkt risico (transparantieverplichtingen) 
  • Minimaal risico (grotendeels ongereguleerd) 

Deze indeling bepaalt welke verplichtingen op jouw organisatie rusten. 

 De wetgeving trad in augustus 2024 in werking, maar de implementatie gebeurt gefaseerd. Vanaf februari 2025 gelden al verboden toepassingen en AI-geletterdheidsverplichtingen. Augustus 2025 bracht verplichtingen voor general-purpose AI-modellen (GPAI) en governance-structuren. De grote wave komt in augustus 2026, wanneer alle verplichtingen voor hoog-risico systemen volledig van kracht worden. Voor organisaties betekent dit: de klok tikt. 
 

Waar vallen AI-agents onder de regelgeving? 

De EU AI-verordening is niet specifiek ontworpen met AI-agents in gedachten, maar de definitie van een AI-systeem is breed genoeg om ze te omvatten.  

Een AI-systeem is volgens de wet:

“een op een machine gebaseerd systeem dat is ontworpen om met verschillende niveaus van autonomie te werken en dat na het inzetten ervan aanpassingsvermogen kan vertonen, en dat, voor expliciete of impliciete doelstellingen, uit de ontvangen input afleidt hoe output te genereren zoals voorspellingen, inhoud, aanbevelingen of beslissingen die van invloed kunnen zijn op fysieke of virtuele omgevingen.” 

AI-agents vallen daar per definitie onder. Ze nemen immers autonoom beslissingen, kunnen plannen, redeneren en acties uitvoeren in verschillende systemen. Dat maakt ze interessant, maar ook regelgevingstechnisch complex. De cruciale vraag is: valt jouw AI-agent onder de hoog-risico classificatie? 

Hoog-risico of niet: daar draait het om 

Of een AI-agent als hoog-risico wordt geclassificeerd, hangt af van twee routes: 

Route 1: Veiligheidscomponent van gereguleerde producten 

Wordt je AI-agent gebruikt als veiligheidscomponent in een product dat al onder EU-harmonisatiewetgeving valt (zoals medische apparatuur, voertuigen, machines of speelgoed), én vereist die wetgeving een derde-partij conformiteitsbeoordeling? Dan is je AI-agent automatisch hoog-risico. Denk aan AI-agents in autonome voertuigen of AI-gestuurde medische diagnostiek. 

Route 2: Specifieke toepassingsgebieden (Bijlage III) 

De AI-verordening noemt in Bijlage III een reeks situaties waarin AI een direct effect kan hebben op de rechten, veiligheid of kansen van mensen. Hieronder vallen onder meer: 

  • Biometrische identificatie en categorisering: systemen voor gezichtsherkenning, stemanalyse of gedragsprofilering, vooral in publieke of semipublieke ruimtes. 
  • Kritieke infrastructuur: toepassingen die de werking of veiligheid van energie-, transport- of watervoorzieningssystemen beïnvloeden. 
  • Onderwijs en opleiding: AI-systemen die beslissingen ondersteunen of nemen over toelating, beoordeling of certificering. Dit gaat verder dan scholen of universiteiten: ook AI-ondersteunde leermanagementsystemen, automatische toetsanalyse, intelligente tutors en HR-leerplatforms binnen bedrijven kunnen hieronder vallen als ze invloed hebben op de ontwikkeling of beoordeling van een persoon. Een AI-agent die bijvoorbeeld persoonlijke leertrajecten samenstelt of prestaties evalueert, valt dus mogelijk onder hoog-risico. 
  • Werkgelegenheid en HR-processen: systemen die betrokken zijn bij werving, selectie, prestatiebeoordeling, promoties of ontslagbeslissingen. 
  • Toegang tot essentiële diensten: bijvoorbeeld kredietbeoordelingen, hypotheekacceptatie of toelating tot sociale voorzieningen. 
  • Rechtshandhaving en migratie: risicobeoordeling bij recidive, visumaanvragen, of grenscontroletoepassingen. 

Belangrijk is dat profilering van personen, het automatisch evalueren of voorspellen van persoonlijke kenmerken of gedrag, een systeem vrijwel altijd hoog-risico maakt, ongeacht de context. 
 

AI-geletterdheid: de vergeten maar verplichte bouwsteen van compliance 

Vanaf februari 2025 introduceerde de EU AI-verordening iets nieuws: de AI-geletterdheidsverplichting (AI literacy obligation). 

Alle organisaties die AI-systemen ontwikkelen, inzetten of gebruiken, moeten ervoor zorgen dat hun medewerkers voldoende kennis en begrip van kunstmatige intelligentie hebben. 

AI-geletterdheid gaat veel verder dan technische training. Het draait om het vermogen van mensen binnen een organisatie om te begrijpen wat AI is, hoe het beslissingen neemt en wanneer menselijke tussenkomst noodzakelijk is. Medewerkers moeten kunnen inschatten welke risico’s, vooroordelen en beperkingen in een systeem kunnen schuilen, en in staat zijn om de uitkomsten van AI kritisch te interpreteren binnen hun werkcontext. 

De wetgever wil hiermee voorkomen dat AI blindelings wordt vertrouwd. AI-geletterdheid is daarmee niet langer een vrijblijvende competentie, maar een concrete compliancevoorwaarde, vergelijkbaar met dataveiligheid of ethische richtlijnen. 
 

Waarom dit zo belangrijk is voor AI-agents 

AI-agents opereren autonoom en voeren vaak complexe ketens van beslissingen uit. 

Juist daarom vraagt de wet dat mensen die met zulke agents werken begrijpen wat er onder de motorkap gebeurt.

Een goed getrainde medewerker kan sneller fouten of afwijkingen herkennen, beter bepalen wanneer ingrijpen noodzakelijk is en bijdragen aan transparantie richting klanten en toezichthouders. 
Een AI-agent is uiteindelijk zo verantwoord als de mensen die hem begrijpen. 
 

AI-geletterdheid als onderdeel van governance 

De verplichting raakt niet alleen HR of training, maar vormt een nieuwe pijler in governance. 
Naast technische robuustheid en juridische compliance komt er een mensdimensie bij: de capaciteit van een organisatie om AI bewust, kritisch en verantwoord te gebruiken. 
 

Investeer in: 

  • Opleidingsprogramma’s over ethiek, transparantie en risico’s van AI 
  • Simulaties en workshops rond menselijk toezicht op agents 
  • Communicatie tussen ontwikkelaars, gebruikers en bestuurders om kennis te delen 

Wie dat goed doet, voldoet niet alleen aan de wet, maar versterkt ook de innovatiekracht van de organisatie. 
 

De kans naast de verplichting 

De EU AI-verordening kan voelen als een last, maar biedt ook kansen.  

Organisaties die vroegtijdig investeren in verantwoorde AI bouwen vertrouwen op bij klanten, medewerkers en toezichthouders. Compliance kan een concurrentievoordeel worden: je onderscheidt je met betrouwbare, veilige en transparante AI-agents. Bovendien dwingt de regelgeving je om beter na te denken over de risico’s en de governance van AI, en dat maakt je organisatie veerkrachtiger. 

De kernvraag is niet of je moet voldoen aan de EU AI-verordening, maar hoe snel en hoe goed je dit aanpakt. Want de wetgeving is er, de controle daarop gaat per februari 2026 opgeschroefd worden en boetes zij niet misselijk! Tijd om aan de slag te gaan! 

Heb je na het lezen van dit stuk het gevoel dat je hulp kunt gebruiken? We helpen organisaties om hun AI-agents in kaart te brengen, risico’s te classificeren en een governance-aanpak te ontwikkelen die voldoet aan de EU AI-verordening, zonder innovatie te remmen. Neem gerust contact op, we denken graag met je mee. 

Theo Bosveld 

Gerelateerd

Artificial Intelligence (AI)

Grip op de Autonome AI-Revolutie

In de wereld van kunstmatige intelligentie is de focus snel aan het verschuiven van generatieve AI naar ‘Agentic AI’ (zie onze eerdere blogs voor meer informatie hierover). Systemen zoals OpenClaw zijn hier het perfecte voorbeeld