Legal17 februari, 2026

De AI-verordening: inzoomen op de eerste verplichtingen

Welke AI-systemen zijn verboden? Hoe ziet de nieuwe plicht tot AI-geletterdheid eruit? En aan welke verplichtingen moeten aanbieders van AI-modellen voor algemene doeleinden voldoen?

Auteurs: Seliha Buelens, Wout Platteau, Wouter Torfs

Dit artikel is een samenvatting van de bijdrage ‘AI-Verordening. Inzoomen op de eerste verplichtingen’ uit het Nieuw Juridisch Weekblad.

Verboden AI-systemen: rode lijnen

De AI-verordening hanteert een risicogebaseerde aanpak. Sommige AI-systemen zijn intussen verboden vanwege hun onaanvaardbare impact op fundamentele rechten en vrijheden, zoals:

  • systemen die op algoritmische wijze punten toekennen aan personen op basis van hun sociale gedrag (social scoring);
  • AI-systemen voor emotieherkenning op de werkvloer of in het onderwijs;
  • AI-systemen die aan gedragsmanipulatie trachten te doen, of die kwetsbaarheden trachten uit te buiten.

Organisaties moeten nagaan of zij rechtstreeks of onrechtstreeks dergelijke systemen ontwikkelen, inzetten of commercialiseren. Bij een inbreuk dreigen zware administratieve geldboetes.

Organisaties die vandaag inzetten op AI-geletterdheid verkleinen hun risico’s dankzij bewust gebruik van AI. 

AI-geletterdheid als nieuwe basisverplichting

Sinds februari 2025 geldt eveneens een algemene plicht tot AI-geletterdheid voor alle werknemers van aanbieders en gebruiksverantwoordelijken. Dit vergt minstens:

  • bewustmaking over de mogelijkheden en risico’s van AI;
  • opleiding over de werking en limieten van de gebruikte AI-systemen;
  • duidelijke interne regels en proceduresrond AI-gebruik.

Er moet daarbij rekening worden gehouden met de context van het AI-gebruik, de achtergrondkennis, ervaring en opleiding van de desbetreffende werknemers. Een gelaagde aanpak is dus aangewezen: basisopleiding voor iedereen, aangevuld met verdiepende training voor technische profielen en gebruikers van hoog-risico-systemen. AI-geletterdheid sluit bovendien nauw aan bij de verplichting van menselijk toezicht voor AI-systemen met een hoog risico.

GPAI-modellen en toekomstige stappen

De verordening introduceert ook specifieke regels voor aanbieders van AI-modellen voor algemene doeleinden (GPAI-modellen), zoals de modellen achter ChatGPT, Gemini en Copilot. Transparantie over trainingsdata, respect voor auteursrechten, een passend niveau van cyberbeveiliging en een robuust risicobeheer staan daarbij centraal.

AI-verordening: conclusies

Op nationaal niveau bereiden autoriteiten zich voor op toezicht en handhaving, terwijl de zwaarste en meest omvangrijke verplichtingen uit de AI-verordening, namelijk voor AI-systemen met een hoog risico, de komende jaren gefaseerd in werking treden. Om te concluderen, de AI-verordening zet belangrijke eerste stappen om de meest problematische AI-toepassingen te verbieden, maar vangt niet alle risico’s van AI-gebruik op. Organisaties die vandaag inzetten op AI-geletterdheid verkleinen hun risico’s dankzij bewust gebruik van AI. Tenslotte worden er verplichtingen opgelegd voor de aanbieders van GPAI-modellen.

De Auteurs

Auteur legal BUELENS Seliha

Seliha Buelens

Legal auteur Platteau Wout

Wout Platteau

Legal auteur Torfs Wouter

Wouter Torfs

Back To Top