Nieuwe AI-regels zijn ingegaan, ben jij al transparant genoeg?
Sinds 1 augustus 2025 gelden er nieuwe Europese regels voor het gebruik van AI. Werk jij met AI bij het matchen van kandidaten of het nemen van besluiten over de arbeidsvoorwaarden? Dan ben je verplicht om transparant te zijn. Deze regels komen voort uit de AI-Act en gelden voor zowel aanbieders als gebruikers van generatieve AI-modellen met algemene doeleinden.
Wat betekent dit voor jou?
Gebruik je een generatief AI-model zoals ChatGPT, Copilot of Perplexity? Dan zijn er nu regels waar je je aan moet houden. Dit geldt voor alle AI-modellen die breed toepasbaar zijn en die je in verschillende AI-systemen kunt integreren. Juist omdat je deze systemen zo breed in kunt zetten hebben ze mogelijk impact. Daar zijn de regels voor. Aan welke verplichtingen je moet voldoen, hangt af van jouw rol:
Jij bent gebruiker van AI
Gebruik je (of jouw organisatie) AI onder je eigen verantwoordelijkheid? Bijvoorbeeld in matchingstools of tekstgeneratie? Dan moet je:
-
aangeven als beeld, audio of video kunstmatig is bewerkt of gegenereerd
-
vermelden dat een tekst door AI is gemaakt als je het publiek informeert over onderwerpen van algemeen belang (tenzij je redactie toepast)
-
gebruikers informeren als je AI inzet voor emotieherkenning of biometrische categorisering
Als je AI privé gebruikt, dan gelden deze verplichtingen niet.
Let op: gebruik je AI voor geautomatiseerde besluitvorming over werk of selectie? Dan val je in de categorie hoog-risico en gelden strengere regels. Je moet dan ook aan de aanbiedersverplichtingen voldoen.
Jij bent aanbieder van AI
Ontwikkel jij een AI-model? Of ontwikkelt jouw organisatie er 1? Of laat je zo’n model maken? En breng je het op de markt of gebruik je het zelf? Dan ben jij aanbieder van AI. Je moet nu:
-
laten zien hoe het model is getraind en getest (met technische documentatie hierover en evaluatieresultaten)
-
uitleggen wat het model wel en niet kan aan AI-systeemaanbieders (zodat zij op hun beurt aan de AI-regels kunnen voldoen)
-
auteursrechten respecteren bij het trainen van het model (je neemt beleidsmaatregelen om schending te voorkomen)
-
een openbare samenvatting geven van de gebruikte trainingsdata (die moet natuurlijk genoeg details bevatten)
-
zorgen dat AI-output herkenbaar is als kunstmatig gegenereerd (bijvoorbeeld via metadata)
Extra eisen voor systeemrisico’s
Werk je met een model dat systeemrisico’s kan opleveren? Dan gelden er extra eisen, zoals:
- verplichte evaluatie van het model om systeemrisico’s vast te stellen
- maatregelen om risico’s te beperken
- meldplicht bij ernstige incidenten bij het AI Office
- voldoen aan strenge cybersecurity-eisen
Meer weten?
Lees op deze pagina op Mijn ABU wat deze regels voor jou betekenen en hoe jij transparant bent over AI.