AI moet transparanter per 1 augustus 2025
Gebruik je AI, bijvoorbeeld bij het matchen van kandidaten of het nemen van besluiten over het arbeidscontract en de arbeidsvoorwaarden? Dan krijg je binnenkort te maken met nieuwe Europese verplichtingen van de AI-Act. Vanaf 1 augustus 2025 gelden er transparantieverplichtingen voor aanbieders en gebruikers van AI-modellen met algemene doeleinden (General Purpose AI-modellen).
Wat zijn General Purpose AI-modellen?
Dit zijn AI-modellen die breed toepasbaar zijn en die je in verschillende AI-systemen kunt integreren. Denk aan systemen zoals ChatGPT, Copilot of Perplexity. Juist omdat deze systemen breed inzetbaar zijn, en dus mogelijk impact hebben, gelden er voor deze systemen specifieke verplichtingen vanaf 1 augustus 2025.
Welke verplichtingen gelden er?
Dat hangt af van jouw rol: ben je gebruikersverantwoordelijke of aanbieder van generatieve AI?
Gebruikersverantwoordelijke van generatieve AI
Als jij, of jouw organisatie, een AI-systeem onder eigen verantwoordelijkheid inzet, dan ben je gebruikersverantwoordelijke. Goed om te weten: niet-professioneel gebruik valt hier niet onder.
Je moet als gebruikersverantwoordelijke vanaf 1 augustus 2025:
- duidelijk maken als beeld, audio of video kunstmatig is gegenereerd of bewerkt (bijvoorbeeld met een watermerk)
- als je publiek informeert over onderwerpen van algemeen belang, moet je vermelden dat een AI-systeem een tekst heeft gegenereerd (tenzij er redactionele controle is)
- gebruikers informeren als je systemen inzet voor emotieherkenning of biometrische categorisering
Let op: gebruik je AI voor een hoog-risicotoepassing, zoals geautomatiseerde besluitvorming over werk of selectie? Dan word je juridisch gezien als aanbieder van een hoog-risicosysteem. Je moet dan ook aan de aanbiedersverplichtingen voldoen.
Aanbieders van generatieve AI
Als jij, of jouw organisatie, een AI-model ontwikkelt (of laat ontwikkelen) en het model op de markt brengt of zelf gebruikt, dan ben je aanbieder.
Je moet vanaf 1 augustus 2025:
- technische documentatie opstellen over hoe het model is getraind en getest, inclusief de evaluatieresultaten
- informatie en documentatie geven aan AI-systeemaanbieders over wat het model wel en niet kan (zodat zij op hun beurt aan de AI-verordening kunnen voldoen)
- beleidsmaatregelen nemen om schending van auteursrechten bij het trainen van het model te voorkomen
- een openbare en voldoende gedetailleerde samenvatting publiceren van de gebruikte trainingsdata
- ervoor zorgen dat output als kunstmatig gegenereerd herkenbaar is (bijvoorbeeld via metadata)
Extra verplichtingen voor systeemrisico’s
Gebruik je een model dat systeemrisico’s met zich meebrengt? Dan gelden aanvullende verplichtingen, zoals:
- een verplichte evaluatie van het model om systeemrisico’s vast te stellen
- maatregelen nemen om risico’s te beperken
- ernstige incidenten bijhouden en melden bij het AI Office
- voldoen aan strenge cybersecurity-eisen