De EU AI-verordening als basis voor verantwoord innoveren
We zitten er allemaal middenin: de opkomst van kunstmatige intelligentie. Of je er nu professioneel mee werkt of er experimenteel mee speelt, één ding is duidelijk: AI ontwikkelt zich razendsnel. Het biedt ongekende kansen voor individuen, overheden, bedrijven en de samenleving als geheel. Tegelijkertijd brengt het serieuze risico’s met zich mee, van ondoorzichtige besluitvorming tot aantasting van fundamentele rechten.
Juist daarom is het zo belangrijk dat we AI niet alleen slim, maar ook verantwoord inzetten. De EU AI-verordening biedt hiervoor een juridisch en ethisch kader. Het is de eerste uitgebreide wetgeving ter wereld die regels stelt voor het ontwikkelen, gebruiken en beheren van AI met als doel zowel innovatie te stimuleren als risico’s beheersbaar te houden. Deze verordening raakt overheden direct, omdat zij vaak aan de voorkant van AI-toepassingen staan, in dienstverlening, toezicht en publieke besluitvorming.
Door Gerrit Goud
Waarom een Europese AI-verordening?
De inzet van AI raakt steeds vaker publieke waarden. Denk aan besluitvorming over uitkeringen, fraudeonderzoek, vergunningverlening of handhaving. Zonder duidelijke spelregels dreigt een situatie waarin risico’s zoals discriminatie, gebrek aan uitlegbaarheid of verlies van menselijke controle niet tijdig worden herkend. De EU AI-verordening beoogt dit te voorkomen door innovatie te stimuleren, zonder dat dit ten koste gaat van fundamentele rechten. Tegelijkertijd legt de verordening duidelijke verplichtingen op aan publieke en private partijen, afhankelijk van het risico dat een AI-systeem met zich meebrengt. Door transparantie, toezicht en zorgvuldige toepassing te verplichten, wil de EU AI-verordening het vertrouwen in het gebruik van AI-systemen versterken. Overtreding van de verordening kan leiden tot aanzienlijke boetes, vergelijkbaar met de sancties onder de AVG.
Vier risiconiveaus: welk AI-systeem valt waar?
De EU AI-verordening maakt een helder onderscheid tussen vier risiconiveaus, elk met eigen verplichtingen:
-
Verboden AI:
Sommige AI-toepassingen zijn zo risicovol dat ze volledig worden verboden. Denk aan sociale scoring door overheden of systemen die gedrag manipuleren op een manier die mensen schade toebrengt.
-
Hoog-risico AI:
Deze categorie raakt overheidsorganisaties het meest. Denk aan AI die wordt ingezet bij uitkeringsverstrekking, risicogericht toezicht, toegang tot zorg of ondersteuning of fraudedetectie. Voor dit type AI geldt een uitgebreid pakket aan eisen: transparantie, risicobeheersing, menselijke controle, registratie, monitoring en een zogenaamde beoordeling van de impact op fundamentele rechten. In de praktijk wordt dit laatste ook wel afgekort als FRIA (Fundamental Rights Impact Assessment).
-
Beperkt risico
Bijvoorbeeld een chatbot op de gemeentelijke website of een virtuele assistent. Hier geldt vooral een transparantieplicht: de gebruiker moet weten dat hij of zij met AI communiceert.
-
Minimaal risico
Bijvoorbeeld spellingscontrole of agendasoftware. Hier zijn geen wettelijke verplichtingen, maar vrijwillige richtlijnen worden wel aanbevolen.
Wat betekenen de risiconiveaus voor overheidsorganisaties?
Overheidsorganisaties zijn meestal geen directe ontwikkelaars van AI-systemen, maar wel opdrachtgever, gebruiker of mede-ontwikkelaar in samenwerking met erkende marktpartijen of kennisinstellingen. Dat betekent dat zij inzicht moeten hebben in welke AI-systemen in gebruik of in ontwikkeling zijn, en dat zij verantwoordelijk zijn voor transparantie richting burgers. Bij AI-systemen met een hoog risico moeten overheidsorganisaties bovendien vooraf een impactbeoordeling uitvoeren en kunnen uitleggen hoe het systeem werkt, alvorens het in gebruik te nemen. Ook moeten zij aantoonbaar waarborgen dat menselijke controle mogelijk blijft en dat fundamentele rechten beschermd worden.
Hoe pak je dit aan?
1. Maak beleid. Formuleer spelregels over AI-gebruik binnen jouw organisatie. Koppel dit aan privacybeleid, informatiebeveiliging en ethiek (integriteit).
2. Benoem een AI-compliance officer. Deze functionaris bewaakt het evenwicht tussen innovatie en zorgvuldigheid. Hij of zij ziet erop toe dat AI-toepassingen voldoen aan interne kaders, de EU AI-verordening, de AVG en andere wettelijke vereisten, met aandacht voor risico’s, transparantie en publieke waarden.
3. Breng in kaart welke AI-systemen je gebruikt en in ontwikkeling zijn. Stel een register op en bepaal per systeem het risiconiveau volgens de EU AI-verordening.
4. Voer AI-impactbeoordelingen uit (FRIA). Doe dit bij (voorgenomen) gebruik van AI die mogelijk onder hoog risico valt.
5. Zorg voor transparantie richting burgers. Maak zichtbaar dat AI wordt gebruikt. Leg uit hoe het werkt en hoe bezwaar mogelijk is.
Een deugdelijk beheersingsproces is onmisbaar voor de naleving van EU AI-verordening
Het voldoen aan de EU AI-verordening is geen eenmalige inspanning, maar vraagt om een structureel en aantoonbaar intern beheersingsproces. Overheidsorganisaties moeten niet alleen beleid opstellen en registraties bijhouden, maar ook kunnen onderbouwen dat AI-toepassingen beheerst, verantwoord en herleidbaar worden ingezet. Denk aan procedures voor toezicht, periodieke evaluaties, incidentafhandeling en het vastleggen van rollen en verantwoordelijkheden.
Juist omdat AI-systemen invloed kunnen hebben op fundamentele rechten en publieke besluitvorming, moet een gemeente kunnen aantonen dat zij grip heeft op zowel de techniek als de toepassing. Interne beheersing vormt daarmee de basis voor verantwoording, transparantie én vertrouwen richting burgers, toezichthouders en politiek.
Tot slot: verantwoordelijkheid als voorwaarde voor innovatie
AI biedt kansen, maar alleen als we de risico’s serieus nemen. De EU AI-verordening helpt overheidsorganisaties om daar structuur aan te geven. Niet door innovatie te blokkeren, maar juist door deze verantwoord vorm te geven.
overheidsorganisaties die AI inzetten met oog voor transparantie, uitlegbaarheid en mensenrechten, bouwen niet alleen aan technologie, maar aan vertrouwen. En dat is precies waar het bij publieke innovatie om zou moeten draaien.
Heb je vragen over de EU AI-verordening? Of wil je meer weten over AI en binnen het intern beheersingsproces van jouw organisatie? Neem dan gerust contact met ons op! Wij gaan graag met je in gesprek.