Risicobeheersing van buitenlandse AI-technologie: een praktische benadering
Van algoritmes die burgers helpen bij loketvragen tot systemen die voorspellen waar toezicht nodig is: kunstmatige intelligentie verandert de manier waarop overheden werken. In onze vorige blog bespraken we waarom die ontwikkeling vraagt om kritische keuzes, zeker als het gaat om AI-technologie uit de Verenigde Staten. Daarin ging het over de ethische, juridische en soevereiniteitsvraagstukken die spelen bij Amerikaanse AI in het publieke domein. In deze tweede blog richten we ons op het hoe. Hoe kunnen organisaties verstandig omgaan met buitenlandse AI, en welke concrete strategieën helpen om risico’s te beheersen?
Door Arie Hartog
Due diligence: weet wat je in huis haalt
Een goede AI-strategie begint met kennis. Organisaties moeten weten wat een AI-oplossing doet, hoe het systeem leert, en (nog belangrijker) of het juridisch gezien toelaatbaar is. Dit vraagt om meer dan een technische of functionele toets: ook juridische en ethische beoordeling zijn onmisbaar. Voldoet het systeem aan de eisen van de EU AI Act? Kan het transparant worden verantwoord richting burgers of toezichthouders? Is de herkomst van de trainingsdata te achterhalen? Door deze vragen al vóór implementatie te stellen, voorkom je dat risico’s pas zichtbaar worden als het al te laat is.
Diversificatie van leveranciers: verklein je afhankelijkheid
In plaats van te leunen op één of twee dominante leveranciers, doen overheden er verstandig aan om hun technologie-ecosysteem breder op te bouwen. Europese aanbieders winnen aan kracht en volwassenheid, en ook open source-oplossingen worden steeds beter ondersteund. Door met meerdere partners te werken, wordt de afhankelijkheid van specifieke wetgevingen of politieke situaties verkleind. Bovendien dwingt het organisaties om na te denken over interoperabiliteit, datastandaarden en migratiestrategieën. Dit zijn precies de elementen die digitale veerkracht bevorderen.
Interne compliance en AI-governance: van beleid naar praktijk
Veel organisaties nemen inmiddels AI op in beleidsnota’s en strategische visies. Maar de papier is geduldig en de praktijk blijft vaak achter. Wie écht controle wil houden over AI-gebruik, moet de vertaalslag maken naar concrete processen: wie beoordeelt AI-aanbieders? Wie houdt toezicht op naleving van de AVG of op transparantie richting burgers? Welke criteria gelden bij inkoop? Hiervoor is een duidelijke aanpak nodig: een team met verschillende expertises, dat goed aansluit op de bestaande regels en controles binnen de organisatie. Certificering op basis van normen als ISO 42001 kan helpen om dat proces te stroomlijnen. Zo wordt AI geen black box, maar een beheersbare component van de organisatie.
Aanbestedingen en juridische complexiteit bij Amerikaanse AI
Waar bedrijven meer vrijheid hebben in hun leverancierskeuze, zitten overheden vast aan Europese aanbestedingsregels. Die vereisen transparantie, gelijk speelveld en objectieve selectiecriteria. Amerikaanse AI-oplossingen brengen hier vaak spanning: doordat ze niet altijd voldoen aan de EU AI Act of AVG, kunnen ze bij aanbestedingen juridisch onhoudbaar blijken. Daarnaast is het lastig om op gelijke voet te concurreren met technologieën die draaien op goedkope Amerikaanse infrastructuur, maar ondoorzichtige juridische risico’s met zich meebrengen. De uitdaging ligt dan ook niet alleen in het toetsen van technologie, maar ook in het vooraf stellen van duidelijke randvoorwaarden in de aanbestedingsdocumentatie.
Conclusie
De inzet van AI hoeft geen risico te zijn, mits organisaties weten wat ze doen. Door niet alleen naar technische prestaties te kijken, maar ook naar juridische, geopolitieke en organisatorische aspecten, ontstaat een AI-strategie die wérkt in het publieke domein. De voordelen van AI mogen dan groot zijn, de risico’s zijn dat ook. Zeker bij technologieën die buiten de Europese kaders zijn ontwikkeld. Wie due diligence, leveranciersdiversificatie en compliance integraal oppakt, bouwt aan een digitale overheid die innovatief én betrouwbaar is.
Meer weten?
Key2Control lanceerde onlangs het nieuwe AI Management System (AIMS) binnen de software van Key2Control. Het AIMS helpt overheidsorganisaties om AI op een controleerbare, transparante en verantwoorde manier in te bedden in hun bestaande beheersstructuur. Niet als geïsoleerd traject, maar als volwaardig onderdeel van het bredere governance-, risk- en compliancebeleid. Met het AIMS leg je de basis voor duurzame én verantwoorde innovatie.



