/ Moral Knight
VISIE 2026

Visie op Onafhankelijke Toetsing

Theoretisch Kader | 2026

← Terug naar onze aanpak
/ Moral KnightVISIE 2026

Visie op Onafhankelijke Toetsing

Theoretisch Kader | 2026

Van principe naar praktijk

De digitalisering van de overheid brengt een fundamentele verschuiving teweeg in de relatie tussen de staat en de burger. Waar besluitvorming wordt gedelegeerd aan algoritmes en AI-systemen, volstaat het niet langer om te vertrouwen op goede intenties of abstracte principes. Om het vertrouwen in de digitale overheid te waarborgen, is een robuust stelsel van onafhankelijke toetsing noodzakelijk. Dit kader schetst de urgentie en de voorwaarden voor dergelijke toetsing.

Het einde van het 'Ongereguleerde Wilde Westen'

De huidige praktijk van AI-ontwikkeling en -implementatie in de publieke ruimte vertoont kenmerken van een 'ongereguleerd Wilde Westen'. Technologieën worden regelmatig 'in het wild' getest op burgers zonder dat daar adequate juridische of ethische kaders aan ten grondslag liggen. Dit brengt risico's met zich mee, variërend van discriminatie tot onrechtvaardige inbreuken op privacy. Onafhankelijke toetsing moet fungeren als een guardrail die garandeert dat experimenten en toepassingen niet alleen technisch functioneren, maar ook juridisch, ethisch en epistemisch verantwoord zijn.

De kloof tussen theorie en praktijk overbruggen

Er bestaat inmiddels een wereldwijde consensus op het gebied van de waarden die relevant zijn ten aanzien van AI. Richtinggevende principes zoals transparantie, rechtvaardigheid en eerlijkheid, niet-schaden, verantwoordelijkheid en privacy zijn algemeen aangenomen. Echter, de vertaling van abstracte principes naar de praktijk blijkt problematisch. Over de interpretatie en praktische invulling van waarden en de weging hiervan bestaat allerminst overeenstemming.

Dit fenomeen, bekend als de 'principles-to-practice gap', zorgt ervoor dat ethische richtlijnen vaak weinig bescherming bieden tegen daadwerkelijke schade. Recente inzichten tonen aan dat benchmarks in laboratoria vaak niet voorspellen hoe een systeem zich in de echte wereld gedraagt, wat leidt tot een 'evaluation gap'.

Tot slot, bij het overbruggen van de kloof tussen theorie en praktijk ten aanzien van AI-ethiek is het nuttig het volgende onderscheid te maken. Namelijk, tussen 'ethiek in AI' (de technische code), 'ethiek van AI' (de sociale praktijk), en 'ethiek én AI' (de principiële wenselijkheid). Een valide en betrouwbare onafhankelijke toets van publieke AI-toepassingen dient deze drie dimensies in overweging te nemen.

Toegepaste ethiek als proces

Om deze kloof te dichten, moet onafhankelijke toetsing fungeren als een vorm van toegepaste ethiek. Dit is nooit een statische checklist, maar moet worden begrepen als 'ethiek als proces': een voortdurende, iteratieve evaluatie waarbij niet alleen naar de code wordt gekeken, maar ook naar de organisatorische inbedding en de impact op de samenleving.

Het gaat hierbij om het operationaliseren van waarden in de specifieke context van een algoritme. Waarbij men altijd waakzaam moet zijn voor gemakzuchtige 'outsourcing' van ethiek of 'ethics washing': het inzetten van ethiek om technologie slechts sneller geaccepteerd en uitgerold te krijgen. Onafhankelijke toetsing vervangt nooit de interne verantwoordelijkheid, maar ondersteunt en valideert deze. Het fungeert als een slot op de deur. Niet als een vervanging voor interne ethische verantwoordelijkheid of menselijk moreel besef binnen de eigen organisatie.

Context en Mensenrechten: Focus op 'live output'

Een cruciaal element voor effectieve toetsing is de focus op live output: de daadwerkelijke beslissingen en interacties waarmee een burger wordt geconfronteerd. Een systeem kan in theorie accuraat zijn ('functional performance'), maar in de praktijk falen om effectief bij te dragen aan publieke doelen ('operational effectiveness').

Het is in de live output waar schendingen van mensenrechten zichtbaar worden en mensen geraakt worden. Instrumenten zoals het Impact Assessment Mensenrechten en Algoritmes (IAMA) van de Universiteit van Utrecht 'dwingen' tot een expliciete confrontatie tussen technologische mogelijkheden en fundamentele rechten.

Conclusie

Onafhankelijke toetsing van publieke AI is geen luxe of bijzaak, maar een democratische noodzaak. Het vereist een verschuiving van abstracte principes naar concrete verantwoording over de live output in het publieke domein. Alleen door ethiek als een continu proces van onafhankelijke evaluatie te organiseren, kunnen we de kloof tussen theorie en praktijk dichten en waarborgen dat de digitale overheid de mensenrechten van haar burgers respecteert.

Literatuurlijst

  • Bengio, Y., Clare, S., Prunkl, C., Murray, M., Andriushchenko, M., Bucknall, B., ... & Mindermann, S. (2026). International AI Safety Report 2026 (DSIT 2026/001). Department for Science, Innovation and Technology.

    ↗ link
  • Bleher, H., & Braun, M. (2023). Reflections on putting AI ethics into practice: How three AI ethics approaches conceptualize theory and practice. Science and Engineering Ethics, 29(3), 21.

    ↗ link
  • Dignum, V. (2022). Responsible artificial intelligence – from principles to practice. Paper based on keynote at the Web Conference 2022. Umeå University.

    ↗ link
  • Gerards, J., Muis, I., Straatman, J., Vankan, A., & Boiten, M. (2026). IAMA Versie 2: Impact Assessment Mensenrechten en Algoritmes. Universiteit Utrecht / Ministerie van BZK.

    ↗ link
  • Herzog, C., & Blank, S. (2024). A systemic perspective on bridging the principles-to-practice gap in creating ethical AI solutions. Journal of Responsible Innovation, 11(1), 2431350.

    ↗ link
  • OECD. (2024). Governing with artificial intelligence: Are governments ready? OECD Publishing.

    ↗ link
  • Ratti, E. (2025). Three Kinds of AI Ethics. [Preprint]. arXiv.

    ↗ link
  • Yeung, K., & Li, W. (2025). From 'wild west' to 'responsible' AI testing 'in-the-wild': Lessons from live facial recognition testing by law enforcement authorities in Europe. Data & Policy, 7(e59).

    ↗ link
← Terug naar onze aanpak