Voorbeeldrapport

Dit voorbeeldrapport laat zien hoe een onafhankelijke accountant beoordeelt of een AI-systeem, in dit geval van bijvoorbeeld een dynamisch prijsalgoritme,  verantwoord, transparant en volgens vastgestelde normen is ontworpen en geïmplementeerd.

Het bestuur blijft verantwoordelijk voor het AI-beleid, de datakwaliteit en de risico’s rond bias, uitleg­baarheid en compliance. Wij voeren onderzoek uit volgens Standaard 3000, inclusief analyse van datastromen, documentatie, modelopzet, monitoring en technische controles.

De beoordeling wordt uitgevoerd aan de hand van criteria zoals AI-governancebeleid, EU AI Act, ISO 42001 en principes zoals fairness en transparency. Omdat AI dynamisch is, geldt assurance altijd binnen duidelijke beperkingen (zoals modeldrift). De conclusie geeft een beperkte mate van zekerheid: er is niets geconstateerd dat afwijkt van de gestelde criteria. Dit rapport biedt stakeholders inzicht in de betrouwbaarheid, beheersbaarheid en governance van AI-toepassingen.

Veelgestelde vragen over het AI-assurance voorbeeldrapport

Rondom AI-assurance leven vaak vragen zoals: Hoe beoordelen jullie een algoritme? Welke risico’s kijken jullie mee? Wat betekent ‘beperkte mate van zekerheid’ precies? En hoe verhoudt dit zich tot de EU AI Act of ISO 42001?

Omdat iedere organisatie andere AI-toepassingen, risico’s en governance-niveaus heeft, beantwoorden we deze vragen graag in context. We nodigen stakeholders daarom uit om hun specifieke vragen te stellen over techniek, toezicht, verantwoordelijkheden, data, modelrisico’s of impact op besluitvorming. Zo kunnen we gezamenlijk bepalen welke vorm van assurance het beste aansluit bij jullie situatie en ambities.

Wat beoordeelt de accountant precies in dit AI-assurancerapport?

De accountant kijkt niet naar of het algoritme “goed werkt” in commerciële zin, maar of het verantwoord, controleerbaar en volgens vastgestelde normen is ontworpen en geïmplementeerd. Denk aan datastromen, documentatie, risicobeheersing, monitoring en aansluiting op criteria zoals AI-governancebeleid, EU AI Act en ISO 42001.

Wat betekent ‘beperkte mate van zekerheid’ in dit rapport?

Dit betekent dat we met gerichte werkzaamheden en steekproeven vaststellen of er geen signalen zijn dat het algoritme niet aan de criteria voldoet. Het is dus geen volledige audit, maar een professionele, beperkte assurance-conclusie zoals voorgeschreven in Standaard 3000.

Wat zijn de belangrijkste beperkingen van AI-assurance?

AI verandert continu. Daarom kent assurance natuurlijke beperkingen: volledige transparantie in complexe modellen is niet altijd mogelijk, toekomstige data kunnen prestaties beïnvloeden (modeldrift), en assurance geldt tot de datum van het rapport. Het blijft dus een momentopname binnen duidelijke kaders.