De data-scientist als auditor? Dat gaat niet gebeuren.
Waarom de assurance-rol bij AI niet vanzelf uit de data-hoek komt – en waarom dat niet erg is.
EY publiceerde onlangs een stuk met de titel “Assurance in an AI-driven world.” Een herkenbaar thema: hoe bouwen we vertrouwen in algoritmes die we nauwelijks nog begrijpen?
De boodschap is sympathiek — maar er sluipt een misverstand in dat steeds vaker opduikt in boardrooms en beleidsplannen: dat data-professionals vanzelf die assurance-rol op zich nemen.
Het klinkt logisch. Zij bouwen de modellen, dus zij weten wat erin zit. Maar wie het werkveld een beetje kent, weet: dat is een romantisch idee.
De mythe van de zelf-auditerende data-scientist
Data-professionals zijn van nature bouwers. Ze zoeken patronen, optimaliseren modellen, vinden nieuwe features. Hun wereld draait om experimenteren, itereren, verbeteren.
Auditen vraagt iets anders: discipline, documentatie, herleidbaarheid, onafhankelijkheid. Het is niet sexy, en het past niet in de “move fast, break things”-cultuur waarin veel data-teams opereren.
Een data-scientist schrijft liever een nieuwe pipeline dan een audit-trail. En een ML-engineer die drie weken aan hyperparameter-tuning werkt, krijgt applaus — terwijl degene die een model governance-document opstelt, nauwelijks wordt opgemerkt.
Dat is niet onwil. Het is de realiteit van een vakgebied dat beloond wordt op innovatie, niet op verantwoording.
Assurance is geen bijproduct van goed modelleren
Wie assurance serieus neemt, weet dat het niet gaat om één extra “check” of een policy-document in de repository. Het gaat om context: waar komt de data vandaan, wie bepaalt wat “goed” is, en hoe leg je verantwoording af over een systeem dat leert van menselijk gedrag?
Dat zijn vragen die buiten de scope vallen van een gemiddelde data-scientist. Niet omdat ze niet slim genoeg zijn, maar omdat assurance vraagt om een ander vocabulaire — een combinatie van ethiek, governance, compliance en forensisch denken.
De auditor zoekt niet naar patronen, maar naar zekerheid. De data-scientist zoekt niet naar zekerheid, maar naar prestatie. Het zijn verschillende werelden die zelden vanzelf naar elkaar toe bewegen.
Waarom dit wringt in organisaties
Toch verwachten veel bestuurders dat die werelden samensmelten. De reden: efficiëntie. Eén team dat bouwt én controleert klinkt aantrekkelijk. Maar in de praktijk leidt het tot verwarring.
Zodra er iets misgaat — een model dat discrimineert, een algoritme dat besluiten slecht uitlegt — wordt de vraag gesteld: “Wie had dit moeten zien aankomen?”
Het antwoord is dan pijnlijk voorspelbaar: niemand, want iedereen dacht dat het iemand anders was.
De data-teams waren druk met modellen. De auditors wachtten op frameworks die nog niet bestonden. En governance zat verstopt in een PowerPoint over ‘responsible AI’.
Wat wél werkt
Assurance in een AI-wereld vraagt niet om een nieuwe generatie auditors die leren programmeren, maar om bruggenbouwers tussen data en verantwoording.
• Auditors die begrijpen wat een confusion matrix zegt — niet om zelf te tunen, maar om de risico’s te duiden.
• Data-professionals die niet meteen afhaken als het over documentatie of traceerbaarheid gaat.
• En nieuwe rollen — model validators, AI assurance leads, data governance officers — die de verbinding leggen tussen techniek en vertrouwen.
In die samenwerking ligt de toekomst van assurance. Niet in het idee dat één profiel het allemaal kan.
De verleiding van de PowerPoint
Toch blijft het aantrekkelijk om te geloven dat het wél kan. Consultants schrijven het op, beleidsmakers nemen het over, en voor je het weet staat in een governance-slide:
‘Onze data-professionals nemen tevens de assurance-rol op zich.’
In werkelijkheid betekent dat vaak: iemand heeft een Excel-sheet met “AI controls” gemaakt, niemand weet wie hem invult, en het project loopt verder alsof alles geregeld is.
Dat is geen assurance. Dat is governance-theater.
Tot slot
We moeten ophouden met doen alsof data-scientists vanzelf auditors worden. Ze kunnen het niet, ze willen het niet, en ze hoeven het niet. Hun waarde ligt in exploratie, niet in verificatie.
Echte assurance komt van mensen die getraind zijn om te twijfelen, te toetsen en te reconstrueren. In de AI-wereld zijn die mensen belangrijker dan ooit — maar ze zullen van buiten de data-bubble moeten komen.
De data-scientist mag de motor van vooruitgang zijn, maar het rempedaal van verantwoordelijkheid hoort nog steeds ergens anders.