Datakwaliteit opnieuw ingericht
Day One Denken onder de nieuwe pensioenregeling

Met de overgang naar het nieuwe pensioenstelsel en de inrichting van de IT-systemen voor Wtp komt voor pensioenfondsen het onderwerp datakwaliteit opnieuw nadrukkelijk in beeld. Datakwaliteit was immers ook onder het huidige stelsel al een belangrijk aandachtspunt, voornamelijk bij toetsmoment 1 en de daaropvolgende stay clean fase. Er komt nu echter wel een wezenlijke verandering bij aan de context.
De nieuwe pensioenregeling stelt nog meer eisen aan data en berekeningen die op individueel niveau juist, sluitend en uitlegbaar moeten zijn, waardoor bestaande keuzes niet vanzelfsprekend één-op-één kunnen worden doorgezet.
Dit geeft pensioenfondsen de unieke kans om een fundamentele vraag te stellen: benaderen we datakwaliteit als een voortzetting van wat er al was, of als een nieuwe ontwerpopgave die past bij de nieuwe regeling en eventuele nieuwe systemen? Met die aanpak kan datakwaliteit by design onderdeel zijn van de nieuwe administratie. In dit artikel kiezen we bewust voor dat tweede perspectief. Niet omdat het bestaande onbruikbaar is, maar omdat de nieuwe regeling een zeldzaam moment biedt om opnieuw na te denken over richting, samenhang en focus. Dit is wat we bij AethiQs het Day One Denken noemen: wat doe je als je vandaag opnieuw begint?
Day One Denken betekent niet dat ervaringen uit het verleden worden genegeerd. Het is vooral een manier om historische keuzes tijdelijk los te laten en opnieuw met een frisse blik naar het onderwerp, in dit geval datakwaliteit, te kijken.
In dit artikel combineren wij deze zienswijze met de herbruikbare elementen uit het Kader Datakwaliteit van toetsmoment 1. Het Kader Datakwaliteit van de Pensioenfederatie en de good practice Robuuste Pensioenadministratie van DNB bieden een herkenbare structuur voor de beheersing van het datakwaliteit risico. Door dit raamwerk te combineren met een Day One perspectief ontstaat ruimte om bestaande kaders opnieuw te interpreteren, zonder ze los te laten.
Richting en keuzes: Datakwaliteitsbeleid, data governance en risico-identificatie
In veel organisaties is er nog onvoldoende samenhang tussen datakwaliteitsbeleid, data governance en risico-identificatie. Datakwaliteit is de afgelopen jaren een steeds explicieter op zichzelf staand risico geworden.
Toezichthouders zoals DNB en AFM benadrukken dat besluitvorming, monitoring en deelnemerscommunicatie gebaseerd moeten zijn op betrouwbare en uitlegbare data. Dit betekent dat fondsen datakwaliteit moeten waarborgen via continue monitoring, duidelijke procesinrichting en goede afspraken over datatoegang en ketenkwaliteit. Datakwaliteit wordt daarmee een structureel onderdeel van governance en risicobeheersing in de nieuwe regeling.
Day One Denken nodigt uit om deze onderwerpen samen te brengen in één coherent beleid gericht op effectiviteit en beheersing van risico’s.
Stel dat u vandaag opnieuw begint, dan kunnen de volgende vragen helpen:
- Welke data zijn bepalend voor correcte uitkomsten onder de nieuwe regeling?
- Waar kunnen we in het nieuwe stelsel geen onzekerheden meer accepteren?
- Hoe vertalen we de kwalitatieve risicobereidheid naar kwantitatieve normen voor datakwaliteit?
Om antwoord te geven op deze vragen kan gebruik worden gemaakt van bekende concepten, enkel toegepast in de context van het nieuwe stelsel. Denk met name aan de systematiek van Kritische Data-elementen (KDE’s), deze blijft waardevol. KDE’s dwingen tot focus: niet alle data zijn even belangrijk, en niet alle kwaliteitsissues hebben dezelfde impact. Juist in een nieuwe regeling helpt het scheppen van overzicht om datakwaliteit bestuurbaar te houden.
Wat verandert, is het vertrekpunt. KDE’s worden niet langer afgeleid uit bestaande rapportages of systemen of vanuit een voorgeschreven lijst uit good practices. KDE-lijsten kunnen opnieuw worden opgebouwd, juist vanuit het perspectief van hun rol in de nieuwe regeling en de bijbehorende mate van risico’s.
Ten aanzien van risico-identificatie blijft de risicobeoordeling per KDE (de befaamde bijlage A.6) een krachtig middel om het datakwaliteitsbeheersingsraamwerk inzichtelijk te maken en te beoordelen. De inhoud van de risicobeoordeling zal anders zijn in de nieuwe regeling. Ketenafhankelijkheden, modelgebruik en uitlegbaarheid worden belangrijker naast klassieke kwaliteitsdimensies zoals juistheid en volledigheid.
Data controls en data monitoring
Waar beleid en KDE’s richting geven, wordt datakwaliteit zichtbaar in de dagelijkse praktijk via controls en monitoring. Traditioneel ligt hier de nadruk op vooraf gedefinieerde controles vastgelegd in uitgebreide sets van business rules: regels die bepalen hoe bedrijfsgegevens worden beheerd en met gedefinieerde controles bepalen of data juist of onjuist is.
Ook wanneer je de monitoring op datakwaliteit opnieuw gaat inrichten, blijven dergelijke controles noodzakelijk. Tegelijkertijd wordt steeds duidelijker dat zij niet alle relevante afwijkingen kunnen afdekken. Business rules zijn toch vaak door de ontwikkelaars van de systemen bedacht op basis van historische kennis en ervaring. Niet alles laat zich vooraf definiëren, zeker niet in complexe en grotendeels geautomatiseerde datastromen. Dit is waar ontwikkelingen op het gebied van AI ondersteuning kunnen bieden.
Stel dat u vandaag opnieuw begint, dan kunnen de volgende vragen helpen:
- Welke afwijkingen willen we vooraf signaleren?
- Waar is continue monitoring noodzakelijk, omdat signalen achteraf te laat komen?
- Hoe voorkomen we dat het aantal controles onbeheersbaar groeit?
- Hoe definiëren we slimme controles, waarbij er geen onterechte “uitval” gegenereerd wordt, die onnodig capaciteit vragen van analisten?
Hier ontstaat ruimte voor een aanvullende, data-gedreven benadering. Technieken uit data science en AI maken het mogelijk om patronen en afwijkingen te herkennen zonder dat controles voor elke mogelijke afwijkingen expliciet zijn vastgelegd in business rules. Daarmee voegen zij een nieuwe dimensie toe aan bestaande datakwaliteitscontroles, zonder deze te vervangen. Wij schreven hierover eerder het volgende artikel: https://aethiqs.nl/ai-en-data-science-een-nieuwe-dimensie-aan-datakwaliteit-controles/
Door de inzet van AI en continue draaiende algoritmen wordt continue signalering in plaats van periodieke rapportage mogelijk gemaakt. Niet om elk signaal direct te escaleren, maar om trends tijdig zichtbaar te maken en gericht bij te sturen. Controls en monitoring zijn daarmee geen losse onderdelen, maar één samenhangend mechanisme.
Naast de inmiddels wat “klassiekere” AI zoals machine learning, is generatieve AI (GenAI, bekend van chatbots als chatGPT, Microsoft Copilot of Google Gemini) ook uitermate geschikt om te ondersteunen bij de beheersing van datakwaliteit. GenAI kan veel informatie verwerken, verbanden detecteren en adviezen geven voor risico-inventarisaties en het formuleren van vervolgacties. Een voorbeeld is dat GenAI op basis van diverse fonds- en systeemdocumentatie een analyse kan uitvoeren naar potentiële datakwaliteit risico’s bevinden. De output is nuttig voor de risicobeoordelingen die uitgevoerd worden. Als we nog enkele stappen verder gaan, dan laten we GenAI specifieke monitoring voor bepaalde risico’s bedenken en laten we GenAI deze controles bouwen in onze favoriete programmeertaal.
In bovenstaande alinea’s zijn ideeën voor de inzet van AI geschetst. Uiteraard moet de inzet van AI passen binnen uw AI beleid en governance en mag AI geen vervanging zijn voor een bestuurlijk oordeel. Bij een goede implementatie van AI voor een onderwerp als datakwaliteit komen mens en machine perfect samen.
Data-architectuur en informatiesystemen
Datakwaliteit kan niet los worden gezien van de onderliggende architectuur en informatiesystemen. Voorafgaand aan de inrichting van IT-systemen moet expliciet nagedacht worden over welke technische keuzes bijdragen aan duurzame beheersing en welke vooral complexiteit introduceren.
Stel dat u vandaag opnieuw begint, dan kunnen de volgende vragen helpen:
- Welke datastromen moeten end-to-end herleidbaar zijn?
- Waar is uitlegbaarheid vanaf het begin ingebouwd?
- Welke historische complexiteit nemen we bewust niet meer mee?
Traceerbaarheid, logging en consistente definities worden belangrijker naarmate de regeling complexer wordt. Wanneer deze aspecten pas achteraf worden ingericht, leidt dat vaak tot aanvullende processen en handmatige controles. Door datakwaliteit expliciet mee te nemen in architectuurkeuzes, wordt aantoonbaarheid onderdeel van het fundament (datakwaliteit-by-design).
Ook proceskwaliteit speelt hierin een belangrijke rol. Processen die structureel fouten introduceren, blijven dat doen ongeacht het aantal controles. Door processen inzichtelijk te maken en te analyseren, verschuift de aandacht van correctie naar preventie. Process-mining is een dergelijke algoritme techniek die kan bijdragen de processen inzichtelijk te maken.
Bij het doorlopend monitoren van datakwaliteit is de beschikbaarheid van data een belangrijke randvoorwaarde. Als er continue monitoring plaats dient te vinden op de data, moet data ook continu beschikbaar zijn. De meeste pensioenfondsen zijn op dit punt afhankelijk van hun pensioenuitvoeringsorganisatie (PUO). Op dit vlak signaleren wij een trend: wij voeren steeds vaker gesprekken met pensioenfondsen die hun data vanuit de PUO willen ontsluiten naar een eigen omgeving, zoals een datalake of datawarehouse. Dit is wenselijk voor de continue beschikbaarheid van data voor URM berekeningen, portalen/pensioenplanners en het doorlopend kunnen monitoren van de datakwaliteit. Dit soort innovatieve ideeën passen perfect in het Day One denken: wat wil je vanaf dag 1 in de nieuwe pensioenregeling beschikbaar/ingericht hebben?
Aantoonbaarheid als gevolg van inrichting
Zowel in toezicht als in governance speelt aantoonbaarheid een centrale rol. Echter keren we de volgorde om: aantoonbaarheid is geen doel op zich, maar het resultaat van een consistente inrichting.
Wanneer:
- kwaliteitskeuzes expliciet zijn gemaakt,
- risico’s bewust zijn geprioriteerd,
- controls en monitoring logisch samenhangen,
- en architectuur dit ondersteunt,
ontstaat verantwoording vrijwel vanzelf. Niet doordat er meer wordt gerapporteerd, maar doordat samenhang inzichtelijk is.
Tot slot
De nieuwe pensioenregeling markeert een belangrijk moment voor datakwaliteit. Niet omdat alles anders moet, maar omdat het mogelijk is om bestaande kaders met een frisse blik toe te passen.
Day One Denken helpt om die herijking vorm te geven. Door expliciet te maken welke data ertoe doen, welke risico’s beheerst moeten worden en hoe dat structureel wordt ondersteund, ontstaat een inrichting die past bij de nieuwe regeling.
Datakwaliteit wordt daarmee geen sluitstuk van de transitie, maar een bewuste ontwerpkeuze aan de voorkant.
“Als we vandaag opnieuw zouden beginnen: welke keuzes over datakwaliteit zouden we dan expliciet maken?”