Microsoft Copilot in de pensioensector:
Tussen versnelling en voorzichtigheid

De komst van Microsoft Copilot (hierna: Copilot) is in de pensioensector niet onopgemerkt gebleven. Wij zien dat pensioenfondsen en andere organisaties werkzaam in de pensioensector de mogelijkheden en de techniek omarmen en ook moeten inspelen op digitalisering en toenemende verwachtingen rond efficiëntie en data-gedreven werken. Zelfs de toezichthouder DNB experimenteert met AI, bijvoorbeeld bij het doorzoeken van de invaarbesluiten van pensioenfondsen[1].
Bij AethiQs werken wij cross-sectoraal en zien daarmee de opkomst van Copilot in verschillende sectoren. De mogelijkheden zijn aantrekkelijk – sneller werken, teksten laten samenvatten, analyses laten maken – noem maar op. Wat wij wel zien is dat er in bepaalde sectoren, zoals de publieke sector en het onderwijs, wat meer voorzichtigheid is bij de implementatie van Copilot. Voor ons hoog tijd om onze inzichten te delen wat betreft AI-oplossingen en de kansen van Copilot, met tegelijkertijd een oog op het beheersen van de risico’s. Dit doen wij op basis van de ervaringen die wij de afgelopen maanden in de markt, zowel in de pensioensector als daarbuiten, hebben opgedaan.
Het blijkt dat er in verschillende sectoren volop wordt geëxperimenteerd met Copilot. Medewerkers testten de tool in Word of Excel om rapporten te laten samenvatten, stukken te herschrijven of inzichten uit notulen te halen. De eerste indruk is vaak positief: Copilot begrijpt natuurlijke taal, werkt snel en levert verrassend bruikbare concepten. De kracht van Copilot ligt vooral in de ondersteuning bij dagelijkse werkzaamheden. In de pensioensector biedt dat veel praktische voordelen. Denk aan het samenvatten van lange beleidsdocumenten of notulen, het voorbereiden van rapportages en presentaties of het vinden van trends in Excel-bestanden. Ook bij communicatie kan Copilot waardevol zijn: het helpt om teksten te herschrijven in een meer toegankelijke toon, zonder inhoud te verliezen. Zo blijft er meer tijd over voor inhoudelijke afstemming en kwaliteitsborging, terwijl de administratieve last afneemt.
Bij AethiQs zijn wij voorstander van een beheerste integratie van AI op de werkvloer en het bieden van de juiste randvoorwaarden om te kunnen werken met AI. Juridische en compliance-aspecten eisen aandacht bij de implementatie van AI. Volgens de EU AI Act is elke organisatie die AI toepast om bedrijfsprocessen te ondersteunen of te automatiseren een deployer van AI-systemen. Ondanks het feit dat Copilot geen hoog-risico systeem is, ben je als organisatie wel verplicht enkele algemene principes uit de EU AI Act te volgen zoals transparantie, menselijke controle en privacy en gegevensbescherming: AI mag niet leiden tot schending van de AVG.
Europese toezichthouders, waaronder de EDPS, benadrukken dat organisaties verplicht zijn om Transfer Impact Assessments (TIA’s) en Data Protection Impact Assessments (DPIA’s) uit te voeren vóór ingebruikname van Copilot. In andere sectoren, zoals bijvoorbeeld in de publieke sector, zien wij dat er door de privacy officers om een DPIA wordt gevraagd en dat deze wordt meegewogen in het advies om Copilot wel of niet in te zetten. In de praktijk blijkt dat de stap van de DPIA vaak wordt overgeslagen, omdat er een negatieve sfeer rondom de DPIA hangt. Het wordt gezien als moetje dat meestal veel tijd kost. Wij zien het uitvoeren van een DPIA juist als kans en middel om de impact van Copilot op de bedrijfsvoering scherp inzichtelijk te krijgen, op basis waarvan weer de juiste praktische use cases geformuleerd kunnen worden.
Voor een beheerste integratie van Copilot zien wij diverse randvoorwaarden. Copilot is een AI-assistent die draait binnen de Microsoft 365-omgeving. Dat betekent dat de tool werkt met de bestanden, e-mails en Teams-chats die binnen de organisatie toegankelijk zijn, met behoud van de ingestelde rechten. Daarnaast doorzoekt Copilot alle bestanden, waardoor de reactie wanneer je Copilot een vraag stelt ook gebaseerd kan zijn op eventuele concept versies van documenten. De integratie van Copilot dwingt organisaties nu ook om goed naar de rechtenstructuren en versiebeheer van de informatiehuishouding te kijken en deze op orde te krijgen en te houden.
Tegelijkertijd zijn er grenzen aan de technologie waar wij in de praktijk tegenaan gelopen zijn. Zo kan Copilot slechts een beperkte hoeveelheid tekst of data tegelijk verwerken, afhankelijk van de instellingen en servers die Microsoft beschikbaar stelt, en is het lastig om Copilot te integreren met databronnen als iBabs of OurMeeting. Daarnaast is Copilot, net als alle AI, afhankelijk van de kwaliteit van de onderliggende informatie. Een fout in een bronbestand kan dus leiden tot een fout in het antwoord.
Het beleidsmatig gebruik van een AI-systeem zoals Copilot roept vragen op over de hele breedte van een organisatie. Wie is eigenaar van de output? Hoe wordt geborgd dat AI-antwoorden correct zijn? En hoe transparant moet een pensioenfonds zijn naar haar deelnemers en toezichthouders over het gebruik van AI? Deze vragen vergen niet alleen juridische zorgvuldigheid, maar ook ethische reflectie: welke taken laten we over aan AI, en waar blijft de menselijke controle? Tegelijkertijd zal de inzet van Copilot impact hebben op de cultuur van een organisatie. Samenwerking tussen collega’s zal veranderen (hoe ga je om met een review die door de collega met behulp van AI is uitgevoerd?) en besluitvorming gaat plaatsvinden op basis van AI gegenereerde content. Ook heeft de inzet van AI mogelijk impact op het risicoprofiel van een organisatie: past “experimenteren” met AI binnen de risicohouding van de organisatie op het vlak van IT en innovatie?
Even terug naar de DPIA. Een DPIA is onmisbaar om inzicht te krijgen in mogelijke risico’s voor persoonsgegevens en de maatregelen die nodig zijn om die te beperken, maar geeft tegelijkertijd ontzettend veel inzicht in hoe Copilot daadwerkelijk werkt. Eind vorig jaar waarschuwde het Rijk en Surf, de IT-organisatie van onderwijs- en onderzoeksinstellingen, voor het gebruik van Copilot in de publieke sector en in het onderwijs (Financieel Dagblad, 18 december 2024[2]). Op basis van een uitgevoerde DPIA werd het gebruik van Copilot afgeraden. Vervolgens bleek dat Microsoft bereid is zich in te zetten voor de adoptie van hun geïntegreerde AI bij Nederlandse instellingen. Hoe meer verschillende gebruikers hun platform gebruiken, hoe beter het zich immers kan blijven ontwikkelen. Door de inzet van Microsoft zijn in de geactualiseerde DPIA van 12 september 2025 vier toepassingen met een hoog-risico beoordeling teruggebracht tot twee toepassingen met “medium” risico[3]. Deze twee resterende risico’s hebben betrekking op inaccurate (persoons)gegevens en de bewaartermijn van de diagnostische (persoons)gegevens over het gebruik van de dienst. De andere twee risico’s zijn komen te vervallen of als laag ingeschat. Het advies is om gezien de nog aanwezige risico’s, terughoudend om te gaan met de inzet van Copilot en de inzet ervan te overwegen per use case.
Dit brengt ons terug naar waar wij dit artikel mee begonnen. De meeste waarde ontstaat wanneer organisaties beheerst aan de slag gaan met Copilot. Niet door direct Copilot in te zetten op alle use cases, maar door te starten met use cases die weinig risico’s kennen, maar wel impact maken. Een aanpak waar wij onze klanten in diverse sectoren bij ondersteunen door middel van begeleiding bij pilots. Tijdens gezamenlijke brainstormsessies in de pilot worden geschikte uses cases geïnventariseerd, vaak op afdelingsniveau (communicatie heeft andere use cases dan actuariaat).
Juist deze use case gebaseerde aanpak leidt tot betrokkenheid bij medewerkers, want de invoering van nieuwe technologie zoals Copilot is niet alleen een technische, maar ook een menselijke verandering. Succesvolle verandering vraagt aandacht voor de elementen moeten, kunnen en willen. Organisaties moeten inspelen op digitalisering en toenemende verwachtingen rond efficiëntie en data-gedreven werken. Tegelijk moeten ze kunnen werken met deze technologie door het bieden van de juiste randvoorwaarden en dient er aandacht te zijn voor de AI-geletterdheid van medewerkers. Maar het allerbelangrijkste is dat medewerkers het ook willen gebruiken. Alleen wanneer medewerkers ervaren dat Copilot hun werk ondersteunt en niet vervangt, ontstaat echte verandering.
Microsoft Copilot biedt de pensioensector de kans om werk slimmer te organiseren en tijd vrij te maken voor wat echt belangrijk is, zodat medewerkers terug kunnen naar de kern van hun vakgebied. Succesvolle inzet vraagt echter om een doordachte aanpak, met oog voor privacy, rechtenbeheer en governance. Door te starten met veilige pilots bouwen organisaties kennis, vertrouwen en draagvlak op. Zo kan de sector de voordelen van AI benutten, zonder concessies te doen aan zorgvuldigheid.
Bent jij al aan de slag met beheerste integratie van AI op de werkvloer?
[1] https://www.dnb.nl/algemeen-nieuws/blog-2025/neemt-ai-het-over-in-het-toezicht/
[2] https://fd.nl/tech-en-innovatie/1540525/it-organisatie-van-universiteiten-raadt-gebruik-van-ai-tool-microsoft-af
[3] https://www.surf.nl/nieuws/privacyrisicos-microsoft-365-copilot-naar-oranje