Volgens recente analyses van McKinsey kan generatieve AI wereldwijd tot 30% van de huidige werktijd automatiseren, met een specifieke impact op kennisintensieve domeinen zoals HR, marketing en finance [1]. Waar binnen HR de focus voorheen vooral lag op administratieve ondersteuning, voorspellen Deloitte en Gartner dat organisaties binnen nu en tien jaar de kern van hun analytische HR-processen, zoals recruitment en selectie, volledig zullen delegeren aan AI-gestuurde systemen [2].
Voor de HR-management en professionals betekent dit een fundamentele verschuiving: van het beheren van menselijk kapitaal naar het regisseren en managen van een hybride, digitale workforce waarin menselijke en AI-gedreven werknemers samenwerken, binnen de kaders van de EU AI Act. In dit kader wordt AI-governance, inclusief het managen van korte- en langetermijneffecten van AI, een gedeelde verantwoordelijkheid van management en HR.
Het dichten van de kloof tussen beleid en praktijk
De snelheid van AI-ontwikkeling creëert een groeiende frictie tussen wetgevende intentie en de dagelijkse praktijk op de werkvloer. Het doel van moderne AI-governance is niet langer enkel efficiëntie en versnelling van processen, maar het preventief in kaart brengen van neveneffecten van AI-aangedreven systemen. Hoe blijft het management nauw betrokken bij de operationele kant van de organisatie, waar algoritmen en interactie en werkprocessen bepalen? Dit vraagt om technische kennis: niet alleen om AI en de bijbehorende risico’s te begrijpen, maar ook om AI effectief in te zetten binnen het management zelf.
AI biedt ongekende kansen voor datagestuurde besluitvorming, maar introduceert ook systeemrisico’s. Om strategisch te opereren, moet men begrijpen wat AI op de werkvloer teweegbrengt. Europese open-source initiatieven zoals VerifyWise en ACCOMPLISH laten zien dat AI-governance niet alleen een ethische plicht is, maar ook technisch uitvoerbaar door tools die continu algoritmegebruik monitoren.
De psychologische en systemische risico’s
Verandermanagement in het AI-tijdperk vraagt, naast technische sturing, ook om een dieper inzicht in hoe AI de menselijke cognitie beïnvloedt. Een hybride workforce die bestaat uit zowel mensen als AI-systemen brengt nieuwe uitdagingen met zich mee. Hoe anticiperen HR-managers op de langetermijnrisico’s van deze interactie? Onderzoek wijst uit dat impliciete algoritmen, vergelijkbaar met populistische content in video-feeds, binnen enkele minuten causale neurocognitieve effecten kunnen hebben op polarisatie en besluitvorming [4]. Ander onderzoek toont aan dat gebruik van AI kan leiden tot cognitieve ‘uitputting’ [5]. Wanneer HR-systemen worden geoptimaliseerd op variabelen zoals 'tevredenheid' of 'welzijn', rijst de vraag in hoeverre er nog sprake is van authentieke menselijke autonomie. Dit zijn kritieke vragen waar HR-managers, beleidmakers en hoger management op termijn mee geconfronteerd worden bij het controleren, monitoren en ondersteunen van de digitale workforce binnen en tussen teams en organisaties.
Joris Krijger, expert op het gebied van ethiek en AI, benadrukt de noodzaak van structurele verantwoording:
“Veelgemaakte fouten zijn het blindelings vertrouwen op de output van AI en het negeren van onderliggende vooroordelen in de trainingsdata. Dit leidt tot systemen die onbedoeld discrimineren. Governance begint bij de vraag: wie is verantwoordelijk voor de output vóórdat de implementatie start?” [3]
Naar een veilig kader voor de digitale workforce
De verantwoordelijkheid voor het aansturen van het AI-aspect van de digitale workforce ligt bij het management. Om deze transitie veilig te laten verlopen, zijn strikte waarborgen essentieel, zoals:
- Menselijke Interventie: AI-producten moeten te allen tijde voorzien zijn van een 'kill-switch' door een menselijke operator.
- Transparantie in Onzekerheid: Uitkomsten van AI dienen vergezeld te gaan van een expliciete onzekerheidsmarge en een bias-indicatie.
- Regulering van Data-uitwisseling: Grootschalige inter-organisationele data-uitwisseling zou, boven bepaalde drempelwaarden, onderhevig moeten zijn aan specifieke overheidstoetsing.
Opleiding: AI & HRM
De vraag is niet óf AI uw HR-afdeling zal veranderen, maar hoe u deze verandering vormgeeft. Tijdens de opleiding AI & HRM van Erasmus Q-Intelligence vertalen we complexe theoretische kaders naar werkende oplossingen. Deelnemers ontwikkelen een eigen, verantwoorde AI-HRM oplossing en leren de beperkingen en ideologische implicaties van technologie in te schatten.
Dit programma is essentieel voor HR-directeuren, managers en adviseurs die de regie willen nemen over de technologische transitie zonder de menselijke maat en juridische integriteit uit het oog te verliezen.
Bent u klaar om de stap te maken van toeschouwer naar regisseur van de digitale transformatie?
Ontdek het volledige programma, voor meer informatie en aanmelden: AI & HRM | Erasmus Quantitative Intelligence | Erasmus University Rotterdam
Erasmus Q-Intelligence, verbonden aan het Econometrisch Instituut van Erasmus Universiteit Rotterdam, helpt organisaties om een positieve impact te creëren door middel van data-analyse en AI. EQI biedt diverse postinitiele onderwijsprogramma’s aan, waaronder AI & HRM, HR Analytics en Effectief werken met Gen AI.
- Meer informatie
Referenties
- [1] McKinsey & Company. Generatieve AI biedt een unieke kans voor productiviteit en arbeidsmarktkrapte. 27 maart 2025. Consultancy.nl.
- [2] Scotis, S., Pastakia, K. & Mittal, N. De bestuursbesluiten die de waarde van de digitale arbeidsmarkt bepalen.03 maart 2026. Perspective.
- [3] Krijger, J. Opinie: Organisaties moeten volwassener worden in de ethische toetsing van hun algoritmen. 11 juli 2024. De Volkskrant.
- [4] van der Plas, E., Todorova, L., Heidlmayr, K. et al. Threat and blame frames in political rhetoric about societal issues lead to neural and political polarization. Sci Rep (2026).
- [5] Kosmyna, N. et al., Your Brain on ChatGPT: Accumulation of Cognitive Dept when Using AI Assistant for Essay Writing Task. ArXiv (2026).
- Gerelateerde opleiding

