De Onzichtbare Manager: Hoe AI de Werkvloer Vormgeeft

Management en HR is een toepassingsdomein waar AI al sterk wordt ingezet. Vooral bij bedrijven met veel werknemers wordt AI en algoritmes ingezet bij de selectie van kandidaten voor rekrutering, het toewijzen en organiseren van taken en het monitoren van werknemers en productiviteit. Dit is ook gekend als algoritmisch management of werkplaats AI. Een sector waar dit eerder de norm is is de platformeconomie, waar werkers via een digitale applicatie aan taken worden gekoppeld (denk bijvoorbeeld aan Deliveroo-koeriers die via de app ritten toegewezen krijgen). Deze platformwerkers komen zelden in contact met menselijke managers en worden vrijwel volledig aangestuurd door een algoritme.

Ondertussen is AI voor management ingeburgerd tot ver buiten de platformeconomie. De markt voor HR analytics was in 2023 maar liefst 3,7 miljard waard en voor de komende jaren wordt een jaarlijkse groei van 13% voorspelt. Tools voor algoritmisch management verschijnen dan ook steeds meer in traditionele bedrijfssoftware zoals de klantenmanagement tool Salesforce, die met Einstein Forecasting voorspellingen doet over de prestaties van werknemers. Uit een bevraging van de OESO blijkt dat in Europa 79% van de managers gebruik maakt van algoritmisch management (ten opzichte van 90% in de VS en 40% in Japan).

Veel van deze tools maken gebruik van wat wel eens traditionele AI wordt genoemd zoals big data en machine learning. Deze evolutie is dus los te zien van de huidige populariteit van generatieve AI applicaties zoals ChatGPT die zelf data genereren zoals tekst of afbeeldingen.

Niet Accuraat, Pseudowetenschap en Ingebakken Discriminatie

De voordelen van algoritmisch management zoals minder manueel werk en tijdbesparing voor HR medewerkers zijn evident. Wat minder evident is zijn de uitdagingen die samengaan met deze tools. Het gevaar is dat er soms blind op wordt vertrouwd omdat een algoritme, dat au fond bestaat uit wiskundige formules, de schijn van accuraatheid en neutraliteit heeft, wat lang niet altijd gerechtvaardigd is. Zo kreeg in 2019 de Watson Analytics tool van IBM veel media aandacht omdat deze met 95% accuraatheid kon voorspellen wanneer een werknemer zijn job zal verlaten. In de praktijk bleek er van deze accuraatheid niet veel overeind te blijven op de werkvloer en het project stierf een stille dood.

Een andere uitdaging is dat dit soort AI-tools bestaande vooroordelen kunnen overnemen en zelfs versterken. Zo ontwikkelde Amazon een rekruteringstool die CV’s van kandidaten vergeleek met reeds succesvolle medewerkers. Dit project werd echter snel stopgezet toen bleek dat vrouwen systematisch gediscrimineerd werden aangezien het huidige personeelsbestand van Amazon bijna uitsluitend uit mannen bestond. Het verwijderen van het geslacht uit de CV’s hielp niet aangezien het algoritme dan maar alternatieve indicaties gebruikte zoals vrouwenuniversiteiten of hobby’s als vrouwenschaakclub. Sindsdien zijn bedrijven zich bewust van het probleem maar deze vooroordelen sluipen vaak heel subtiel in het systeem en het blijkt nagenoeg onmogelijk om deze uit te sluiten.

Amazon maakt ook uitgebreid gebruik van algoritmisch management om werknemers te monitoren in distributiecentra. Begin 2024 kregen ze van de Franse privacy waakhond een boete opgelegd van 35 miljoen euro omdat werknemers tot op de seconde kunnen worden getrackt. Deze hoge mate van automatisatie heeft een hoge menselijke tol. In de VS hadden Amazon-werknemers in 2021 meer dan dubbel zoveel kans hebben op een blessure dan in andere magazijnen. Deze monitoring praktijken beperken zich lang niet tot arbeiders en worden steeds meer toegepast door het monitoren van toetsaanslagen, printscreens, locaties, video of spraak. Terwijl dit soort praktijken in de lift zitten geeft toenemend onderzoek aan dat dit eerder bijdraagt aan de stress van werknemers en een negatief effect heeft op de productiviteit.

AI wordt ook gebruikt om kandidaten te screenen voor vacatures. Een opmerkelijk controversieel voorbeeld was het bedrijf Hirevue, dat persoonlijkheidskenmerken van kandidaten automatisch analyseerde via stem en gezichtsuitdrukkingen in video-opnames om deze te koppelen aan een functie. Het idee dat emoties betrouwbaar kunnen worden afgeleid uit video of geluid wordt echter weerlegd door wetenschappelijk onderzoek. Na publieke ophef haalde Hirevue de tool uit hun aanbod.

Werknemers en sollicitanten hebben vaak geen duidelijk zicht op het gebruik van deze tools. Een Europese bevraging in de ICT- en telecommunicatiesector toonde aan dat één derde van de werknemers niet wist of er algoritmisch management werd toegepast. Volgens onderzoek van UGent @ Work vreest 37% van de Vlaamse werknemers voor toegenomen controle door AI-tools. Een recente EU-enquête over AI op het werk benadrukte het belang van werknemersprivacy (82%), werknemersbetrokkenheid bij nieuwe technologieën (77%), transparantie in HR-technologie (75%), een verbod op volledig geautomatiseerde beslissingen (74%) en beperking van automatische werknemersmonitoring (72%).

Regelgeving in Europa en België

In België en Europa wordt het gebruik van algoritmisch management gereguleerd door verschillende wetgevingen. De Europese Algemene Verordening Gegevensbescherming (AVG of GDPR) legt regels op voor het verzamelen van persoonlijke data. De AI Act verdeelt AI-toepassingen in risicoklassen met bijbehorende regels. In België zijn er bovendien collectieve arbeidsovereenkomsten die het monitoren van werknemers aan banden leggen.

De GDPR (of AVG) wetgeving, die in 2018 van kracht ging, verbiedt volledig geautomatiseerde beslissingen die een belangrijke impact hebben op mensen. Dit ondervond het mediabedrijf Bloomberg, dat een schadevergoeding moest betalen aan een sollicitant in Londen die zonder menselijke tussenkomst werd afgewezen op basis van zijn resultaten op enkele puzzels. GDPR geeft Europese burgers ook het recht op inzage in hun data. Op basis hiervan besliste het Gerechtshof Amsterdam dat Uber informatie moet verschaffen aan chauffeurs over de logica achter de beslissingen. De Belgische Gegevensbeschermingsautoriteit legde onlangs een boete op omdat een bedrijf vingerafdrukscans gebruikte om werknemers te volgen.

De AI Act, die midden 2026 van kracht gaat, verdeelt AI-toepassingen in verschillende risicoklassen waarbij de meeste algoritmische management tools onder hoog risico vallen. Het gebruik van AI-systemen om emoties van werknemers te monitoren via gezichtsuitdrukkingen of spraak valt onder onacceptabel risico en is verboden. Voor de systemen in de hoog-risicoklasse gelden verplichtingen rond het controleren op discriminatie, transparantie over de inzet en werking van het systeem, en menselijk overzicht zodat er steeds een human-in-the-loop is bij belangrijke beslissingen.

In België zijn er verschillende collectieve arbeidsovereenkomsten (cao) van toepassing. Een werkgever moet vooraf met werknemers overleggen bij het invoeren van nieuwe technologie (cao 39), camerabewaking (cao 68) of monitoring van online-communicatiemiddelen (cao 81).

Deze wetgeving heeft echter beperkingen. De handhaving van de AI Act steunt grotendeels op zelfevaluatie door bedrijven, waardoor overtredingen vaak pas bij klachten worden ontdekt. Bovendien is het domein van algoritmisch management zo uitgebreid dat de huidige regelgeving niet alles dekt. Om deze reden pleit de Europese vakbondsorganisatie voor een specifieke EU-richtlijn over het gebruik van algoritmes op de werkvloer.

In België diende parlementslid Anja Vanrobaeys (Vooruit) eind vorig jaar een voorstel van resolutie in voor een proactief beleid en samenhangende strategie rond het gebruik van algoritmes, data en AI op de werkvloer. Het voorstel pleit onder meer voor transparantie, menselijke controle en doeltreffende regelgeving.

Als antwoord hierop publiceerde de Vlaamse Adviesraad voor Innoveren & Ondernemen (VARIO) een aantal kritische aanbevelingen. De tekst gaat echter nergens inhoudelijk in op het gebruik van AI voor HR of managementondersteuning. In plaats daarvan richten ze zich op het gebruik van AI voor productiviteitsverhoging en de noodzaak van opleidingen om “angst weg te nemen en bewustwording te vergroten”. De tekst lijkt eenzijdig te focussen op het gebruik van AI door werknemers, een wezenlijk andere kwestie dan het gebruik van AI door werkgevers. De aanbevelingen negeren de reële maatschappelijke uitdagingen en lijken te zijn geschreven vanuit een wat naïef technologisch optimisme. Dit blijkt ook uit hun nadruk op “de nood om snel te schakelen vanuit het innovatie-perspectief” en dat “regelgeving innovatie niet mag fnuiken en future-proof moet zijn”. Het is betreurenswaardig dat ze niet dieper ingaan op de kern van de zaak.

Algoritmisch management heeft het potentieel om veel te betekenen voor onder andere HR-processen maar zeker voor de huidige systemen is het belangrijk dat dit transparant gebeurt en met menselijk overzicht. Verschillende voorbeelden tonen aan dat als dit niet gebeurt de systemen vaak onnauwkeurig zijn en discriminatie kunnen introduceren en versterken. Er is nood aan adequate regelgeving komt zodat de de mens centraal wordt gezet bij ontwikkeling van AI en niet de bedrijven die deze tools ontwikkelen. Het is jammer dat de aandacht op deze maatschappelijke uitdagingen wordt afgeleid vanuit een soort ongebreideld techno-optimisme.




Vond je deze post interessant?

Dan zijn deze misschien ook iets voor jou! 👇

  • ERROR: The request could not be satisfied
  • Hoe vervuilend is AI? De afdruk van AI - VAIA - Vlaamse AI Academie
  • Waarom onderzoek naar artificiële algemene intelligentie contraproductief kan zijn | EOS Wetenschap
  • Aan de Slag met Vibe Coding: van Prompt Engineering tot Web Applicaties
  • De opkomst van AI therapeuten
  • Blijf op de hoogte van nieuwe posts: