AI-systemen kunnen werknemers gezonder en veiliger laten werken. Tegelijkertijd roept deze technologie vragen op over privacy, toezicht en regelgeving. In opdracht van het Europees Agentschap voor Veiligheid en Gezondheid op het Werk (EU-OSHA) onderzochten onderzoekers van De Haagse Hogeschool hoe de nieuwe Europese AI-wetgeving deze ontwikkeling beïnvloedt. 

Het resultaat van dit onderzoek is een discussiepaper dat de relatie verkent tussen AI-systemen voor arbeidsgezondheid en -veiligheid en de nieuwe Europese AI Act (Verordening 2024/1689). Het document biedt beleidsmakers, onderzoekers, veiligheid- en gezondheidsvertegenwoordigers, werkgevers en werknemers inzicht in de kansen, risico’s en onduidelijke aspecten van de wet. 

Eerste AI-wetgeving

“De AI Act is de eerste uitgebreide wet ter wereld die specifiek de ontwikkeling en het gebruik van kunstmatige intelligentie reguleert”, vertelt onderzoeker Stefania Marassi van het lectoraat Smart Sensor Systems. Op 1 augustus 2024 trad de wet in werking. Het doel is zorgen dat AI-systemen veilig, transparant en ethisch verantwoord zijn en dat fundamentele rechten, zoals privacy en gegevensbescherming, worden gerespecteerd. De wet verdeelt AI-systemen in verschillende risicocategorieën. Volledig verboden zijn toepassingen met een onaanvaardbaar risico. Systemen met een ‘hoog risico’ moeten aan strenge voorwaarden voldoen. 

Arbeidsveiligheid

Het onderzoek richt zich op AI-systemen die specifiek zijn ontwikkeld om de gezondheid en veiligheid van werknemers te verbeteren. “Denk aan wearables zoals smartwatches of sensoren die oververmoeidheid signaleren, of software die onveilige situaties op de werkvloer analyseert”, zegt Stefania. Hoewel dit soort systemen ongelukken voorkomt, verzamelen ze ook veel persoonlijke data. Juist dat maakt de relatie met regelgeving complex. Naast de AI Act spelen namelijk ook andere wetten een rol, zoals de Europese privacywetgeving (AVG) en bestaande regels voor arbeidsveiligheid. 

Verbod op emotieherkenning

Sinds februari 2025 verbiedt de AI Act systemen die emoties afleiden uit biometrische gegevens (zoals gezichtsuitdrukkingen of stem) op de werkvloer. Een uitzondering daarop zijn medische of veiligheidsdoeleinden, zoals het opsporen van angstniveaus in risicovolle beroepen. Toch ontstaan hier volgens de onderzoekers meteen nieuwe vragen. “De AI-wet beschouwt het monitoren van fysieke toestanden, zoals vermoeidheid, niet als emotieherkenning. In de praktijk is dit onderscheid echter van belang,” zegt Stefania, “aangezien emoties zich ook fysiek kunnen uiten.”

Resultaten

Uit het literatuuronderzoek blijkt dat sommige toepassingen van emotieherkenning volledig zullen verdwijnen. Denk aan AI-systemen die stress bij werknemers analyseren voor het algemeen welzijn, of die prestaties monitoren op basis van emotionele signalen. Tegelijkertijd laat de nieuwe Europese AI-wetgeving ruimte voor AI-toepassingen die daadwerkelijk bijdragen aan veiligheid.

Stefania benadrukt echter een belangrijk juridisch voorbehoud: “Zelfs als de AI Act een systeem toestaat, mag een werkgever het niet zomaar gebruiken. Andere wetten (zoals dataveiligheidsregels of arbeidsveiligheidswetgeving) kunnen nog steeds beperkingen opleggen. Bovendien moeten werknemersvertegenwoordigers altijd vooraf worden geïnformeerd.”  

Aanbevelingen

Het discussiestuk bevat verschillende concrete aanbevelingen. Beleidsmakers worden geadviseerd om onduidelijkheden in de wet verder te verduidelijken. Onderzoekers worden aangemoedigd om het nieuwe veld verder te bestuderen. En werkgevers en werknemersvertegenwoordigers van veiligheid en gezondheid moeten zich bewust zijn van de complexe combinatie van regels die op AI-systemen van toepassing kan zijn. 

Startpunt voor debat

Het onderzoek (uitgevoerd tussen juni en november 2025) is gebaseerd op literatuuronderzoek en gesprekken met nationale contactpunten van EU-OSHA uit verschillende Europese lidstaten. Het doel van het document is niet om definitieve antwoorden te geven, maar juist om het debat te stimuleren. “Het idee was om de vaak technische juridische taal toegankelijk te maken voor een breder publiek,” zegt Stefania. Het discussiepaper vormt daarmee een startpunt voor verdere gesprekken over een steeds urgentere vraag: hoe kan kunstmatige intelligentie bijdragen aan een veiligere werkomgeving zonder de rechten van de werknemer te schaden?  

Meer weten?