top of page
Foto van schrijverVocap

AI-tools in HR - David Bamps

Professor David Bamps is van vele markten thuis. Hij baseert zich als auteur, lesgever en adviesverlener op zijn studie- en onderzoeksachtergrond van filosoof-ethicus, jurist en psycholoog.



Professor Bamps benadrukt als ethicus het belang van zorgvuldige en redelijke beslissingen die gebaseerd zijn op ethische principes. Denk bijvoorbeeld aan:

  • No harm: Vermijd opzettelijke acties die schade kunnen toebrengen aan anderen.

  • Proportionaliteit: Zorg dat maatregelen in verhouding staan tot de ernst van het probleem of de mogelijke schade.

  • Transparantie: Handel open en eerlijk door informatie duidelijk en toegankelijk te delen.

  • Nut: Kies voor opties die het grootste voordeel opleveren voor het grootste aantal mensen.


Hoewel AI-toepassingen nog in de kinderschoenen staan, moeten we onze verwachtingen over toekomstig gebruik baseren op beperkte feiten en ervaringen. Dit betekent dat we scenario’s zorgvuldig moeten afwegen. Stel dat we beschikken over een AI-systeem met een hoge voorspellende validiteit voor het screenen van cv’s bij rekrutering, dan is het essentieel om te evalueren:

  • Wat zijn de risico’s in een worst-case-scenario volgens de genoemde ethische principes?

  • Wat zijn de mogelijkheden in een best-case-scenario?


Daarbij moet transparantie over de doelstellingen centraal staan. Willen we bijvoorbeeld vooral een efficiënte en productieve medewerker aannemen? Of zoeken we een medewerker die, in deze specifieke werkomgeving, het welzijn van zichzelf en het team kan maximaliseren?


Deze vraag laat zien dat er geen eenduidig antwoord is op de vraag: wanneer is het gebruik van AI ethisch verantwoord? We moeten rekening houden met meerdere criteria, de uiteenlopende weging van die criteria, verschillende doelgroepen en meer.

Het goede nieuws is dat het stellen van deze vragen en het voeren van de discussie kan leiden tot beter doordachte en ethisch verantwoorde AI-toepassingen.

 

De introductie van AI brengt een fundamentele verandering in de ethiek met zich mee. Tot nu toe waren onze moraaltypen en normatieve ethische benaderingen gebaseerd op onze biologische "gereedschapskist". De oudere hersenstructuren, zoals de amygdala en het limbisch systeem, vormden de basis voor moreel gedrag. De nieuwere corticale structuren boden het redelijke en verstandelijke vermogen, waarmee we argumenten en afspraken ontwikkelden die de kern vormen van ethische normatieve theorieën.


Met de komst van geavanceerde technologie en AI lijkt er echter een nieuwe, niet-biologische "gereedschapskist" te zijn geopend. Wat dit precies betekent voor onze samenleving en organisaties, is nog onzeker.


Professor Bamps benadrukt daarom het belang van onze bestaande kennis en ervaring. Als arbeids- en organisatiepsychologen moeten we actief blijven bouwen op de scripts die zijn gevormd door jarenlang onderzoek, studie en praktijkervaring. Alleen zo kunnen we de ethische uitdagingen van AI effectief tegemoet treden.


Onze vertrouwde methodes en inzichten moeten ons begeleiden bij de complexe vraagstukken die AI met zich meebrengt. Kunnen medewerkers bijvoorbeeld nog overzicht houden over hun eigen data, ondanks de overvloed aan informatie? Hoe gaan we om met de spanning tussen voortdurende connectiviteit met collega’s en klanten enerzijds en de behoefte aan rust en de-connectie anderzijds? Met de enorme hoeveelheid informatie die rond bedrijfsprocessen wordt gegenereerd, blijft de vraag: waarop beoordelen we medewerkers, en hoe filteren we de relevante informatie?

Daarnaast speelt het onveiligheidsgevoel van medewerkers een rol, bijvoorbeeld door mogelijke analyses van e-mails en chatverkeer. Technologieën zoals Zoom en Teams genereren al vergaderverslagen, en netwerkdiagrammen kunnen visualiseren wie met wie communiceert. Dit roept vragen op over privacy en vertrouwen binnen organisaties.

 

Europa, als wereldwijde voorloper in AI-regulering, neemt hierin een genuanceerde aanpak. In de Verenigde Staten ligt de nadruk echter meer op de vraag “wat is mogelijk?”, waarbij men vertrouwt op marktwerking en de centralisatie van macht bij invloedrijke individuen zoals Elon Musk. Dit verschil in benadering kan in de komende jaren – zeker bij een tweede ambtstermijn van Donald Trump – verder worden versterkt.

 

De komende tien jaar beloven uitdagend, misschien zelfs turbulent te worden op het gebied van AI en ethiek. Dit vraagt om een bewuste, strategische aanpak waarin we ons blijven richten op wat écht waardevol is voor organisaties en hun mensen.

Een voorbeeld van voorsmaakje van wat ons te wachten staat.AI wordt nu al voorzichtig toegepast in meerdere stadia van de rekrutering. Hoe denken we over volgende toepassingen?

Conclusie: AI en selectie wekken ethische bezorgdheid

  • AI en selectie roepen ethische vragen op, met name over de balans tussen een adviesrol en autonome beslissingen.

  • Er is een gebrek aan bewustzijn, vooral bij jongeren die alles delen via sociale media. Deze kwetsbaarheid kan hen in de toekomst benadelen wanneer hun publieke data wordt gebruikt in selectie- en rekruteringsprocessen.

  • Daarnaast speelt het probleem van de "black box" en de complexiteit van singulariteit een rol.

  • Tegelijkertijd ontstaan er in een snel tempo AI-programma's die anticiperen op AI-gebaseerde selectie en rekrutering. Dit roept de vraag op wie uiteindelijk de winnaars zijn in deze AI-wedloop en of een realistisch perspectief behouden blijft.


Samengevat: “buckle up!” voor wat komt


Daarbij kunnen volgend stappenplan ons helpen:

  1. Formuleer een AI-beleid en wijs eigenaarschap toe: Ontwikkel een beleid gebaseerd op verantwoordelijkheid, transparantie en privacy, laat dit goedkeuren door het management en verspreid het organisatiebreed. Stel cross-functionele AI-toezichtteams aan voor continu bestuur en definieer procedures voor het evalueren van AI-systemen, zowel vóór implementatie als regelmatig daarna.

  2. Meet en rapporteer over de AI-ethiek: Verzamel statistieken gericht op ethiek, zoals eerlijkheid, nauwkeurigheid, verklaarbaarheid, privacy, veiligheid en toegankelijkheid. Stel drempelwaarden in voor deze parameters, monitor ze continu en voer robuuste audits uit. Ontwikkel rapporten die trends in ethische scores inzichtelijk maken en deel deze wereldwijd.

  3. Documenteer AI-systemen grondig: Documenteer grondig datasets, modellen, algoritmen en interfaces van AI-tools, inclusief metadata zoals tijdstempels en versiegeschiedenis. Gebruik gestandaardiseerde sjablonen om ethische kwesties, beperkingen en beoogde functionaliteit te beschrijven. Stel een ethische commissie in waar men, desgewenst anoniem, vragen kan stellen. Deze aanpak vergemakkelijkt audits en verbeteringen.

  4. Geef prioriteit aan participatief ontwerp: Pas participatieve ontwerptechnieken toe waarbij diverse belanghebbenden, zoals HR-professionals, technologieteams en werknemers, betrokken worden bij vroege discussies over de ontwikkeling van AI-systemen. Deze gezamenlijke aanpak helpt ethische criteria te prioriteren en bevordert vertrouwen en adoptie. Zorg daarnaast voor een iteratief proces waarin voortdurende gebruikersfeedback wordt verzameld om de systemen continu te verbeteren.

  5. Snoei vertekende gegevens proactief: Analyseer de trainingsgegevens grondig en gebruik AI-algoritmen om vertekeningen te detecteren en te verminderen, waarbij voldoende statistische kracht wordt gegarandeerd. Structureer HR-gegevens vanaf het begin volgens ethische richtlijnen om later correcties te minimaliseren. Verzamel doelgerichte data om ethische risico’s met hoge prioriteit binnen de organisatie proactief aan te pakken.

  6. Communiceer het gebruik van AI duidelijk: Creëer fora om de voordelen van AI te belichten, terwijl ook kritische bedenkingen en risico's transparant worden besproken en verantwoord. Betrek personeel door hun input mee te nemen in ontwerpkeuzes, beleid en besluitvorming. Benadruk dat AI bedoeld is om menselijke capaciteiten te ondersteunen, niet te vervangen. Deze voortdurende duidelijkheid stimuleert ethisch gebruik en versterkt het vertrouwen, zowel op korte als lange termijn.


Net voor de borrel werden twee interessante AI-toepassingen gedemonstreerd door onze gastheren en -vrouwen van Brussels Airport Company. We kregen inzicht in hoe AI enorme hoeveelheden en verspreide informatie efficiënt toegankelijk maakt voor alle betrokkenen, en hoe het logistieke problemen bij het vervoer van bagage kan voorkomen en oplossen. Het was indrukwekkend om te zien hoe AI grote volumetaken met relatief weinig arbeidstijd kan aanpakken.


De medewerkers van Brussels Airport Company verwelkomden ons zeer gastvrij in hun gloednieuwe hoofdkantoor, een prachtig gebouw vol licht en ruimte. Ondanks het regenachtige weer genoten we vanuit de vergaderzaal van het uitzicht op de bedrijvigheid rondom de vliegtuigen. Onze dank gaat uit naar hen voor het hartelijke onthaal en het aangename verblijf!



22 weergaven0 opmerkingen

Recente blogposts

Alles weergeven

Comments


bottom of page