AI-screening in recruitment: wat werkt, wat niet, en wat leveranciers je niet vertellen

We hebben het afgelopen jaar Recruit Pivot gebouwd, onze eigen AI-matching tool. Het eerlijke antwoord? Het is veel moeilijker dan je wordt voorgehouden. En ik zeg dat als iemand die er zelf in gelooft. Die er actief aan bouwt. Die er zijn bedrijf deels op inzet. Maar juist omdat we het zelf bouwen, en tegelijkertijd via Recruit Connect dagelijks de data zien van wat er echt gebeurt, kan ik iets vertellen dat de meeste AI-leveranciers liever niet hardop zeggen.

Image

De data is het probleem

Elke AI-tool is zo goed als de data die erin gaat. Dat klinkt als een open deur. Maar ga eens kijken naar de gemiddelde ATS-database.

Wij koppelen met meer dan twintig verschillende ATS-systemen. Van Bullhorn tot Carerix, van AFAS tot Salesforce. Wat we dagelijks tegenkomen: functietitels die niet kloppen, vaardigheden die nooit zijn ingevuld, locatiegegevens die verouderd zijn, en kandidaatprofielen die al jaren niet zijn bijgewerkt.

Dat is de werkelijkheid waar AI-screening op draait. Niet de schone demo-data die je op een beurs te zien krijgt, maar de rommelige realiteit van duizenden organisaties die hun ATS gebruiken als digitale la waar alles in wordt gegooid.

Als je dan een leverancier hoort zeggen "onze AI matcht kandidaten met 95% nauwkeurigheid", is mijn eerste vraag altijd: ten opzichte van wat? Op hun eigen opgeschoonde dataset? Of op echte productiedata waar de helft van de velden leeg is?

De wapenwedloop die niemand kan winnen

Er is iets grappigs aan de hand als je een stap terug doet.

Bijna de helft van de sollicitanten laat ChatGPT hun CV oppoetsen, hun brief herschrijven, en hun profiel optimaliseren voor de keywords die ATS-systemen zoeken. Aan de andere kant gebruikt vrijwel elke werkgever geautomatiseerde systemen om diezelfde CV's te screenen.

Twee AI-systemen die tegen elkaar aan het vechten zijn. De ene optimaliseert om door de filter te komen, de andere filtert om de beste eruit te pikken. Als je daar over nadenkt is het eigenlijk best absurd. We hebben een heel ecosysteem gebouwd waar AI aan de ene kant teksten mooier maakt dan ze zijn, en AI aan de andere kant probeert daar doorheen te prikken.

En dan de andere helft. De kandidaten die het gewoon eerlijk doen. Die hun eigen brief schrijven, hun eigen CV invullen. Die worden nu vergeleken met opgepoetste AI-versies en komen er slechter uit. Niet omdat ze minder goed zijn, maar omdat hun tekst er minder gelikt uitziet. De eerlijke sollicitant wordt gestraft voor het niet gebruiken van AI.

Dat is misschien wel het meest bizarre aan deze hele ontwikkeling. We hebben een systeem gecreeerd waar je bijna gedwongen wordt om AI te gebruiken, omdat je anders achterloopt op iedereen die het wel doet. En ondertussen vertrouwt niemand de uitkomst.

Het eerlijkheidsprobleem dat niemand verwacht

De belofte van AI-screening is altijd objectiviteit geweest. Geen menselijke bias, puur op kwalificaties.

Maar hier wordt het interessant. Onderzoekers van de VU Amsterdam en Stockholm University hebben drie jaar lang een AI-implementatie gevolgd bij een groot bedrijf. Wat ze ontdekten had ik niet verwacht: het probleem was niet dat de AI oneerlijk was. Het probleem was dat iedereen een andere definitie van "eerlijk" had.

HR wilde consistentie. Dezelfde regels voor iedereen, geen uitzonderingen. Managers wilden context. Die ene stagiair die op papier niet matcht, maar waar je gewoon ziet dat het een topper is. Het algoritme kiest altijd voor de HR-definitie, want consistentie is makkelijk te programmeren. Context niet.

Dat is denk ik het meest onderschatte risico van AI in recruitment. Niet dat het fouten maakt. Maar dat het een hele specifieke manier van denken afdwingt en je de ruimte ontneemt om je gezond verstand te gebruiken.

En dan heb ik het nog niet eens over de bias in de training data. Amazon moest jaren geleden hun AI-recruitmenttool schrappen omdat het systeem had geleerd om CV's met het woord "women's" lager te scoren. Dat wordt vaak aangehaald als een incident. Het is geen incident. Het is wat er gebeurt als je een systeem traint op hoe het altijd al ging.

Waar het wel werkt

Ik wil niet de indruk wekken dat AI in recruitment waardeloos is. Dat is het niet.

Vacatureteksten schrijven en optimaliseren. Interview scheduling. Data opschonen. De eerste bulk sorteren op harde criteria. Daar maakt het echt verschil.

Het patroon is simpel: AI is goed in efficiency. Sneller teksten schrijven, sneller plannen, sneller sorteren. Waar het niet werkt is bij de selectiebeslissing zelf. Harvard Business Review concludeerde begin dit jaar dat er simpelweg geen overtuigend bewijs is dat AI beter selecteert dan bestaande methoden. Niet "AI werkt niet." Maar: "het werkt niet beter dan wat we al hadden, en brengt nieuwe risico's met zich mee."

Dat is best een ongemakkelijke conclusie als je bedenkt hoeveel geld er in AI-recruitment wordt gepompt.

De EU AI Act als reality check

Per augustus dit jaar worden de high-risk eisen van de EU AI Act afdwingbaar. Recruitment AI valt daar expliciet onder. Wat dat in de praktijk betekent: als je AI-tools gebruikt voor het screenen of ranken van kandidaten, moet je risicobeoordelingen uitvoeren, documentatie bijhouden, menselijk toezicht garanderen, en je systeem registreren.

Veel recruiters en HR-managers die ik spreek zijn hier nog helemaal niet mee bezig. Ze gebruiken AI-tools van hun ATS-leverancier of een losse plugin, zonder te weten dat ze straks zelf verantwoordelijk zijn voor de compliance.

Mijn advies: vraag je leverancier nu hoe zij zich voorbereiden. Als ze niet precies kunnen vertellen wat ze doen aan risicobeoordelingen en bias-monitoring, dan heb je je antwoord.

Waarom we het toch bouwen

Wij bouwen Recruit Pivot niet omdat we denken dat we het probleem al opgelost hebben. We bouwen het omdat het huidige proces al gebroken is zonder AI.

De gemiddelde recruiter beoordeelt een CV in zes seconden. Daar is niks mis mee, want na twintig jaar ervaring heb je dat gevoel. Maar als je kijkt naar de rest van het proces: de reactietijd, het aantal kandidaten dat gewoon nooit iets hoort, de kwaliteit van de data in het ATS. Daar zit de echte winst.

Maar we zijn eerlijk genoeg om te zeggen dat we er nog lang niet zijn. We weten hoe moeilijk het is om bias uit je model te houden. We weten dat datakwaliteit het grootste obstakel is, niet het algoritme. En we weten dat een goede hire afhangt van teamdynamiek, cultuur, groeipotentieel, timing, en tientallen andere factoren die je niet in een vector embedding vangt.

Wat ik je meegeef

Als je vandaag AI overweegt in je recruitmentproces:

Wees kritisch op wat leveranciers beloven. Vraag om onafhankelijk bewijs, niet hun eigen casestudies. Als ze beweren dat hun AI "95% nauwkeurig" matcht, vraag dan nauwkeurig ten opzichte van wat.

Gebruik AI waar het bewezen werkt. Efficiency, niet selectie. Laat het teksten schrijven, interviews plannen, data opschonen. Maar laat een mens de uiteindelijke beslissing nemen.

En bereid je voor op de EU AI Act. Augustus 2026 is over vier maanden.

Wantrouw iedereen die beweert dat ze het probleem al opgelost hebben. Inclusief ons. We zijn onderweg, maar eerlijk over hoe ver we nog moeten.