Hoe leg je uit dat je algoritme een sollicitant afwijst?

| AE 11301 | Privacy | 7 reacties

Via Twitter las ik:

In de US is er voor ‘hiring algoritmes’ een verplichte ‘explain’ regel. Het mag geen black box zijn en de keuzes moeten onderbouwd kunnen worden met de werkzaamheden. Lijkt me goede stap.

Waarop diverse reacties kwamen met de strekking dat de AVG deze regel al heeft. Een hiring algoritme bepaalt of iemand aangenomen wordt (of op zijn minst op sollicitatiegesprek), en zo’n besluit mag een algoritme niet zomaar nemen van de AVG.

Iets preciezer, in artikel 15 AVG staat dat je recht hebt op uitleg wanneer een geautomatiseerd besluit wordt genomen, althans op “nuttige informatie over de onderliggende logica” van het besluit. Het gehele algoritme hoeft niet te worden gepubliceerd, wat ook wat ver zou gaan gezien daar dan weer bedrijfsgeheimen in de knoop komen. Maar enkel “de computer zei nee” voldoet niet aan dit artikel.

Belangrijker is echter dat artikel 22 zegt dat zulke besluiten niet (zomaar) mogen. Als het noodzakelijk is bij je hiring-process dan is daar een uitzondering op mogelijk, maar dan moet je wel aan de bak want

3. In [deze gevallen] treft de verwerkingsverantwoordelijke passende maatregelen ter bescherming van de rechten en vrijheden en gerechtvaardigde belangen van de betrokkene, waaronder ten minste het recht op menselijke tussenkomst van de verwerkingsverantwoordelijke, het recht om zijn standpunt kenbaar te maken en het recht om het besluit aan te vechten.

Er moet dus ruimte zijn voor mensen om erachter te komen wat er is gebeurd en om een menselijke aanvulling te horen te krijgen. Ook moet je tegen het besluit in beroep kunnen op een of andere manier. En dat is wel een interessante, want bij sollicitaties is dat natuurlijk niet bepaald de praktijk. Kom je niet door de eerste ronde, dan krijg je een standaardbrief over niet in het team passen of andere, geschiktere kandidaten die beter aansluiten bij het profiel, en dat is het dan.

Ik twijfel of dit betekent dat de AVG een gemotiveerde afwijzing eist. Ik denk het wel, maar alleen wanneer je als HR-manager het besluit in overwegende mate af laat hangen van je algoritme. Is het een van de tien factoren waarop je handmatig beslist, dan kun je blijven werken zoals je deed.

Arnoud

Deel dit artikel

  1. Hoe kom je er als sollicitant achter of de

    HR-manager het besluit in overwegende mate af laat hangen van (een) algoritme
    Het antwoord op die vraag lijkt me “daar kom je niet achter” te zijn. Want
    Kom je niet door de eerste ronde, dan krijg je een standaardbrief
    Waardoor de vraag
    Hoe leg je uit dat je algoritme een sollicitant afwijst?
    geen antwoord hoeft.

  2. Een gemotiveerde afwijzing en een (anoniem) profiel van de kandidaat die het wel is geworden zou wel mooi zijn, maar gezien de stroom van sollicitatiebrieven, kan dat wel heel veel werk kosten. Sommige mensen zijn nou eenmaal verplicht te solliciteren (al doen sommige alvast een hand geschreven post-it op de brief met daarop “stuur deze kandidaat een afwijzing”). Als een kandidaat eenmal op gesprek is geweest, denk ik dat een afwijzing even in een kort gesprek toelichten heel goede PR is voor een bedrijf. Je komt elkaar vaak weer tegen, en dan maakt het nogal verschil of je bent afgewimpeld met een luie smoes, of dat even is uitgelegd dat de betreffende functie naar inschatting van het bedrijf toch niet de beste match was, en waarom.

  3. Hoe zit het eigenlijk met het omgekeerde? Computer zegt ‘Ja’

    Of veel simpeler: een recruiter verzamelt automatisch gegevens over mogelijke kandidaten via LinkedIn, Monsterboard, werk.nl en diverse andere bronnen. En daar wordt een algoritme op losgelaten om de meest passende kandidaten te vinden die voldoen aan een bepaald profiel voor een bepaalde baan. Daarbij wordt netjes genegeerd dat iemand al een baan heeft en dus geen nieuwe baan zoekt, want niet geschoten is altijd mis…

    Bij Computer zegt ‘Nee’ moet je dus een uitleg geven. Maar moet dat ook als de computer ‘Ja’ zegt? šŸ™‚

    • Ik werk al jaren in de detachering en zeker als je bij de wat grotere bedrijven geplaatst wordt, zit er een HRM-manager tussen. Vaak een die voor de complete organisatie de vacatures moet nakijken (en dus niet voor de, in mijn geval, ICT afdeling). De vacature wordt aangegeven bij HRM met een aantal voorwaarden (wat vergelijkbare werkervaring, kennis van software X of Y, en bij voorkeur nog enkele certificeringen). Probleem is echter dat de HRM manager die certificeringvraag ziet staan en dus gewoon direct alle CV’s gaat scannen op die certificeringen. Staat het er niet bij, wordt je CV op het stapeltje afgewezen geplaatst, zonder ook maar naar alle andere voorwaarden te kijken en komt het dus nooit bij de manager terecht die met je moet werken. Wat dat betreft zou een (goed) algoritme volgens mij alleen maar voordelen bieden. Die kijkt namelijk niet alleen naar de certificeringen, maar ook naar de werkomgeving. Als het algoritme dan zegt “Nee, want geen certificeringen, geen ervaring met packet X en Y en ook nog eens te weinig werkervaring” heb ik meer vertrouwen in het algoritme dan een beginnen HRM-manager die niet goed weet waar ze op moet letten.

      • Ja, een algoritme gebruiken is op zich het probleem niet. Maar moet je ook uitleggen hoe het algoritme werkt als de computer ‘Ja’ zegt?

        Dit geldt natuurlijk ook voor andere beslissingen die een computer neemt in plaats van een persoon. Het gaat niet alleen om afwijzingen waar de computer beslist maar ook om goedkeuringen. Echter, veel mensen staan niet stil als ze goedgekeurd worden bij de vraag waarom ze eigenlijk goedgekeurd worden. Mijn ervaring is dat er veel recruiters mij aanbiedingen doen als Java of PHP programmeur simpelweg omdat ik in mijn LinkedIn account heb aangegeven dat ik enige ervaring heb met beide talen. Als ze nou aangeven dat ze mij vonden omdat dit in mijn LinkedIn account staat dan zou ik mijn account daar kunnen aanpassen. Maar ze kunnen dit ook elders hebben gevonden. En sowieso wil ik wel weten waar men mijn gegevens heeft opgespoord…

    • Interessante vraag!

      Voorselectie uitbesteden aan algoritme of recruiter lijkt tot een groot risico op discriminate op bijv. leeftijd of m/v te leiden. Ook bij recruiter zonder algoritmes zou je wellicht uitlegbaarheid willen.

      Echter wie zou moeten klagen? ‘Waarom is mijn persoonlijke data niet verwerkt? Waarom ben ik niet voorgeslecteerd?’ Je weet in het algemeen helemaal niet of en in welk verband je (linked-in) profiel wel of niet is bekeken.

  4. En dat is wel een interessante, want bij sollicitaties is dat natuurlijk niet bepaald de praktijk

    Ja, die vind ik wel interessant. Het algoritme (menselijk, of geautomatiseerd) wijst af, omdat er te veel spelfouten in de CV staan. Vroeger, manueel, hoorde je daar natuurlijk niets meer van. Nu kun je het, na feedback, aanpassen.

    Maar daar maak je het model zwakker mee: Nu runt iemand die normaal gesproken niet de moeite neemt om de puntjes op de i te zetten een spellchecker en is niet meer te onderscheiden van iemand die op de details let. Zo is er in de US een wedloop gaande tussen universiteiten en bedrijven die trainen voor toelatingsexamens: Je kan getrained worden om een examen voldoende af te leggen, zonder de uiteindelijke skills te bezitten die het examen zou moeten testen.

    Of het model is biased tegen vrouwen: Er heerst een mannencultuur waar haantjesgedrag wordt beloond, vrouwen nemen vaker ontslag, model leert dat mannen het beter doen dan vrouwen. Elk signaal wordt nu gebruikt om deze bias te versterken: Kandidaat ging naar een kookschool, en heeft ballet als hobby? Een mens zou dit (hopelijk) negeren, een algoritme zegt: waarschijnlijk vrouw en dus waarschijnlijk een slechte kandidaat.

    Wie checked of de uiteindelijke uitleg ook de correcte uitleg is? Dit kun je maar lastig verifieeren. Net zoals een racist iemand met de naam Mohamed zal afwijzen met een smoes (we vonden een beter gequalificeerde kandidaat), zo stuur je natuurlijk niet een uitleg met: woord “ballet” woord “kookschool” -> afwijzen.

    Blijft over het probleem van “common sense”: machineel leren is goedkoop, snel, en secuur, maar het beroep van HR analyst is nu nog niet te automatiseren (met 1000den CVs per positie zou je dit wel willen). Als de opleiding niet toevallig in de training data zit, dan bestaat die gehele opleiding niet eens voor het model, en wordt de kandidaat (zelfs met een vergelijkbare opleiding) dus afgewezen. Daarom worden CV’s vaak geranked. HR analysten geven dan meer aandacht aan goed gerankede kandidaten, en zullen slechts een oogopslag gunnen aan CV’s onderop de stapel. Je wordt dan dus manueel afgewezen, maar in de oorsprong komt dit doordat een algoritme de CV stapel heeft geordend.

    Ook is er de post-hoc redenatie: Een model heeft afgewezen, maar bij navraag, geeft een mens uitleg waarom je niet een geschikte kandidaat was. Die mens zal dan niet 1 2 3 afwijken van de voorspelling van het model.

Laat een reactie achter

Handige HTML: <a href=""> voor hyperlinks, <blockquote> om te citeren en <em> en <strong> voor italics en vet.

(verplicht)

Volg de reacties per RSS