Een lezer vroeg me:
Ik werk op de HR afdeling van de Nederlandse vestiging van een Amerikaans concern. Vanuit ‘Houston’ is ons nu opgedragen alle sollicitaties eerst door een AI-driven screening te halen. Alleen mensen die door het algoritme worden geselecteerd, mogen op gesprek komen. Mag dat wel van de GDPR?
De inzet van AI, beter gezegd machine learning, is in human resources oftewel personeelsmanagement aan een stevige opmars bezig. Het screenen van kandidaten is namelijk een tijdrovende en lastige klus om consistent en objectief te doen, en laat dat nou precies zijn waar software goed in is. Zoals PW Web het uitlegt:
Handmatig honderden cv’s doornemen kan leiden tot een enorme opeenhoping van werk, waardoor andere taken stil komen te liggen en er veel tijd en geld wordt verspild. Met behulp van AI en ML kan dit proces geautomatiseerd worden door bijvoorbeeld slimme screening software in te zetten die cv’s snel kan scannen op de voorwaarden die in de vacature genoemd worden. Gedurende dit proces leert de software wat er gevraagd wordt van toekomstige kandidaten. Op basis van ervaringen met eerder aangenomen kandidaten kan de software vervolgens bepalen welke eigenschappen een goede kandidaat bezit.
Ook steeds populairder wordt screeningsoftware waarbij je op video vragen van een computerprogramma beantwoordt. Software analyseert dan je ‘microexpressies’ en emoties en concludeert daaruit of jij door mag naar fase 2, waarbij een mens met je in contact treedt.
Dit staat inderdaad enigszins op gespannen voet met de AVG oftewel GDPR, die immers een verbod kent op geautomatiseerde besluitvorming, inclusief profileren. Artikel 22 AVG verbiedt in principe het geautomatiseerd nemen van besluiten, waarmee niet alleen juridisch bindende beslissingen worden bedoeld maar ook andere conclusies en vervolgstappen die de betrokkene in aanzienlijke mate raken. Zoals wanneer je niet door mag naar een volgende sollicitatieronde.
Lid 2 van dit artikel staat profileren en besluitvorming echter weer wel toe wanneer dit noodzakelijk is voor de totstandkoming of de uitvoering van een overeenkomst, waaronder ook een arbeidscontract kan vallen. Het zou dus mogen, zo’n prescreening, mits de werkgever kan aantonen dat hij echt niet anders kan – de term ‘noodzaak’ is een hoge lat, en je komt er niet door te zeggen dat het beter is dan voorheen of dat dit je werk efficiënter of makkelijker maakt.
Ik vind het moeilijk argumenten te bedenken waarom die noodzaak er zou zijn. Alleen, je komt dan al heel snel uit bij het kulargument “vroegâh kon alles handmatig en persoonlijk dus vernieuwingen zijn nergens voor nodig”. En dat kan ook weer niet de bedoeling zijn van de AVG.
Ik zie daarbij wel iets in het argument dat zo’n screening objectiever is, omdat alle cv’s nu op dezelfde wijze worden bekeken en beoordeeld. Dat voelt eerlijker dan wat je vroeger wel hoorde, dat een cv terzijde werd gelegd omdat het papier te dun was, je de verkeerde school had of omdat je op de foto mooier was dan de HR-dame die je brief openmaakte. Maar algemeen bekend is ook weer dat screeningsoftware bias heeft, en bijvoorbeeld per abuis vrouwen weglaat of alleen mannen die Jared heten en lacrosse spelen doorlaat.
Ik denk dan ook dat dit alleen kan als je hebt uitgewerkt op papier waarom dergelijke bias en selectiefouten bij jullie niet voor gaan komen. En een mooie folder van de leverancier is natuurlijk niet genoeg daarvoor.
Arnoud
De Artikel 29-Werkgroep geeft aan dat het aantal sollicitaties een gerechtvaardiging kan zijn: Een bedrijf plaatst een vacature. Aangezien deze werkgever zeer populair is, ontvangt het bedrijf tienduizenden sollicitaties. Vanwege het uitzonderlijk hoge aantal sollicitaties acht het bedrijf het praktisch onmogelijk om geschikte kandidaten te selecteren zonder eerst volledig geautomatiseerde middelen te gebruiken om ongeschikte kandidaten uit te filteren. In dit geval kan geautomatiseerde besluitvorming noodzakelijk zijn om een voorselectie van mogelijke kandidaten te maken, met de bedoeling om een overeenkomst met een betrokkene te sluiten.
Ja maar dat is geen AI. Dat is gewoon geautomatiseerd afchecken van een aantal randvoorwaarden (opleiding, ervaring).
En dan nog: Het aantal sollicitanten is een kul-argument. Dat heb je als werkgever bewust in de hand gewerkt door heel veel reclame te maken voor de vakature en/of de eisen heel laag te zetten.
Je krijgt geen tienduizenden sollicitaties als je 1) de nodige aandacht hebt besteed aan de vakature en 2) niet overdreven geld hebt uitgegeven aan adverteren.
Er is wel een wezenlijk verschil tussen een computer laten filteren op man-made criteria, of de computer zelf criteria laten opstellen waarop er gefilterd wordt. Zolang er maar een mens zegt ‘laten we alleen starters aannemen’ in plaats van een algoritme, is het zeker okay.
Ik vind het een oneigelijk voor deel voor ‘grote’ bedrijven die daar geld voor hebben. Een ZZP’er word hierdoor nog verder in een hoe gedrukt.
Trouwens? Beetje jammer dat je een heel verhaal houd, en zelfs een min of meer excuus voor grote bedrijven aanhaalt. en pas in de vijfde alinea een antwoord geeft. Voor mij geeft dat aan waar jou prioriteiten liggen. maar wat ik (zeg) schrijf mijn persoonlijke mening.
Een zzp’er krijgt over het algemeen ook geen tientallen, laat staan honderden, reacties per vacature, of wel?
Het gaat om de verhouding. Een ZZP’s is in verhouding veel langer bezig met vacatures als een groot bedrijf. En helemaal als ze het geld hebben om het proces te automatiseren. Komt bij dat ik het complete onzin vind. En al helemaal als je ziet wat het kost om te recruteren en dan moet je ook nog maar afwachten wat het daadwerkelijk in de praktijk oplevert. Je werkt wel met mensen die ‘zomaar’ een off dag/week/ maand/ enz. kunnen hebben. Geen machines. En als je dan de ‘goede’ hebt. Wat is goed? dan past de persoon niet bij de club… Geïnvesteerd: vacature maken, opstellen, cv’s bekijken, hopelijk kandidaten interviewen. contract besprekingen .En dan ben ik vast wel wat vergeten.
Kan ook anders, cv bekijken en meteen een maand-contract geven en dan zien of het past. Weet al zat werkgevers die het zo doen. veel goedkoper en veel vaker en makkelijker een passende kandidaat. Kan van beide kanten bekeken worden of het wat is en of het past.
Is in de term zelfstandige zonder personeel niet besloten dat er geen vacatures zijn (want zónder personeel)? En als je op mkb’ers doelt, zouden die dan niet ook jaarlijks veel minder vacatures hebben en zou er per vacature ook niet veel minder response komen?
Is de procedure voor het opstellen van een maandcontract niet exact evenveel werk als het opstellen van contract met welke (on)bepaalde duur dan ook? En is de proeftijd (in een contract met duur > 6 maanden) daar niet mede voor bedoeld?
Als ZZP’er moet je je namelijk inschrijven bij de Kamer van Koophandel als de rechtsvorm eenmanszaak. Het enige verschil KAN zijn de belastingen. Maar voor de rest mag en kan een ZZP’er hetzelfde als een eenmanszaak. Ik ken nog een paar eenmanszaken die een paar duizend mensen in dienst hebben. Of dat belasting-technisch verstandig is moet je aan hun vragen. En mensen een maand contract aanbieden is één veel sneller, dus goedkoper, en je weet ook veel sneller of iemand ‘past’ En alle zooi die bedrijven doen voordat er ook maar iemand op gesprek komt valt weg. Rercruters werken ook niet voor niets, HR medewerkers ook niet. Als iemand zegt dat hij iets kan waarom zou je daaraan twijfelen? Gewoon een maandcontract geven, dan weet je het zeker, of het bestaande personeel geeft wel antwoord of de persoon zelf wel.
Beetje off-topic, maargoed: ZZP’er is net zo’n onzinnige term als Intellectueel Eigendom. Iedereen weet waar je het over hebt maar juridisch bestaat het niet. Je hebt eenmanszaken, en dat is een bedrijfsvorm waarbij een persoon persoonlijk aansprakelijk is voor alle economische handelingen. Inclusief salarissen en arbeidscontracten. En je hebt BV’s, NV’s etc. Kunnen ook allemaal zelfstandig zijn zonder personeel.
Maar de meeste ZZP’ers zijn een eenmanszaak. Heel veel kleine MKB’ers met een paar man personeel ook trouwens.
IDD maar dat vind ik van heel veel Nederlandse wetgeving. Bijvoorbeeld schuurtje bouwen, gemeente zegt mag niet, Exact hetzelfde schuurtje maar dan noem je het een bijkeuken, alstublieft mijnheer, bloemetje bij de vergunning? Het barst ervan
Een belangrijk argument voor de auto-screening is, dat het objektiver dan wel voor iedereen gelijk subjektiver wordt. Aan de ene kant is dit dus wel zinvol, aan de andere kant moet de software wel transparent zijn. Wat zijn de criteria die gebuikt worden? Schuilen in deze mogelijk racistische of diskriminerende punten? Je schreef al, Jared en Lacrosse, maar er zijn dus meer mogelijkheden denkbaar. Als je dus besluit het proces in eerste instantie te automatiseren, moet je dan eigenlijk de afgewezen kandidaten informeren dat dit besluit automatisch is genomen en op basis van welke criteria. Ten eerste is dit fair tegenover de solicitant(e), hij/zij/het weet dan dat het een objektiv criterium is waarom men niet verder komt en kan eventueel hieraan iets doen (opleiding, foto, layout). Ten tweede voorkom je, dat er een gerucht ontstaat dat je op basis van oneingenlijke criteria (Lacrosse) iemand afwijst. Het laatste kan als onderneming weer belangrijk zijn, want geruchten ontstaan sneller en makkelijker als dat je ze uit de wereld ruimt. Met alle gevolgen voor het image van de onderneming.
Je citeert PV-web; “Gedurende dit proces leert de software wat er gevraagd wordt van toekomstige kandidaten. ” Dat betekent per definitie dat de kansen van de kandidaten niet gelijk zijn, omdat de AI in het begin andere criteria zal hanteren dan later wanneer er is bij geleerd. Het lijkt mij een eis dat dergelijke software juist dom is in een selectiebatch.
Mensen die selecteren leren ook, is het niet?
Dit is voor mij juist het grote probleem. Het lijkt eerlijk, maar in de praktijk is er een gigantische hoeveelheid trainingsdata nodig om bijvoorbeeld emoties te meten. Dit wordt meestal gedaan door een grote groep mensen data te laten annoteren. Wie deze data annoteert, of hoe is vaak onduidelijk en wordt ook niet beschreven in de literatuur. Vaak zijn dit studenten of mensen die betaald worden per geannoteerd fragment. Daarnaast zijn ook deze metingen subjectief, en weten we dat emoties overal anders ervaren worden (zie bijvoorbeeld: (Crivelli, Russel, Jarillo & Fernández-Dols, 2016)).
Recent onderzoek zegt eigenlijk dat machine eigenlijk alleen de bias van deze annotators leert: “the data used for the EmotiW Challenge is also challenging for human annotators, and the gap between human and computer performance is ever decreasing” (Kaya, Gürpinar & Salah, 2017), in plaats van naar de echte karakteristieken kijkt. Zolang de onderliggende modellen waarop keuzes niet duidelijk onderbouwd zijn, is het m.i. maatschappelijk onverantwoord dit soort algoritmen te gebruiken.
Ik zie helaas maar al te vaak dat wetenschappers in ML vooral techneuten zijn, die zeer gemotiveerd en gedreven zijn in het ontwikkelen van nieuwe technologie, maar dat het doceren van ethiek en de effecten voor de maatschappij het onderspit delven in de huidige tijdgeest.
Referenties: C. Crivelli, J.A. Russell, S. Jarillo, & J.-M. Fernández-Dols (2016). The fear gasping face as a threat display in a Melanesian society. Proceedings of the National Academy of Sciences, 201611622. http://doi.org/10.1073/PNAS.1611622113 H. Kaya, F. Gürpinar, A.A. Salah. Video-based emotion recognition in the wild using deep transfer learning and score fusion. Image and Vision Computing 65: 66-75 (2017) (https://doi.org/10.1016/j.imavis.2017.01.012)
Nog afgezien van algorithmische bias is een dergelijke screening waarschijnlijk gebakken lucht, althans volgens deze Princeton onderzoeker.
Zolang maar heel helder is waarom iemand afvalt zie ik niet direct een probleem. Bv als iemand afvalt omdat hij geen opleiding heeft en HBO gewenst is. Daarnaast zou je iemand nog de mogelijkheid van reageren aan kunnen bieden om het dan door een mens te laten bekijken.
Met de argumenten er bij zou het denk ik moeten kunnen. Daarnaast wordt dan ook duidelijk waar het systeem naar kijkt en kun je fouten herstellen.
Ik denk dat juist bij dit soort dingen je erg uit moet kijken met AI. Het is juist mogelijk dat in de AI de bias ingebakken zit die je probeert te voorkomen (omdat je altijd gediscrimineerd hebt tegen vrouwen zal de AI er ook uit halen dat als je vrouwlijke voornaamwoorden gebruikt je op de afwijs stapel hoort)