Kunstig intelligens kan mindske bias i rekruttering - hvis det bliver brugt korrekt

Brugen af kunstig intelligens har potentialet til at mindske bias, når firmaer hyrer, mener forsker. Men bliver det ikke brugt korrekt, kan det også have den modsatte effekt.

 

Af Morten Bjerregaard 

Flere og flere virksomheder herhjemme benytter sig i stigende grad af digitale hjælpeværktøjer, når de skal finde nye medarbejdere.

Værktøjer, der bygger på automatisering, algoritmer og kunstig intelligens, kan blandt andet være en stor hjælp, når det gælder om at udpege og udvælge potentielle jobkandidater.

Men kunstig intelligens har også potentialet til at kunne gøre en forskel på et område af rekrutteringen, der mere eller mindre altid har været en udfordring, nemlig bias.

Bias kan forekomme i mange forskellige led i en rekrutteringsfase. Nogle kan eksempelvis have bias mod en person med et ikke-dansk klingende navn, mens et jobopslag ubevidst kan være rettet mere imod mænd end kvinder og dermed være biased.

Blandt andet her kan værktøjer drevet af kunstig intelligens have en positiv effekt.

Det mener Stephen Alstrup, professor ved Københavns Universitet på Datalogisk Institut og stifter af det faglige dataetiske råd, der blandt andet rådgiver politikere om kunstig intelligens.

”Der er bias hele vejen rundt, hvor mennesker er involveret i rekrutteringsprocessen. Men allerede nu findes der værktøjer, som kan bruges til at reducere bias.”

 

”Både mennesker alene og maskiner alene har deres udfordringer med bias.”

Florian Keppeler, adjunkt på Aarhus Universitet 

 

”Eksempelvis kunne man få en evaluering af puljen af personer, man har planer om at indkalde til en samtale, fra et AI-værktøj. Her kunne værktøjet måske komme frem til, at der er en meget stor overvægt af mænd, der alle har danskklingende navne. Det ville værktøjet så gøre klart for én på og spørge, om det er noget, man skal være opmærksom på,” siger Stephen Alstrup.

Han har også et indtryk af, at der efterhånden er rigtig mange virksomheder, der er begyndt at køre deres jobopslag igennem ChatGPT med det formål, at det eksempelvis ikke er biased imod et bestemt køn.

Virksomheder skal opstille objektive kriterier

Stephen Alstrup understreger, at han aldrig ville lade AI-værktøjer, eller ”maskinen” som han kalder det, få fuldstændig frie hænder, fordi måden hvorpå den vurderer succeskriterier på i sig selv kan være biased.

Det kan ske, hvis maskinen bliver fodret med data, der stemmer fra mennesker, som allerede er biased. For at det ikke sker, så opfordrer Stephen Alstrup virksomheder til at opstille så objektive kriterier som muligt, når det gælder om at gøre rekruttering til en succes.

”Det afgørende er, at man i sin virksomhed gør sig bevidst om, hvad det er for nogle objektive ting, vi ønsker at opnå. Ønsker man eksempelvis lige mange mænd og kvinder til samtale? Eller vil man gerne have 20 procent til samtale, der har et ikke-danskklingende navn? Og så skal du som virksomhed også gerne reflektere over, hvilke bias du ønsker at mindske. Når du er kommet frem til de objektive kriterier og har en objektive måde at vurdere en ansøgning på, så burde det rent statistisk køre af sig selv,” siger han.

Skrækeksemplet fra Google

At man ikke kan have blind tillid til kunstig intelligens, når det kommer til at modvirke bias, er der efterhånden flere eksempler på.

Tilbage i februar blev Googles AI-værktøj Gemini, der kunstigt kan skabe billeder af mennesker via tekstkommandoer, udsat for så massiv kritik, at det førte til, at techgiganten midlertidigt satte en stopper for brugen af værktøjet.

”Der er bias hele vejen rundt, hvor mennesker er involveret i rekrutteringsprocessen. Men allerede nu findes der værktøjer, som kan bruges til at reducere bias.”

Stephen Alstrup, professor på Københavns Universitet 

 

Google Gemini blev blandt andet beskyldt for at være ”woke”, fordi værktøjet undlod at vise hvide mennesker, selv når det var yderst oplagt.

Både medier og brugere på sociale medier dokumenterede, at når værktøjet blev bedt om at skabe et billede af eksempelvis en viking eller en pave, så generede det billeder af farvede personer, hvilket ikke ligefrem stemte overens med den historiske virkelighed.

Omvendt er andre AI-værktøjer tidligere blevet anklaget for at vise for mange hvide mennesker.

Blandt andet OpenAI’s billedgenerator Dall-E, som er blevet beskyldt for primært at vise hvide mænd, når den blev bedt om at generere billeder af en administrerende direktør.

Menneske og maskine skal gå hånd i hånd

Ifølge Florian Keppeler, der er adjunkt på Center for Offentlig ledelse på Aarhus Universitet, hvor han blandt andet forsker i rekruttering og kunstig intelligens, er ovenstående eksempler gode grunde til, at man ikke bare kan overgive sig til AI-værktøjer, hvis formålet er at mindske bias i sin rekruttering.

”Kunstig intelligens kan mindske, men også øge bias. Det kommer an på det individuelle værktøj og hvilke data, det bliver trænet af. Det kan sagtens ske, at kunstig intelligens er trænet med data, som er biased,” siger han.

”En del forskningslitteratur er kritisk over at bruge kunstig intelligens i udvælgelsesfasen, fordi de algoritmer, som kunstig intelligens er trænet med, afspejler den diskrimineringsudfordring, som vi har i rekrutteringen,” lyder det fra Florian Keppeler.

Han fortæller, at mange årtiers forskning har vist, at der sker masser af diskriminering på arbejdsmarkedet og i rekrutteringen på grund af eksempelvis køn, alder, etnicitet og handicap.

”Både mennesker alene og maskiner alene har deres udfordringer med bias,” siger han.

Men hvis man bruger det bedste fra menneske og maskine, det som Florian Keppeler kalder et såkaldt ”augmented decision-scenarie”, så kan man bevæge sig fremad, mener han.

”Udfordringerne kan man måske reducere ved at bruge kunstig intelligens og mennesker sammen. Så kunne det være, at det reducerede bias blandt både mennesker og maskiner. Det kunne være et fremtidsscenarie,” siger han.

Digitale værktøjer kan maskere markører

Hvis man som virksomhed vil prøve metoden blind rekruttering i sit ansættelsesforløb, kan digitale hjælpeværktøjer gøre det en del nemmere.

Hos Akademikerliv har vi tidligere skrevet om blind rekruttering, hvor man ser bort fra personlige oplysninger som eksempelvis navn, alder, køn, etnicitet, uddannelse og tidligere erfaring som vurderingsgrundlag til en samtale.

Læs artiklen Blind rekruttering begejstrer i Akademikerliv

Målet med at bruge metoden er at fjerne ubevidste bias og samtidig fremme mangfoldigheden på arbejdspladsen.

En af ulemperne ved blind rekruttering er ifølge de kilder, vi talte med, at det kræver mange ressourcer. Blandt andet ved vurderingen af, hvilke oplysninger, der skal overstreges, så ansøgerens anonymitet fastholdes.

Men her kan digitale hjælpeværktøjer have god effekt, mener Rasmus Hall Mortensen. Han er administrerende direktør for virksomheden Garuda, som i mere end 40 år har arbejdet med processer og værktøjer til udvælgelse og personlighedstest.

Han understreger, at blind rekruttering ikke er noget nyt fænomen, der er kommet på baggrund af indtoget af kunstig intelligens. Men fremkomsten af diverse digitale værktøjer kan sætte hurtigere gang i processen.

”Før sad man med slettelak eller en sprittusch og slettede personlige oplysninger manuelt. Med de værktøjer, man har til rådighed i dag, kan du gøre det digitalt, og det er en kæmpe fordel,”siger Rasmus Hall Mortensen.