Mænd afbryder digitale kvindestemmer dobbelt så ofte som kvinder

Elektroniske stemmeassistenter som Alexa og Siri fremstår venlige, undskyldende og imødekommende. Ny forskning afslører, at mænd ofte afbryder dem – en adfærd, der kan påvirke, hvordan mænd opfører sig over for kvinder i det virkelige liv

24. januar 2025

Af Anne-Mette Barfod

Undersøgelser har længe vist, at mænd er mere tilbøjelige til at afbryde, især når de taler med kvinder. Nu viser et nyt studie, at denne adfærd også gælder overfor AI-drevne stemmeassistenter som Alexa og Siri, idet mænd afbryder dem næsten dobbelt så ofte som kvinder gør.

Undersøgelsen er gennemført af forskere fra Johns Hopkins University, og ifølge en pressemeddelelse vækker resultaterne bekymring for, hvordan design af stemmeassistenter kan forstærke kønsskævheder. Det gælder især brugen af stereotype "feminine" træk som undskyldende adfærd og varme.

Det får forskerne til at slå til lyd for design af mere kønsneutrale stemmeværktøjer.

Kønsbestemte navne og adfærd
”Stemmeassistenter i samtaler bliver ofte feminiseret gennem deres venlige intonation, kønsbestemte navne og underdanige adfærd."

Sådan lyder det studiets leder Amama Mahmood, der er ph.d.-studerende på femte år ved Whiting School's Department of Computer Science. Hun har gennemført undersøgelsen sammen med Chien-Ming Huang, der er adjunkt i datalogi og leder af Intuitive Computing Laboratory.

"Efterhånden som de bliver mere og mere allestedsnærværende i vores liv, kan den måde, vi interagerer med dem på - og de fordomme, der måske ubevidst påvirker disse interaktioner - ikke kun forme forholdet mellem mennesker og teknologi, men også den virkelige verdens sociale dynamik mellem mennesker”, påpeger Mahmood.

Afslører markante kønsforskelle
Mahmood og Huang gennemførte undersøgelsen med 40 deltagere - 19 mænd og 21 kvinder. De skulle alle løse en online shoppingopgave ved hjælp af en stemmeassistent.

Uden at deltagerne vidste det, var assistenten forprogrammeret til at begå specifikke fejl, så forskerne kunne observere deltagernes reaktioner. Deltagerne interagerede med tre stemmetyper - feminin, maskulin og kønsneutral - og stemmeassistenten reagerede på sine fejl ved enten at tilbyde en simpel undskyldning eller en økonomisk kompensation.

”Vi undersøgte, hvordan brugerne opfattede disse agenter med fokus på egenskaber som oplevet varme, kompetence og brugertilfredshed med fejlretningen”, fortæller Mahmood og tilføjer:

”Vi analyserede også brugernes adfærd og observerede deres reaktioner, afbrydelser af stemmeassistenten, og om deres køn spillede en rolle for, hvordan de reagerede.”

Tydelige kønsstereotyper i spil
Forskerne observerede klare stereotyper, når de så på, hvordan undersøgelsens deltagere opfattede og interagerede med AI-stemmeassistenterne. For eksempel forbandt deltagerne feminine stemmer med bedre rådgivningskompetence, hvilket sandsynligvis afspejler underliggende fordomme, der forbinder visse ”støttende” færdigheder med traditionelt feminine roller.

Brugernes eget køn påvirkede også deres adfærd. Mandlige brugere afbrød oftere stemmeassistenten ved fejl og reagerede mere smilende og nikkende på den feminine assistent end på den maskuline, hvilket tyder på en præference for feminin stemmestøtte.

Imidlertid viser undersøgelsens resultater også, at samarbejdet med en kønsneutral stemmeassistent, der undskyldte for sine fejl, reducerede uhøflige interaktioner og afbrydelser - selv om stemmen blev opfattet som mindre varm og mere ”robotagtig” end dens kønsbestemte modstykker.

”Det viser, at design af virtuelle agenter med neutrale træk og nøje udvalgte fejlreducerende strategier - såsom undskyldninger - har potentiale til at fremme mere respektfulde og effektive interaktioner”, påpeger Mahmood.

Gennemtænkt design er fremtiden
Mahmood og Huang planlægger at udforske design af stemmeassistenter, der kan opdage partisk adfærd og justere i realtid for at reducere denne partiskhed. Ambitionen er at fremme mere ligeværdige interaktioner.

Forskerne vil også inkludere flere non-binære personer i deres forskning, da denne gruppe var underrepræsenteret i deres oprindelige undersøgelsesgruppe.

”Gennemtænkt design - især i forhold til, hvordan disse agenter portrætterer køn - er afgørende for at sikre effektiv brugersupport uden at fremme skadelige stereotyper", påpeger Mahmood.

"I sidste ende vil det hjælpe os med at skabe et mere ligeværdigt digitalt og socialt miljø, hvis vi tager fat på disse fordomme indenfor stemmeassistance og AI.”

Powerkurser Rosie

Psykisk vold briller annonce

Positiv kommunikation annonce

Womenomics annonce

Stereotyper annonce

Facebook site . annonce

Pengepsykologi og partnervold annonce

Presseklip annonce