Un raport al Organizației Națiunilor Unite acuză indirect furnizorii de asistenți inteligenți precum Apple, Google și Microsoft că consolidează prejudecățile de gen, folosind implicit vocile asistente feminine.
Siri Apple, Cortana Microsoft, Asistentul Google pentru boxele Acasă și Alexa Amazon sunt de departe cei mai populari asistenți digitali de acolo. În marea majoritate a cazurilor, toți acești asistenți fac implicit o voce de sex feminin. Unii asistenți folosesc vocile feminine exclusiv, precum Alexa, iar altele permit utilizatorului să schimbe sexul vocal în Setări, cum ar fi Siri.
În unele cazuri, genul vocal implicit al unui asistent depinde de piața specifică a utilizatorului, iar Apple este un exemplu bun că-Siri folosește o voce feminină în majoritatea țărilor, dar ea este implicită la o voce masculină atunci când limba sistemului este setată la arabă, franceză , Engleză olandeză sau britanică.
Din raport, intitulat „Aș înroși dacă aș putea”:
Deoarece vorbirea celor mai mulți asistenți vocali este de sex feminin, trimite un semnal că femeile sunt ajutoare obligatorii, docile și dornice de a face plăcere, disponibile la simpla apăsare a unui buton sau cu o comandă vocală contondentă, precum „Hei” sau „OK”..
Asistentul nu deține nicio putere de agenție în afara celor cerute de comandant. Respectă comenzile și răspunde la întrebări indiferent de tonul sau ostilitatea lor. În multe comunități, acest lucru consolidează prejudecățile de gen, care sunt obișnuite, conform cărora femeile sunt subervante și tolerante cu un tratament slab.
Titlul raportului („M-aș înroși dacă aș putea”) a fost unul dintre răspunsurile lui Siri la a fi adresat ca o curvă (altul: „Ei bine, eu niciodată!”), După cum a notat 9to5Mac, dar Apple are de când au schimbat acele răspunsuri la „Nu știu cum să răspund la asta”.
De asemenea, se referă la faptul că o asistentă AI de sex feminin riscă să le ofere copiilor idei greșite despre rolul femeilor în societatea modernă, ceea ce sugerează că este normal ca femeile, fetele și persoanele de sex feminin să răspundă la cerere.
Potrivit lui Calvin Lai, un cercetător al Universității Harvard care studiază părtinirea inconștientă, asociațiile de genuri pe care oamenii le adoptă sunt condiționate de numărul de persoane expuse acestora. Pe măsură ce femeile asistente digitale se răspândesc, frecvența și volumul asociațiilor dintre „femeie” și „asistent” cresc dramatic.
Potrivit lui Lai, cu cât cultura îi învață pe oameni să egaleze femeile cu asistenții, cu atât mai multe femei reale vor fi considerate asistente - și penalizate pentru că nu sunt asistați. Acest lucru demonstrează că o tehnologie puternică nu numai că poate reproduce inegalitățile de gen, ci și le poate lărgi.
Nu sunt sigur ce să mă gândesc la acest raport, în afară de faptul că Apple, Google, Microsoft și Amazon sunt foarte bine conștienți de subtextul cultural al tuturor acestor situații - în caz contrar, genul vocal implicit al lui Siri nu ar depinde de regiune, dar eu ” Nu sunt atât de sigur că companiile sunt conștiente de faptul că toate vocile asistente de sex feminin ar putea și probabil ar consolida prejudecățile de gen, în special cu copiii care, în timp, ar putea lua asta ca dovadă a unei legături între vocea unei femei și subzistență..
Voci asistente feminine întăresc cu adevărat stereotipurile de gen occidentale? Ce părere aveți despre acest raport? Asigurați-vă că interacționați cu gândurile dvs. în secțiunea de comentarii de mai jos.