
A discriminação algorítmica de género: como a moeda tem duas faces
Têm sido mediatizados vários casos de discriminação em razão do sexo com impacto laboral, como seja a ferramenta de triagem de CV da Amazon ou os algoritmos de personalização de anúncios do Facebook.
Por ocasião do Dia Internacional da Mulher, fazem-se balanços sobre o combate às desigualdades e à discriminação, revisitam-se os desafios à paridade entre sexos, “põe-se o dedo na ferida”.
Um dos domínios da sociedade particularmente marcado por questões de género é o laboral, onde se mantêm as dificuldades em “nivelar o terreno” entre homens e mulheres, seja em termos de recrutamento, salariais, de promoção na carreira, ou outros. Neste contexto, a massificação da tecnologia é frequentemente retratada como vilã, personagem distópica que vem ameaçar (ainda mais) a igualdade entre sexos no mundo do trabalho, trazendo uma panóplia de novos riscos, enquanto simultaneamente potencia fenómenos discriminatórios antigos.
Estas ameaças tecnológicas têm, provavelmente, o seu expoente máximo na discriminação algorítmica, fenómeno em que algoritmos ou sistemas de inteligência artificial (IA) produzem resultados tendenciosos e injustos em relação a certos grupos de pessoas. Esta discriminação pode ter várias origens: dados de treino enviesados, falta de representatividade desses dados de treino quanto a determinadas populações, modelos que inadvertidamente possam amplificar vieses dos dados, falta de supervisão humana, entre outros.
Ao longo dos últimos anos têm sido mediatizados vários casos de discriminação em razão do sexo com impacto laboral, como seja a ferramenta de triagem de CV da Amazon que, alimentada com dados dos trabalhadores dos últimos dez anos, desvalorizava as candidatas a emprego com base nesse histórico, ou os algoritmos de personalização de anúncios do Facebook, que enfrentaram críticas por alegadamente reforçar estereótipos, ao mostrar às utilizadoras principalmente anúncios de emprego em áreas tradicionalmente femininas (como cuidados de saúde ou ensino), enquanto os homens viam mais anúncios em áreas como tecnologia ou engenharia.
Casos como estes expõem como a tecnologia que permite tomar decisões mais eficientes, com (alegada) objetividade, comporta o risco de criar, manter ou agravar a discriminação, o que pode, na prática, significar mais um “teto de vidro” para as mulheres ao nível laboral.
Porém, a moeda tem duas faces.
E se os algoritmos pudessem, na verdade, ajudar a combater a discriminação e as distorções nas tomadas de decisão dos empregadores? E se fossem construídos e aplicados como medida de ação positiva de género em determinadas situações?
Muitos dos vieses que afetam as decisões de contratação ou de promoção são inconscientes, como a preferência por determinado sexo. Ora, os algoritmos podem ser projetados e treinados para identificar e eliminar essas distorções, pondo o foco na qualificação, skills e experiência do candidato ou trabalhador.
A algoritmização dos processos de recrutamento e seleção ou de promoção na carreira pode também ser uma medida de discriminação positiva em favor do sexo sub-representado, assegurando, por via algorítmica, maior diversidade em sectores/cargos tendencialmente masculinos.
Podemos também pensar em ferramentas de IA que escrevam anúncios de emprego mais inclusivos, resultando num grupo de candidatos mais diversificado, designadamente no que respeita ao sexo, ou em sistemas que detetem disparidades salariais injustificadas e proponham correções.
A discriminação algorítmica positiva pode ser o outro lado da moeda, negligenciado perante aquela que será a principal face desta tecnologia. Pensemos em algoritmos de ação positiva, “corretivos”, que permitam identificar discriminação e propor alterações ao nível da gestão algorítmica do trabalho. Se assim concebidos e treinados, os algoritmos têm o potencial de melhorar a equidade nos processos de RH e promover a diversidade nas organizações.
No fundo, trata-se de assegurar que temos algoritmos e sistema de IA justos e confiáveis, que não agravam a clivagem entre mulheres e homens (ainda) existente no mundo de trabalho e, na verdade, que possam ser ferramentas aliadas da igualdade e da diversidade de género nas organizações.
Assine o ECO Premium
No momento em que a informação é mais importante do que nunca, apoie o jornalismo independente e rigoroso.
De que forma? Assine o ECO Premium e tenha acesso a notícias exclusivas, à opinião que conta, às reportagens e especiais que mostram o outro lado da história.
Esta assinatura é uma forma de apoiar o ECO e os seus jornalistas. A nossa contrapartida é o jornalismo independente, rigoroso e credível.
Comentários ({{ total }})
A discriminação algorítmica de género: como a moeda tem duas faces
{{ noCommentsLabel }}