Inteligência Artificial

Os algoritmos de anúncios do Facebook ainda estão a impedir as mulheres de encontrarem empregos

O seu sistema de distribuição de anúncios está a excluir as mulheres das oportunidades, independentemente das suas qualificações. Isso seria ilegal de acordo com as leis trabalhistas dos Estados Unidos.

O Facebook está a ocultar a mulheres certos anúncios de emprego por conta do seu género, de acordo com a última auditoria conduzida para avaliar o serviço de anúncios da plataforma.

A auditoria, conduzida por investigadores independentes da University of Southern California (USC), revela que o sistema de entrega de anúncios do Facebook mostra diferentes anúncios de emprego para mulheres e homens, embora exijam as mesmas qualificações.  Isso é considerado discriminação baseada no sexo pela lei de oportunidades iguais de emprego dos EUA, que proíbe a segmentação de anúncios com base em características protegidas.  As descobertas surgem apesar de anos de advocacia e processos judiciais, e depois de promessas do Facebook de reformular a forma como distribui anúncios.

Os investigadores registaram-se como anunciantes no Facebook e compraram pares de anúncios de empregos com qualificações idênticas, mas com demografia diferente no mundo real. Anunciaram dois empregos para motoboys de entregas, por exemplo: um para a Domino ‘s (entrega de pizza) e um para a Instacart (entrega de mercearia).  Atualmente, há mais homens do que mulheres que dirigem para a Domino ‘s e vice-versa para a Instacart.

Embora nenhum público tenha sido especificado com base em informações demográficas,  um recurso que o Facebook desativou  para anúncios de residências, crédito e emprego em março de 2019 depois de resolver vários processos judiciais, algoritmos ainda exibiam os anúncios para grupos demográficos estatisticamente distintos.  O anúncio da Domino’s foi mostrado a mais homens do que mulheres, e o anúncio da Instacart foi mostrado a mais mulheres do que homens.

Os investigadores encontraram o mesmo padrão com anúncios para dois outros pares de empregos: engenheiros de software para a NVIDIA (enviesamento masculino) e Netflix (enviesamento feminino) e vendedores de carros (enviesamento masculino) e jóias (enviesamento feminino).

As descobertas sugerem que os algoritmos do Facebook estão de alguma forma a utilizar a distribuição demográfica atual desses empregos como critério, que muitas vezes diferem por razões históricas.  (Os investigadores não foram capazes de discernir o porquê disso, porque o Facebook não diz como o seu sistema de distribuição de anúncios funciona.) “O Facebook reproduz essas distorções quando entrega anúncios, embora não haja nenhuma justificativa de qualificação”, diz Aleksandra Korolova, uma professora assistente da USC, que foi coautora do estudo com John Heidemann e com o seu orientador de doutoramento, Basileal Imana.

O estudo fornece as evidências mais recentes de que o Facebook não resolveu os seus problemas de discriminação de anúncios desde que o ProPublica  trouxe o problema à luz em outubro de 2016 .  Na ocasião, a ProPublica revelou que a plataforma permitia que anunciantes de oportunidades de emprego e moradia excluíssem determinados públicos caracterizados por atributos como género e raça.  Esses grupos recebem proteção especial sob as leis dos Estados Unidos, tornando essa prática ilegal.  Demorou dois anos e meio e vários confrontos legais para que o Facebook  finalmente removesse esse recurso.

Mas, alguns meses depois, o Departamento de Habitação e Desenvolvimento Urbano (em inglês, HUD) dos Estados Unidos abriu um novo processo, alegando que os algoritmos de entrega de anúncios do Facebook ainda excluíam o público de anúncios imobiliários sem que o anunciante especificasse a exclusão.  Uma equipa de investigadores independentes, incluindo Korolova, liderada por Muhammad Ali da Northeastern University e Piotr Sapieżyński,  corroborou essas alegações uma semana depois . Descobriram, por exemplo, que as casas à venda estavam a ser mostradas com mais frequência para utilizadores brancos e as casas para alugar estavam sendo mostradas com mais frequência para utilizadores minoritários.

Korolova queria revisitar a questão com a sua última auditoria porque o ônus da prova para a discriminação no trabalho é maior do que para a discriminação imobiliária.  Embora qualquer distorção na exibição de anúncios com base em características protegidas seja ilegal no caso de habitação, a legislação trabalhista dos Estados Unidos considera justificável se a distorção for devido a diferenças de qualificação legítimas.  A nova metodologia controla esse fator.

“O projeto da experiência é muito clara”, diz Sapieżyński, que não esteve envolvido no último estudo. Embora alguns possam argumentar que os vendedores de carros e joias realmente têm qualificações diferentes, este refere que as diferenças entre entregar pizza ou mantimentos são insignificantes.  “Essas diferenças de género não podem ser justificadas por diferenças de género nas qualificações ou pela falta delas”, acrescenta.  “O Facebook não pode mais dizer que [isso é] defensável por lei”.

O lançamento desta auditoria ocorre a meio de um dos maiores escrutínios do trabalho de enviesamento da Inteligência Artificial (IA) do Facebook.  Em março, a MIT Technology Review americana publicou os resultados de  uma investigação de nove meses sobre  o departamento de Responsabilidade de IA da plataforma, que descobriu que a equipa, formada pela primeira vez em 2018, havia negligenciado o trabalho em questões como amplificação algorítmica de desinformação e polarização por causa de seu enfoque míope no viés de IA.  O Facebook publicou no seu blog  logo depois, enfatizando a importância desse trabalho e dizendo em particular que a rede social procura “entender melhor os erros potenciais que podem afetar nosso sistema de anúncios, como parte de nosso trabalho contínuo e mais amplo para estudar a justiça algorítmica em anúncios”.

“Tomamos medidas significativas para abordar questões de discriminação em anúncios e temos equipas trabalhando na justiça dos anúncios hoje”, disse o porta-voz do Facebook Joe Osborn num comunicado.  “O nosso sistema leva em consideração muitos sinais para tentar mostrar às pessoas anúncios nos quais estarão mais interessadas, mas entendemos as preocupações levantadas no relatório … Continuamos a trabalhar em estreita colaboração com a comunidade de direitos civis, reguladores e académicos sobre esses assuntos importantes”.

Apesar dessas afirmações, no entanto, Korolova diz que não encontrou nenhuma mudança perceptível entre a auditoria de 2019 e a atual no que diz respeito à forma como funcionam os algoritmos de entrega de anúncios do Facebook.  “Dessa perspectiva, é realmente decepcionante, porque trouxemos isso à atenção deles há dois anos”, refere.  Também se ofereceu para trabalhar com o Facebook para resolver esses problemas.  “Não tivemos resposta. Pelo menos comigo, não entraram em contato”.

Em entrevistas anteriores, a empresa disse que não foi possível discutir os detalhes de como estava a trabalhar para mitigar a discriminação algorítmica no seu serviço de anúncios por causa de litígios em andamento.  A equipa de anúncios disse que o seu progresso foi limitado por desafios técnicos.

Sapieżyński, que já realizou três auditorias da plataforma, diz que isso não tem nada a ver com o problema.  “O Facebook ainda não reconheceu que existe um problema”, refere. Enquanto a equipa resolve os problemas técnicos, acrescenta, há também uma solução provisória fácil: poderia desativar a segmentação de anúncios algorítmica especificamente para anúncios imobiliários, emprego e empréstimo sem afetar o resto do serviço.  É realmente apenas uma questão de vontade política, defende.

Christo Wilson, outro investigador da Northeastern que estuda o viés algorítmico, mas não participou da pesquisa de Korolova ou Sapieżyński, concorda: “Quantas vezes os investigadores e jornalistas precisam encontrar esses problemas antes de simplesmente aceitarmos que todo o sistema de segmentação de anúncios está partido?”

Nossos tópicos