O racismo digitalpremium

Mais uma semana, mais um caso de racismo provocado por um sistema automatizado desenvolvido por uma empresa líder de tecnologias digitais.

Desta vez foi o Facebook, que sugeriu “ver mais vídeos de primatas” na sequência de um clip que mostrava um grupo de pessoas negras. Claro que o Facebook é conhecido pelo desrespeito sistemático pelos direitos humanos e por isso já surpreende pouco. Mas está longe de ser o único: os casos de discriminação provocados por sistemas de identificação automática repetem-se constantemente e deixam poucas dúvidas sobre a discriminação deliberada que ocorre nas grandes empresas de tecnologia americanas.

Tudo isto, convém notar, ocorre em empresas que nascem numa sociedade racialmente diversa e sujeita aos mais conhecidos problemas de racismo quotidiano. Não é por falta de reconhecimento nem de exemplos que estas coisas deixam de acontecer – é, simplesmente, porque as aplicações são desenhadas por homens brancos de classe média alta que estudaram em universidades de elite e simplesmente nunca pensaram na necessidade de representação social. Como tal, treinam as aplicações entre os seus amigos e depois apresentam ao mundo o produto do seu trabalho – produto esse que é tão racista quanto alguns textos banidos em bibliotecas públicas.

Há o velho caso do modelo de etiquetagem de fotografias da Google, que rotulava alguns negros como primatas; há o exemplo do scanner facial do iPhone que não distinguia entre duas faces asiáticas; também o sistema de inteligência artificial da Amazon que discriminava as mulheres candidatas; ou o bot da Microsoft que em menos de 24 horas à solta no Twitter começou a produzir frases anti-semitas; e há também o dispensador de sabonete na Nigéria que não funcionava com pele negra. E depois há os casos mais graves, como o de uma vítima de um falso reconhecimento facial que foi detido por um crime que não cometeu – para além do aumento desproporcionado dos modelos de gestão de recursos policiais que discriminam minorias Há tantos casos provocados pelos sistemas digitais que já não é possível disfarçar a realidade: os sistemas automatizados estão a ser usados como veículo para promover o racismo e a desigualdade.

Quando os casos são descobertos, a reação é sempre a mesma. As empresas pedem desculpa e seguem em frente, sem remorsos nem castigo, até ao próximo crime. Ou então fazem de conta que se preocupam: quando a Google foi confrontada com o problema de etiquetagem das fotos, simplesmente removeu a etiqueta “gorila” do sistema; e, quando quis treinar o sistema com uma base mais abrangente, foi apanhada a oferecer cinco dólares a pessoas negras sem-abrigo para fazer o scan das suas faces para melhor. Simplesmente já não é aceitável que tudo isto continue a ocorrer deste modo. Acima de tudo, não é aceitável que continuemos a tomar como bons os sistemas que promovem mais desigualdade. Como não se cansam de repetir vários investigadores de renome, a inteligência artificial não é inteligente nem é artificial – porque não tem o grau de maturidade necessário e porque é alimentada por humanos que repetem nela os seus estereótipos e preconceitos. Nenhuma tecnologia está preparada para reproduzir fielmente o mundo em que vivemos e negar este facto implica aumentar ainda mais os problemas que o mundo já tem.

Ver mais: Um documentário exemplar no que toca aos casos de racismo provocados pelos sistemas digitais está disponível no Netflix. Coded Bias expõe uma investigação da cientista Joy Buolamwini sobre os preconceitos no algoritmos e mostra bem quão enraizado este problema está na tecnologia.

Assine para ler este artigo

Aceda às notícias premium do ECO. Torne-se assinante.
A partir de
5€
Veja todos os planos