Acusado por um algoritmo

Se queremos resolver a grave falha sistémica que beneficiou homens brancos durante séculos, também é preciso garantir que a tecnologia não aumenta o perímetro dessas mesmas desigualdades.

Robert Julian-Borchak Williams não é mundialmente conhecido. É um cidadão norte-americano, afrodescendente, que vive no estado do Michigan. Numa quinta-feira de janeiro, Williams estava a chegar a casa, regressando do trabalho e quase a estacionar, quando foi intercetado pela polícia.

Dois agentes apresentaram-lhe um mandato de captura com a sua foto, algemaram-no em frente à mulher e aos filhos e levaram-no sob custódia para a esquadra, na qual passou a noite. A polícia fez-lhe um retrato fotográfico, recolheu amostras de ADN e tirou-lhe as impressões digitais.

Só depois de tudo isto lhe foi revelado o motivo do aparato: Williams teria sido “apanhado” pelas câmaras de vigilância durante um assalto a uma boutique. Um detetive mostrou-lhe duas imagens retiradas das filmagens do assalto… mas havia um problema: o homem captado pelas câmaras, afinal, não era sequer parecido com Robert Julian-Borchak Williams.

Esta história, contada em detalhe pelo The New York Times, é o primeiro relato pormenorizado de um “falso positivo” de uma tecnologia de reconhecimento facial a levar à detenção de uma pessoa inocente. Um algoritmo inquinado analisou as filmagens, pesquisou numa base de dados e deduziu uma falsa acusação.

O reconhecimento artificial tem sido cada vez mais usado de forma irresponsável e pouco transparente.

Há anos que os mais críticos do uso desta tecnologia pela polícia apontam para falhas graves neste tipo de softwares. Não é que não funcionem de todo: o grau de rigor é que é muito superior quando se tratam de caucasianos do que de pessoas negras ou com outras características demográficas.

Isto é mais do que uma desconfiança. Ainda recentemente, esse enviesamento ficou provado em dois estudos feitos pelo MIT e pelo Instituto Nacional de Padrões e Tecnologia, ambos citados pelo mesmo jornal.

Tudo isto, para além de uma grave falha sistémica, é o reflexo da falta de diversidade das equipas que desenvolvem e ensinam estas máquinas. Aqui, falamos desde logo da Amazon, da Microsoft e da IBM, que só na sequência do assassinato de George Floyd é que decidiram suspender o fornecimento de reconhecimento facial às autoridades.

Mas o problema é ainda mais profundo. Entre as cinco maiores tecnológicas dos EUA, somente 3% dos trabalhadores são afro-americanos, em linha com o que acontece na generalidade das empresas de Silicon Valley. Estamos a falar de empresas que desenvolvem produtos usados diariamente por milhares de milhões de pessoas em todo o mundo, incluindo uma boa parte da população portuguesa. Diminuir as desigualdades entre brancos e negros também passa por aqui.

A falsa acusação de um algoritmo a Robert Julian-Borchak Williams tem de estar na mente de todos quando o assunto é implementar tecnologia. Sobretudo, tecnologia tão importante (e perigosa) como a do reconhecimento facial. Nesta fase, adotá-la não é um passo em frente na evolução tecnológica e civilizacional. É dar um enorme passo atrás no esforço de diminuição das desigualdades entre cidadãos para o qual todos devemos contribuir.

A 2 de janeiro deste ano, antes da pandemia chegar à Europa, aproveitei esta mesma coluna para fazer um apelo:

  • “2020 vai ser um ano político ocupado, mas era bom que os nossos deputados pudessem analisar os riscos do reconhecimento facial com seriedade e atenção. Com urgência, as vantagens e desvantagens do reconhecimento facial devem ser pesadas na balança, sob pena de que os principais receios se convertam em factos consumados.”

Já não são meros receios. São factos consumados. O reconhecimento facial não está pronto para uma adoção massiva, ainda mais num momento em que se debate a nível mundial como garantir que cidadãos afrodescendentes e minorias têm os mesmos direitos que a população branca e mais privilegiada.

O caso relatado é ainda um exemplo de como a tecnologia que desenvolvemos nem sempre se propõe a resolver problemas. Por vezes, é ela própria que os vem criar.

PS: O reconhecimento facial não é, de todo, o maior problema que afeta as comunidades afrodescendentes. Sou branco e privilegiado e não tenho qualificações para aqui os abordar todos. Mas acredito que, se queremos resolver a grave falha sistémica que beneficiou homens brancos durante séculos, é também preciso garantir que não se aumenta o perímetro dessas mesmas desigualdades, como acontece com o reconhecimento facial neste exemplo, ou com o uso de tecnologia semelhante pela China para oprimir as minorias muçulmanas no país.

(Nota: Subscreva aqui a ECO Tecnologia, a newsletter de tecnologia do ECO)

Assine o ECO Premium

No momento em que a informação é mais importante do que nunca, apoie o jornalismo independente e rigoroso.

De que forma? Assine o ECO Premium e tenha acesso a notícias exclusivas, à opinião que conta, às reportagens e especiais que mostram o outro lado da história.

Esta assinatura é uma forma de apoiar o ECO e os seus jornalistas. A nossa contrapartida é o jornalismo independente, rigoroso e credível.

Comentários ({{ total }})

Acusado por um algoritmo

Respostas a {{ screenParentAuthor }} ({{ totalReplies }})

{{ noCommentsLabel }}

Ainda ninguém comentou este artigo.

Promova a discussão dando a sua opinião