Os algoritmos públicos devem ser públicos

É crucial criar mecanismos que reduzam a incidência de erros em algoritmos de políticas públicas e que garantam que a tecnologia sirva o público de forma justa e eficiente.

Na universidade onde trabalho, durante as entrevistas de seleção para a nossa licenciatura em Gestão, até recentemente uma das minhas perguntas habituais era: “Se, após esta entrevista, a fada da tecnologia te oferecesse qualquer inovação tecnológica à tua escolha, qual seria?“. A única restrição é que a tecnologia escolhida deve ser realista e aplicável num negócio. A pergunta funcionava como um desbloqueador de conversa, e mais importante do que a resposta, eram as discussões sobre as implicações práticas, restrições e trade-offs de diferentes tecnologias ou ideias de negócio. No entanto, curiosamente, uma resposta bastante comum era “um algoritmo que tome decisões por mim e que me permita concentrar o meu trabalho em coisas mais interessantes”.

É uma resposta bastante compreensível. Qualquer trabalho tem uma parte muito significativa de tarefas repetitivas, aborrecidas, e pouco interessantes (em parte, é por isso que nos pagam). Estes jovens confiam que os algoritmos podem ajudar a tomar boas decisões, ao ponto de estarem dispostos a delegar partes importantes das suas vidas a código ou à inteligência artificial. De facto, como mostram Jennifer M. Logg, Julia A. Minson e Don A. Moore em “Algorithm appreciation: People prefer algorithmic to human judgment”, um artigo publicado em 2019 na Organizational Behavior and Human Decision Processes, numa série de experiências controladas foi observado que não-especialistas tendem a seguir o conselho de um algoritmo em vez de outra pessoa.

Esta confiança encontra-se igualmente na administração pública. Os governos, pressionados pela necessidade de reduzir custos e de lidar com uma gestão pública cada vez mais complexa, têm recorrido a algoritmos em várias áreas de políticas públicas. Ryan P. Kennedy, Philip D. Waggoner e Matthew M. Ward, no trabalho “Trust in Public Policy Algorithms”, publicado em 2022 no Journal of Politics, mostram através de experiências controladas que existe um elevado nível de confiança nos algoritmos de políticas públicas, mesmo com informação limitada sobre como estes funcionam.

Contudo, esta confiança nem sempre é justificada. Por exemplo, esta semana voltou às notícias o escândalo no Reino Unido envolvendo o programa informático Horizon, uma ferramenta de contabilidade usada pelos correios britânicos. Erros no código deste programa levaram à condenação injusta de centenas de trabalhadores, incluindo penas de prisão. Apesar de investigações, o Estado não compensou as vítimas deste caso de forma apropriada, como realçou o programa de televisão desta semana que trouxe o caso de volta às notícias.

Noutro exemplo, na Austrália, o programa governamental “Robodebt”, destinado a identificar fraudes no sistema de segurança social, acabou por gerar falsas notificações de dívidas para centenas de milhares de cidadãos, com custos sociais elevados. Estes dois exemplos mostram os riscos associados às tomadas de decisão automatizadas com sistemas opacos e sem supervisão adequada, e que são hoje ainda mais relevantes dada a emergência da “inteligência artificial”.

Embora os algoritmos sejam ferramentas úteis, o seu uso requer cautela e é preciso identificar erros nos algoritmos e ter processos transparentes para lidar com as consequências. O caso britânico, que já leva mais de 20 anos, mostra como isto é complicado de fazer. Torna-se então crucial criar mecanismos que reduzam a incidência de erros em algoritmos de políticas públicas e que garantam que a tecnologia sirva o público de forma justa e eficiente. Uma hipótese a considerar é fazer com que o maior número possível de algoritmos de políticas públicas estejam disponíveis em ‘open source’, de forma a assegurar uma supervisão pública e responsabilidade democrática sobre o uso destas ferramentas.

Noutras palavras, que todos os algoritmos públicos sejam efetivamente públicos.

  • Professor de Economia Internacional na ESCP Business School

Assine o ECO Premium

No momento em que a informação é mais importante do que nunca, apoie o jornalismo independente e rigoroso.

De que forma? Assine o ECO Premium e tenha acesso a notícias exclusivas, à opinião que conta, às reportagens e especiais que mostram o outro lado da história.

Esta assinatura é uma forma de apoiar o ECO e os seus jornalistas. A nossa contrapartida é o jornalismo independente, rigoroso e credível.

Comentários ({{ total }})

Os algoritmos públicos devem ser públicos

Respostas a {{ screenParentAuthor }} ({{ totalReplies }})

{{ noCommentsLabel }}

Ainda ninguém comentou este artigo.

Promova a discussão dando a sua opinião