A tecnologia ao serviço dos valores

Com a regulamentação proposta para a Inteligência Artificial, a União Europeia mostra que não tem medo de regular em função dos valores sociais nem de exercer o seu poder para o bem comum.

A par de um ambicioso programa de investimento, foi finalmente anunciada a proposta de regulamentação europeia para a inteligência artificial. É ótimo que a União seja a primeira a definir balizas para esta tecnologia, e é melhor ainda que o tenha feito a partir de uma abordagem baseada em valores, com o objetivo declarado de proteger os cidadãos europeus e defender os princípios comuns ao espaço da União.

E o momento em que o faz é também adequado, o que mostra que Bruxelas aprendeu com as asneiras que fez nos últimos anos ao não regular devidamente a atividade de algumas empresas tecnológicas – a década de anarquia que as autoridades ofereceram às plataformas está a terminar e, com ela, vem o reconhecimento da necessidade de alinhamento regulatório para indústrias emergentes. Há claramente aqui a intenção de prevenir danos para o espaço social – o que, como qualquer especialista reconhece, é o maior perigo destas destas novas tecnologias. Esta regulamentação vive neste tempo e por isso foca-se muito nas bases de dados que permitem aplicações de machine learning, mas é de esperar que com o avanço da década o mesmo modelo seja aplicado aos desenvolvimentos da inteligência artificial.

Embora esta regulação parta do princípio de que qualquer legislação pode inibir a inovação, a verdade é que a clarificação das regras vai permitir a criação de clusters competitivos que pode bem lançar algumas empresas europeias para a liderança da IA ética (ou confiável). Se o exemplo do GDPR serve para alguma coisa, é para demonstrar que as opções regulatórias emanadas de Bruxelas acabam por ser imitadas em grande parte do mundo, o que é uma nova fonte de “soft power” para a União e pode representar uma benesse para os seus profissionais.

O primeiro grande elogio a fazer tem a ver precisamente como se apresentou a discussão. Em vez de utilizar classificações técnicas, a Comissão optou por avaliar as tecnologias de IA em função das suas implicações sociais, o que é inovador na abordagem regulatória e tem consequências de longo prazo. Assim, os sistemas banidos são os que apresentam riscos inaceitáveis para a cidadania: classificações sociais (como a China está a fazer), ataques aos direitos humanos (como a China também está a fazer) e manipulações de populações de risco, como crianças.

Os sistemas de alto risco são os que impactam as infraestruturas críticas como os transportes, mas também as relacionadas com a educação, emprego, saúde, justiça e serviços essenciais – e todos estes estão obrigados a um registo numa base de dados europeia e a uma avaliação rigorosa por parte de autoridades competentes. Tudo o resto está classificado como de risco limitado ou mínimo e tem poucas ou nenhumas limitações exceto a transparência.

A criação de organismos de regulação também é excelente, porque obriga as autoridades nacionais a finalmente lidar com estas questões e liberta a Comissão de exercer um controlo centralizado, o que provavelmente tornaria inútil este esforço legislativo. Isto quer dizer que vem aí uma ASAE da inteligência artificial, com poderes de fiscalização do mercado e também de emissão de multas que podem ser muito elevadas em caso de incumprimento.

Este modelo regulatório está, no entanto, longe de ser perfeito. A maior crítica tem a ver com a imensa lista de exceções, que certamente será muito discutida nos próximos meses (especialmente no Parlamento Europeu).

Não são explicitamente proibidas tecnologias de identificação de género e de opção sexual, por exemplo; sistemas de produção de conteúdo, incluindo conteúdo falso, também são permitidos desde que não tenham consequências danosas, o que é excessivamente vago; e há demasiada tolerância para tecnologias biométricas e de reconhecimento de emoções, que continuam a ser permitidas ao vivo em determinadas situações de risco.

Para cumprir o seu propósito de defesa de valores, seria bom que esta proposta lidasse com a exigência de não-discriminação e a equidade – até porque nem todos os preconceitos ocorridos na IA são devidos a dados de má qualidade. E também seria importante reconhecer que muitas tecnologias biométricas não querem tanto identificar uma pessoa mas antecipar comportamentos, o que é também demasiado arriscado para ser deixado a uma IA. Mas de todos, o maior problema é o tempo que vai passar até que este modelo se torne obrigatório: vão ser meses de negociações com o Parlamento Europeu e os governos nacionais e será uma vitória conseguir ter a coisa a funcionar antes do fim de 2022. Até lá, é de esperar que muitas empresas aproveitem o vazio legal para treinar os seus programas de inteligência artificial no terreno.

Ler mais: São pouco mais de cem páginas de regulamentação (e mais quinze de anexos), mas são leitura essencial para quem queira trabalhar e entender a Inteligência Artificial. Para além do modelo de trabalho, o documento oferece também um enquadramento técnico exaustivo, com dezenas de definições legais que clarificam do que se está a falar.

Assine o ECO Premium

No momento em que a informação é mais importante do que nunca, apoie o jornalismo independente e rigoroso.

De que forma? Assine o ECO Premium e tenha acesso a notícias exclusivas, à opinião que conta, às reportagens e especiais que mostram o outro lado da história.

Esta assinatura é uma forma de apoiar o ECO e os seus jornalistas. A nossa contrapartida é o jornalismo independente, rigoroso e credível.

Comentários ({{ total }})

A tecnologia ao serviço dos valores

Respostas a {{ screenParentAuthor }} ({{ totalReplies }})

{{ noCommentsLabel }}

Ainda ninguém comentou este artigo.

Promova a discussão dando a sua opinião