![Imagem de Adolfo Mesquita Nunes](https://eco.imgix.net/uploads/2022/02/adolfo-mesquita-nunes-autor.png?w=300&auto=compress,format)
Regulamento IA: Como é que as empresas se devem preparar?
O desafio para as empresas não é apenas cumprir as regras – é para encontrar uma forma de inovar dentro dos limites estabelecidos, mantendo a confiança dos consumidores e a competitividade no mercado.
Como qualquer ferramenta poderosa, a utilização de Inteligência Artificial (IA) exige regras claras. O que é aceitável? O que ultrapassa os limites do admissível? A União Europeia deu um passo decisivo para responder a estas questões com a entrada em vigor do Regulamento (UE) 2024/1689, o chamado Regulamento IA. Este diploma impõe restrições à utilização da IA, especialmente no que toca a práticas que, desde o dia 2 de fevereiro, são consideradas inaceitáveis.
A Comissão Europeia acabou de publicar as Orientações sobre as Práticas Proibidas de IA. Embora não tenham força legal, estas orientações são essenciais para que empresas, governos e cidadãos compreendam onde estão as fronteiras da utilização ética e legal da IA.
De acordo com este e Regulamento e Orientações, o que é que está fora dos limites? O que é que é proibido?
As práticas proibidas pelo Regulamento IA
O Regulamento identifica um conjunto de práticas totalmente proibidas na UE. Estas proibições afetam tanto quem desenvolve IA como quem a utiliza em processos de negócio.
1. Técnicas subliminares, manipuladoras ou enganosas
A IA não pode ser usada para influenciar o comportamento de uma pessoa sem que esta perceba. Sistemas que recorrem a técnicas subliminares (atuam abaixo do limiar da consciência), manipuladoras (induzem escolhas sem controlo do utilizador) ou enganosas (baseadas em informações falsas) estão proibidos. Estão, por exemplo, proibidos sistemas que:
- Manipulem utilizadores sem o seu conhecimento, como chatbots que imitam vozes de familiares para enganar.
- Recorram a truques visuais e linguísticos (dark patterns) para levar os utilizadores a tomar decisões que não pretendiam.
- Utilizem publicidade subliminar impulsionada por IA para condicionar escolhas.
A distinção entre persuasão legítima e manipulação abusiva é um dos aspetos mais críticos do Regulamento e terá um impacto significativo no marketing digital e na interação com consumidores.
2. Exploração de vulnerabilidades
A IA não pode ser usada para explorar crianças, idosos ou pessoas economicamente fragilizadas. Isso significa que práticas como:
- Brinquedos de IA que incentivam crianças a realizar desafios perigosos.
- Assistentes virtuais que induzem idosos a compras desnecessárias.
- Sistemas que promovem produtos financeiros de alto risco a consumidores vulneráveis.
São agora proibidas. As empresas que operam em setores como o retalho, os serviços financeiros ou o entretenimento infantil devem avaliar como os seus sistemas de IA interagem com diferentes públicos e evitar qualquer prática que possa ser interpretada como exploração de vulnerabilidades.
3. Social Scoring
O Regulamento IA proíbe a criação de sistemas de pontuação social, semelhantes ao modelo chinês, onde indivíduos são avaliados com base no seu comportamento ou características pessoais. Estão nomeadamente proibidos:
- Sistemas que atribuem pontuações de “confiabilidade” e restringem o acesso a serviços públicos.
- Modelos que determinam a elegibilidade para crédito ou prestações sociais base em hábitos online irrelevantes.
4. Vigilância preditiva individual e previsão de infrações penais
A IA não pode prever crimes com base exclusiva em perfis ou características pessoais. A proibição visa evitar práticas de discriminação algorítmica e erro judicial. Entre os sistemas banidos incluem-se:
- Sistemas que identificam potenciais criminosos com base na etnia, idade ou histórico familiar.
- Softwares que analisam microexpressões faciais para prever intenções criminosas.
- Modelos preditivos são úteis quando baseados em dados objetivos, mas não podem violar princípios de justiça e presunção de inocência.
5. Extração indiscriminada (Scraping) de imagens faciais
A IA não pode recolher e utilizar imagens faciais de forma massiva e indiscriminada sem consentimento explícito. É assim proibia a atividade de:
- Empresas que recolhem imagens de redes sociais para treinar algoritmos de reconhecimento facial.
- Softwares que analisam gravações de videovigilância para construir bases de dados biométricas.
6. Reconhecimento de emoções no trabalho e ensino
Sistemas que inferem emoções no local de trabalho ou em ambientes educativos sem justificação médica ou de segurança estão proibidos. Não se admite, assim:
- IA que monitoriza expressões faciais de alunos para medir “níveis de atenção”.
- Softwares que analisam emoções dos funcionários para avaliar desempenho ou produtividade.
- Sistemas de recrutamento que eliminam candidatos com base em padrões emocionais detetados por IA.
O Regulamento IA restringe este tipo de uso para evitar excessos de monitorização e invasão da privacidade.
7. Categorização biométrica de características sensíveis
O uso de IA para inferir características sensíveis (etnia, religião, orientação política, orientação sexual, etc.) com base em dados biométricos está proibido. Exemplos:
- Modelos que associam características faciais a estatísticas criminais.
- Plataformas que inferem a orientação política de utilizadores a partir da sua expressão facial.
- Sistemas que utilizam IA para associar padrões vocais a grupos raciais ou religiosos.
8. Identificação biométrica em tempo real para aplicação da lei
O Regulamento IA proíbe a identificação biométrica em tempo real em espaços públicos, salvo exceções muito restritas. São exemplos:
- Sistemas usados por entidades privadas para identificar suspeitos em centros comerciais.
- Vigilância automatizada para monitorizar manifestações políticas.
Como é que as empresas se devem preparar?
Uma organização pode facilmente pensar que não viola nenhuma destas proibições, mas muitas delas exigem um juízo crítico e uma análise mais profunda. Além disso, a empresa tem mesmo a certeza de que está em conformidade? Alguma vez realizou um assessment rigoroso sobre os seus sistemas de IA?
No trabalho que tenho desenvolvido com empresas de diversos setores, tenho reforçado quatro passos fundamentais para uma implementação bem-sucedida da IA:
- Avaliação de risco e conformidade – Revisão dos sistemas de IA para identificar potenciais violações ao Regulamento, garantindo que as práticas adotadas não entram em conflito com as regras.
- Governança de IA – Definição de políticas internas claras para monitorizar e corrigir eventuais desvios, garantindo uma abordagem estruturada e responsável na utilização da IA.
- Formação – Sensibilização das equipas, desde a administração até os desenvolvedores e utilizadores finais, para que compreendam as implicações do Regulamento e consigam detetar riscos antes que se tornem problemas.
- Transparência e explicabilidade – Garantia de que as decisões tomadas com recurso a IA são compreensíveis e justificadas.
A conformidade com o Regulamento IA não é apenas uma questão técnica ou jurídica – exige um compromisso organizacional para integrar a IA de forma ética e sustentável.
Competitividade e segurança?
O Regulamento IA representa um novo paradigma para a adoção da IA na Europa. Mas a grande questão que se coloca agora é: será que estas regras protegem os cidadãos sem comprometer a inovação e a competitividade?
A regulação impõe um conjunto de salvaguardas essenciais, mas também levanta desafios:
- As proibições são suficientemente objetivas? Conceitos como “manipulação” ou “exploração de vulnerabilidades” podem depender de interpretações subjetivas.
- A Europa conseguirá manter-se competitiva? Num cenário onde os EUA e a China adotam uma abordagem mais permissiva, as empresas europeias podem ficar em desvantagem na corrida pela liderança em IA.
Estas são questões que só terão resposta com o tempo. Para já, certo é que o desafio para as empresas não é apenas cumprir as regras – é para encontrar uma forma de inovar dentro dos limites estabelecidos, mantendo a confiança dos consumidores e a competitividade no mercado.
Assine o ECO Premium
No momento em que a informação é mais importante do que nunca, apoie o jornalismo independente e rigoroso.
De que forma? Assine o ECO Premium e tenha acesso a notícias exclusivas, à opinião que conta, às reportagens e especiais que mostram o outro lado da história.
Esta assinatura é uma forma de apoiar o ECO e os seus jornalistas. A nossa contrapartida é o jornalismo independente, rigoroso e credível.
Comentários ({{ total }})
Regulamento IA: Como é que as empresas se devem preparar?
{{ noCommentsLabel }}