
Inteligência Artificial nas empresas: conformidade ou consequência?
O entusiasmo pela inovação não pode substituir o dever de prudência. A IA pode ser uma aliada estratégica — mas apenas se for bem integrada, monitorizada e compreendida.
A Inteligência Artificial (IA) entrou nas empresas com promessas de eficiência e inovação. Contudo, essa adoção acelerada nem sempre é acompanhada da devida reflexão. A principal ameaça da IA é a falsa sensação de controlo que pode transmitir. É precisamente nesse ponto que muitas organizações se expõem ao risco.
Na prática, é frequente ver empresas a integrar soluções de IA sem compreenderem como funcionam, que dados utilizam, com que grau de autonomia operam ou que consequências podem gerar. Adquirem ferramentas externas “chave-na-mão”, assinam contratos de licenciamento pouco claros, confiam na reputação do fornecedor e esperam que tudo decorra sem incidentes. No entanto, quando surgem problemas — como uma decisão injusta num processo de recrutamento, um erro na avaliação de risco de crédito ou uma falha num sistema de controlo de acessos —, nem sempre há respostas preparadas. Quem é responsável? O fornecedor do software? O programador? A empresa que o utiliza? E como justificar, perante um cliente ou colaborador, uma decisão tomada por um “algoritmo” cuja lógica ninguém consegue explicar?
Estes casos já ocorrem – e vão aumentar – à medida que a IA se tornar mais presente nas decisões quotidianas das organizações. O novo Regulamento Europeu da Inteligência Artificial (AI Act), aprovado em 2024 e com entrada em vigor progressiva até 2026, surge precisamente como resposta a estes riscos. O diploma impõe regras rigorosas para sistemas classificados como “de alto risco” — como os usados em recursos humanos, saúde, finanças ou segurança — e exige avaliações de risco, documentação técnica, supervisão humana, transparência, entre outras obrigações. Não se trata de um mero “checklist jurídico”: são deveres substantivos que implicam mudanças reais na forma como as empresas selecionam, implementam e monitorizam tecnologia.
O maior erro, neste contexto, é assumir que estas obrigações se aplicam apenas aos gigantes tecnológicos ou a startups especializadas em IA. Qualquer empresa que utilize sistemas de inteligência artificial — seja numa plataforma de recrutamento, num chatbot de atendimento ou num software de produtividade — pode estar a operar com ferramentas de alto risco, sem o saber. E pode já estar a violar normas em vigor, como o Regulamento Geral sobre a Proteção de Dados (RGPD), que proíbe decisões exclusivamente automatizadas em determinados contextos, impõe obrigações de explicabilidade e determina princípios de minimização e segurança da informação.
É aqui que a falta de diligência se transforma numa vulnerabilidade concreta. As empresas devem conhecer os sistemas que utilizam, os seus propósitos, o grau de autonomia que comportam e a base legal que os sustenta. É essencial identificar os dados pessoais tratados, garantir o cumprimento do RGPD, avaliar a transparência dos algoritmos, rever cuidadosamente os contratos com fornecedores e assegurar uma supervisão humana adequada. E, acima de tudo, investir na capacitação das equipas — porque a ignorância não isenta: apenas fragiliza.
Ainda há quem acredite que, ao utilizar software de terceiros, a responsabilidade recai exclusivamente sobre os fornecedores. Mas essa perceção é não só errada como perigosa: o AI Act impõe também obrigações a quem utiliza a tecnologia. E a responsabilidade não pode ser contratualmente delegada sem garantias de controlo efetivo.
Por isso, não basta adquirir tecnologia. É necessário compreendê-la, avaliar os riscos, implementar medidas internas e manter uma postura crítica e informada. O entusiasmo pela inovação não pode substituir o dever de prudência. A IA pode ser uma aliada estratégica — mas apenas se for bem integrada, monitorizada e compreendida. Caso contrário, corre o risco de se transformar numa fonte de litígios, prejuízos reputacionais e financeiros.
As empresas que, desde já, investirem numa estratégia de IA responsável, preventiva e juridicamente sustentada estarão melhor posicionadas não apenas para cumprir a lei, mas também para conquistar a confiança de clientes, parceiros e investidores. A regulação está a apertar — e com razão. O que está em causa não é apenas o futuro do direito, mas o presente da responsabilidade. E neste campo, ignorar é, mais do que nunca, arriscar.
Assine o ECO Premium
No momento em que a informação é mais importante do que nunca, apoie o jornalismo independente e rigoroso.
De que forma? Assine o ECO Premium e tenha acesso a notícias exclusivas, à opinião que conta, às reportagens e especiais que mostram o outro lado da história.
Esta assinatura é uma forma de apoiar o ECO e os seus jornalistas. A nossa contrapartida é o jornalismo independente, rigoroso e credível.
Comentários ({{ total }})
Inteligência Artificial nas empresas: conformidade ou consequência?
{{ noCommentsLabel }}