Entre algoritmos e responsabilidade: os desafios da Inteligência Artificial no Direito

  • Patrícia Gilvaz
  • 12:34

Importa, por isso, reafirmar um princípio essencial: a utilização de ferramentas tecnológicas não altera a natureza da responsabilidade profissional do advogado.

Não é a primeira, mas a mais recente notícia em que um advogado é acusado pelo Tribunal da Relação de Guimarães de citar acórdãos inexistentes gerados com recurso à Inteligência Artificial (IA) reacendeu a discussão sobre a utilização desta tecnologia por advogados e juízes.

A questão é particularmente relevante num momento em que ferramentas baseadas em IA generativa começam a ser progressivamente incorporadas no trabalho quotidiano de advogados, juristas e magistrados. A sua capacidade para processar grandes volumes de informação, identificar padrões em jurisprudência, apoiar a pesquisa jurídica e auxiliar na elaboração de documentos tem vindo a demonstrar um potencial significativo de ganho de eficiência e produtividade.

Num contexto em que o sistema jurídico, e a sociedade em geral, se tornam cada vez mais complexos e densos, estas ferramentas podem contribuir para tornar o trabalho jurídico mais rápido, estruturado e acessível.

Contudo, são igualmente evidentes os riscos inerentes a uma utilização acrítica destas tecnologias.

Os sistemas de IA generativa operam com base em modelos probabilísticos de linguagem e não em mecanismos de verificação factual. Isto significa que podem produzir conteúdos plausíveis do ponto de vista linguístico, mas factualmente incorretos – a este fenómeno chamamos “alucinação”.

No contexto jurídico, esse risco assume uma dimensão particularmente sensível. A citação de jurisprudência inexistente, a referência a diplomas legais incorretos ou a interpretação inadequada de normas jurídicas pode comprometer não apenas a qualidade técnica do trabalho jurídico, mas também a confiança no próprio sistema de justiça.

O erro fundamental neste caso não reside na tecnologia, mas na incompreensão da sua natureza.

Os modelos de linguagem generativos (LLMs) operam com base em probabilidades estatísticas, e não em mecanismos de verificação factual. O que acontece é que produzem textos que parecem corretos porque a sequência de palavras é estatisticamente provável, e não porque o facto jurídico subjacente existe.

Importa, por isso, reafirmar um princípio essencial: a utilização de ferramentas tecnológicas não altera a natureza da responsabilidade profissional do advogado.

O dever de diligência, rigor e verificação da informação é reforçado. A decisão final sobre o conteúdo de uma peça processual, um parecer jurídico ou um argumento apresentado em tribunal continua, e continuará, a ser exclusivamente humana.

Neste sentido, o verdadeiro desafio não reside em determinar se a Inteligência Artificial deve ou não ser utilizada no setor jurídico. Claro que deve! Basta olhar para a evolução tecnológica ao longo dos anos, e o seu impacto na forma como trabalhamos, para essa discussão se tornar, em grande medida, ultrapassada.

O desafio consiste antes em assegurar que a sua utilização ocorre dentro de um quadro de competência técnica, responsabilidade profissional e literacia digital.

A literacia digital assume aqui um papel central. Compreender os princípios de funcionamento dos sistemas de IA, reconhecer as suas limitações e desenvolver capacidade crítica para avaliar os resultados que produzem torna-se hoje uma competência essencial para todos profissionais.

Sem essa capacidade crítica, corre-se o risco de substituir o rigor jurídico pela aparente eficiência tecnológica.

A prática jurídica sempre assentou em pilares estruturantes como o pensamento crítico, a interpretação normativa e a ponderação de interesses. Longe de tornar estes elementos dispensáveis, a introdução da Inteligência Artificial no setor jurídico torna-os ainda mais indispensáveis. A tecnologia pode apoiar a análise, acelerar processos e facilitar o acesso à informação. Mas não substitui (nem pode substituir) o juízo jurídico.

É por isto que a integração da IA na prática jurídica deve ser encarada não como uma substituição do profissional do Direito, mas como uma ferramenta de apoio que exige, paradoxalmente, níveis ainda mais elevados de rigor, supervisão e responsabilidade.

A Inteligência Artificial pode representar uma das mais importantes inovações na forma como o Direito é praticado e aplicado. Mas o seu verdadeiro valor dependerá sempre da forma como for utilizada.

Porque a tecnologia pode transformar o modo como trabalhamos, mas não dispensa aquilo que sempre esteve no centro da prática jurídica: o pensamento crítico, o rigor técnico e a responsabilidade ética.

  • Patrícia Gilvaz
  • Advogada Associada na LEGALWORKS

Assine o ECO Premium

No momento em que a informação é mais importante do que nunca, apoie o jornalismo independente e rigoroso.

De que forma? Assine o ECO Premium e tenha acesso a notícias exclusivas, à opinião que conta, às reportagens e especiais que mostram o outro lado da história.

Esta assinatura é uma forma de apoiar o ECO e os seus jornalistas. A nossa contrapartida é o jornalismo independente, rigoroso e credível.

Comentários ({{ total }})

Entre algoritmos e responsabilidade: os desafios da Inteligência Artificial no Direito

Respostas a {{ screenParentAuthor }} ({{ totalReplies }})

{{ noCommentsLabel }}

Ainda ninguém comentou este artigo.

Promova a discussão dando a sua opinião