E se um automóvel totalmente autónomo matar alguém, a quem caberia a responsabilidade? Resposta não é linear e advogados assumem que lei precisa de se “atualizar”.
A Inteligência Artificial (IA) está a revolucionar este século. Veio equacionar a forma como encaramos o mundo e até mesmo como habitamos nele. Passamos a ter profissões substituídas a 100% por sistemas de computação, uma “voz” que nos dá o bom dia e coloca a nossa playlist a reproduzir e até automóveis que se movem autonomamente sem necessitar de um humano.
Na área da justiça, Investigadores da Universidade de Chicago desenvolveram uma IA que prevê crimes com uma precisão de 80% a 90%. Como? Através de um algoritmo que funciona a partir do histórico de crimes de uma determinada cidade. Assim, tendo como base os registos, o sistema analisa o tipo de crime, onde aconteceu, assim como data e hora. De seguida, este tipo de IA usa conhecimentos para gerar séries temporais e prever onde e quando os crimes acontecem com mais frequência.
Apesar de todos os benefícios que advêm da IA, nem sempre pode correr tudo como planeado. Num caso hipotético de um crime ser cometido por sistemas de IA autónomos, como por exemplo, um automóvel totalmente autónomo matar alguém, a quem caberia a responsabilidade?
A Advocatus questionou três advogados sobre este tema e a resposta não é linear. O associado sénior da área de Penal da Cuatrecasas, Miguel Coutinho, acredita que se for um veículo totalmente autónomo, “que nem sequer precisou de intervenção humana para iniciar a sua marcha”, a responsabilidade penal do utilizador ou proprietário poderá ser excluída, “sob pena de se estar a punir sem culpa ou formação de vontade”. “Isso não significa, porém, que não possa haver responsabilidades a outro nível, designadamente civil, para atribuição de indemnizações a eventuais lesados”, acrescentou.
Mas as diversas condicionantes e variáveis a ter em conta levam a que o advogado Dantas Rodrigues acredite que não se pode “prescindir da análise casuística das provas que eventualmente se venham a produzir”.
“Ora, a IA é desenvolvida a partir de algoritmos trabalhados pelo humano, pelo programador, este profissional enquanto ser humano é condicionado também pela subjetividade e poderá cometer erros. Por outro lado, o proprietário do automóvel poderá, também, ter incorrido em erro de manuseamento e ter alterado alguma das funcionalidades anteriormente programadas”, notou.
O sócio da Dantas Rodrigues & Associados não descarta ainda a responsabilidade de outras entidades, dando como exemplo o “caso de estradas mal construídas, obstáculos não sinalizados e outras situações que possam ter potenciado o acidente”.
Também Tiago Ponces Carvalho, coordenador da área de Penal, Sancionatório e Compliance da Andersen, defende que será demasiado cedo para se atribuir responsabilidade ao “próprio ente de IA”. “Ou seja, pelo menos por ora, a responsabilidade do veículo autónomo per se só poderá vir a pensada no âmbito de um modelo de imputação se aquele vier a ser capaz de determinar todas as suas ações, sem necessidade de um ser humano controlar a respetiva direção. O que igualmente pressupõe que os agentes inteligentes comecem a ser dotados de valores morais, semelhantes aos dos seres humanos”, disse.
Para o advogado, sem prejuízo do risco que pode levar a um possível desincentivo à criação e inovação, o modelo mais “consentâneo” com a realidade atual será o da atribuição de um dever de garante ao produtor, e, em consequência, a respetiva responsabilização, por omissão, “quando se registe a violação de um dever objetivo de cuidado”.
“Com uma especial cautela: se um comportamento danoso provocado por um veículo não for previsível aquando da respetiva produção ou programação, então a responsabilidade não deverá ser imputada ao produtor”, acrescentou. Tiago Ponces Carvalho relembrou ainda que o legislador português ainda não tomou posição, contrariamente ao que já acontece na Alemanha, no que diz respeito à questão da responsabilidade do produtor.
Os impactos da IA em Direito Penal
O aparecimento, expansão e desenvolvimento da IA tem impacto positivo nas mais diversas áreas da sociedade. “Contribui para cuidados de saúde melhorados, sistemas de transporte mais fiáveis, produtos e serviços mais personalizados, informação e educação mais acessíveis ou até locais de trabalho mais seguros, entre outras coisas”, referiu Miguel Coutinho.
E o impacto da IA não passa ao lado também nas áreas de direito e em particular na de Penal. Positivamente, o advogado Dantas Rodrigues destacou a mais-valia que poderá ser no âmbito da investigação criminal, ainda que a “sua aplicação numa fase de julgamento já terá de ser vista com muita cautela”.
Já Tiago Ponces de Carvalho sublinhou a “capacidade de superação da mente humana”, destacando a “hermenêutica jurídica” e o “alcance de novos princípios” que germinam no campo do Direito Penal, como o da “legalidade digital” e o da “ética digital”, “cujo desenho começou já a ser tracejado pelo Parlamento Europeu, como limites intransponíveis no Direito Penal, visando impedir que o Estado-julgador utilize o produto da privacidade mental do arguido, obtido na convergência entre homem e máquina (teoria da mente humana estendida), para efeitos de incriminação”.
“Outro impacto positivo decorre dos modernos, falo em termos de legislação portuguesa, programas de Compliance, que, nos últimos anos, conheceram uma assinalável extensão que alcançou o Direito Penal. Regista-se, neste âmbito, um endurecimento dos programas de Compliance, com a implementação de mecanismos mais fortes e agressivos de deteção, denúncia, investigação, punição, e mesmo de publicidade dessa punição, cuja eficácia vem sendo potenciada, logicamente, pela digitalização”, acrescentou o advogado da Andersen.
Mas estes sistemas de IA também podem ter consequências. Recentemente, cientistas da computação que ajudaram a construir as bases da tecnologia de IA alertaram para os seus perigos, embora não concordem sobre quais são ou como evitá-los. A sobrevivência da humanidade está ameaçada quando “coisas inteligentes nos podem enganar”, alertou Geoffrey Hinton, considerado o “padrinho” da IA.
O impacto negativo na área de penal pode passar, segundo Miguel Coutinho, pelos “deepfakes, de veículos ou drones sem condutor usados como armas, de novas formas de ciberataques, de acesso indevido a dados pessoais, de burlas com manipulação de movimentos faciais e de voz, de disseminação de informação falsa para difamação ou calúnia ou, até, de novas formas de manipulação do mercado de valores mobiliários”.
O associado sénior da Cuatrecasas sublinhou ainda os crimes cometidos no metaverso e da tutela de bens jurídicos associados à avatares. “Caberá ao direito penal atualizar-se para dar resposta a todas estas novas realidades”, disse.
“Com efeito, existem muitas dúvidas, se uma solução justa poderá ser alcançada por uma máquina, ao contrário dos seres humanos que são dotados de intuição, emoção e equidade, que são elementos que, por vezes, podem ser muito importantes no processo decisório e para se chegar a uma decisão justa”, considerou Dantas Rodrigues, que coloca em causa se a IA será capaz de responder a questões como a intencionalidade e vontade do ato criminoso.
Ao nível da execução das penas e medidas de segurança e concessão de liberdade condicional, o sócio da Dantas Rodrigues & Associados questiona se a IA será capaz de analisar e avaliar as situações de incapacidade e decidir entre pena de prisão ou internamento, bem com quando solicitada liberdade condicional, uma máquina será capaz de verificar se o condenado está em condições de sair da prisão.
Tiago Ponces de Carvalho sublinhou ainda outras “colisões” entre a IA e Direito Penal, como no Direito Penal da Medicina. “Se a IA possui um grande potencial de aplicação na Medicina, até no prognóstico de doenças futuras e de suicídios, é, também, em razão da sensibilidade dos respetivos dados que aqui são tratados, um fator de preocupação pelas “típicas” opacidade e imprevisibilidade da IA, em associação com a tomada de decisão num setor particularmente sensível, expondo, a um mesmo tempo, pacientes e respetivos dados, a par com complexas questões de responsabilidade por danos causados por prática médica operada, ou coadjuvada, por sistemas de IA”, acrescentou.
Mas afinal o que é preciso mudar na atual legislação penal nesta matéria? Dantas Rodrigues garante que é “prematura avançar com premonições”. “O Direito anda a reboque da sociedade e só a partir do facto consumado é que o legislador irá discutir as alterações, logo, é prematura avançar com premonições”, disse.
Ainda assim, alguns advogados deixaram algumas notas de possíveis alterações. Miguel Coutinho acredita que é necessário restringir e regular a comercialização e uso de produtos inteligentes, tendo em conta os setores a que se dirigem. O objetivo é prever os limites à sua comercialização, como as armas autónomas, e impor deveres de supervisão e monitorização do seu funcionamento, por parte do fabricante, “para precaver e evitar acidentes, ou até levar a que os produtos tenham de ser retirados de circulação quando se chegue à conclusão que criam riscos incontroláveis”.
“Depois é que vem a reação penal e, aí, uma questão muito relevante a ponderar é a eventual responsabilização do produtor ou do programador quanto a danos ou perigos que sejam causados por produtos inteligentes, designadamente em casos de atentados à segurança por ar, água ou caminho-ferro, infrações de regras de segurança e condições de trabalho, perturbação de serviços, entre outros. Nessas situações, e ainda que se possa argumentar que não houve intenção, pode justificar-se ainda assim a responsabilidade por negligência ou mesmo omissão”, sugere o associado sénior da Cuatrecasas.
Também Tiago Ponces de Carvalho considera que é necessário repensar os modelos de imputação penal das pessoas coletivas no sentido de os tornar “aptos” para “fazer frente” aos casos que envolvem IA.
“Parece-me que as características de imprevisibilidade e de autonomia inerentes à IA terão de ter especiais atenções ao nível da imposição de deveres especiais de vigilância e monitorização do produto. Assim, também ao nível da regulação e da segurança computacional (sandbox), exige-se do lado do legislador, pelo menos em situações em que estejam em causa modelos mais complexos de IA, como as deep learning machines, a sujeição da regulação a um “princípio de revisibilidade” apto a acompanhar o grau de conhecimento do produto”, acrescentou.
E como a IA afeta a área de Processo Penal?
Já na área de Processo Penal, Dantas Rodrigues considera que o impacto poderá ser “muito positivo” e poderá “diminuir substancialmente” o tempo médio de duração dos inquéritos criminais, utilizando-se a IA na investigação criminal, desde logo, para localizar criminosos, analisar vestígios, bem como pessoas desaparecidas. “Detetar mais facilmente os crimes e seus autores, designadamente no caso de cibercrime, nos crimes sexuais, e nos crimes económicos”, referiu.
Apesar de partilhar da posição do colega, Miguel Coutinho alerta para os perigos que daí possam advir, seja através do uso de algoritmos para deteção de comportamentos, com possível “devassa de direitos fundamentais” e a “violação da presunção de inocência”, seja através de pesquisas em ambientes informáticos ou ferramentas para reconhecimento facial ou de voz ou para antever futuras condutas.
“A facilidade com que esse tipo de abordagens pode gerar situações de discriminação e violação de direitos fundamentais é imensa. Aliás, tais preocupações motivaram uma resolução por parte do Parlamento Europeu, em 2021, sobre o uso por parte das autoridades policiais e judiciárias de ferramentas de inteligência artificial, com vários apelos a que, pelo que sei, o legislador português ainda não deu resposta”, explicou o advogado.
Também Tiago Ponces de Carvalho sublinha que poderão “sobrevir” impactos mais negativos, em especial no que toca à proteção de dados pessoais.
“Tão pouco olvidamos que um dos maiores perigos que o processo penal enfrenta é a utilização de algoritmos preditivos discriminatórios na administração da justiça penal, o que se adensa na questão da pena, e que, no limite, assentam numa ideia de substituição do juiz, que administra a Justiça em nome do povo, pelo robot, que administra a justiça com base naqueles algoritmos, e cujos interesses que prossegue se equacionam, pelo menos por ora, de preocupante opacidade”, disse.
O coordenador da área de Penal, Sancionatório e Compliance da Andersen explicou também que a IA é já utilizada pelo poder judicial em vários países do mundo, inclusivamente para sustentar decisões sobre a prisão preventiva, sentenças, cálculo das probabilidades de reincidência e a determinação da liberdade condicional, na gestão da jurisprudência e na disponibilização de um acesso facilitado à justiça.
“É inequívoco que a tecnologia utilizada no âmbito do inquérito criminal permite, hoje em dia, chegar a regiões impensáveis de alcance há meia dúzia de anos, a verdade é que muito concretamente a utilização da IA pelas autoridades policiais implica uma série de riscos potencialmente elevados e, em alguns casos, inaceitáveis, para a proteção dos direitos fundamentais dos indivíduos, designadamente decisões opacas, diferentes tipos de discriminação e erros inerentes ao algoritmo subjacente, que podem ser reforçados por ciclos de resposta, bem como riscos para a proteção da privacidade e dos dados pessoais, a proteção da liberdade de expressão e de informação, a presunção de inocência, o direito a um recurso efetivo e a um julgamento justo, bem como, inclusivamente, riscos para a liberdade e a segurança das pessoas”, acrescentou.
Questionados sobre a possibilidade de a IA vir a substituir um juiz ou até mesmo um advogado num futuro próximo, todos acreditam que não, pelo menos para já.
“Não creio que num futuro próximo venha a ser uma realidade, poderá auxiliar, mas não substituir. A IA irá permitir ao advogado reduzir o tempo na análise tanto das provas como do estudo do Direito subjacente e dará maior rigor jurídico na tomada de decisões”, considerou Dantas Rodrigues.
Também Miguel Coutinho não acredita que um robô possa substituir um juiz e vir a proferir sentenças com base em algoritmos, uma vez que a regra em processo penal é a de que a prova é apreciada livremente pelo julgador, de acordo com as regras da experiência comum e aquilo que apreende através da audição de testemunhas. O associado sénior da Cuatrecasas defende que isso poderia até descredibilizar a justiça, retirar legitimação ao poder judicial e tem o risco de se transferir a autoridade judicial do Estado para as entidades privadas que programam os algoritmos.
“Não obstante, a advocacia e a justiça não podem ignorar que a IA se pode tornar um dos seus mais importantes assistentes ou adjuntos, seja para organização das peças processuais, seja para tratamento das próprias provas do processo, ou até para pesquisas de jurisprudência e doutrina, contribuindo para processos mais ágeis e decisões cada vez mais rápidas. Nos chamados mega processos, então, essas ferramentas são indispensáveis”, afirmou.
Mas o que é certo é que os robôs começam a dar os primeiros passos autonomamente. Em fevereiro, o primeiro advogado robô do mundo estreou-se em tribunal e defendeu o seu primeiro cliente. Este foi o primeiro caso em que a IA ocupou o lugar de um humano na defesa de um caso em tribunal. O robô, criado pela startup DoNotPay, deu instruções ao réu sobre a melhor forma de argumentar contra uma multa por excesso de velocidade.
Mas como foram dadas as instruções? Fácil, o robô esteve presente num telemóvel e enviou avisos através de um auricular ao réu, que concordou que apenas diria o que a IA lhe disse. Este foi um caso piloto que serviu para testar os serviços da DoNotPay.
Futuro é desafiante
Num mundo em constante evolução, também os desafios são constantes. Com a IA a marcar cada vez mais a atualidade, a advocacia e o próprio setor da justiça têm vários desafios pela frente.
“Vejo como principais desafios de uma política de justiça centrada no espaço da infoesfera a governança e a regulação do digital. Neste último caso, pelo menos, optando por intervir em situações que mais intensamente ponham em causa direitos fundamentais, como acontece no caso das big learning machines e no caso dos algoritmos preditivos nas situações de sentencing”, disse Tiago Ponces de Carvalho.
No que concerne à advocacia, o advogado acredita que adequar-se aos novos tempos e modernizar a sua prática vai “muito além” de usar boas ferramentas tecnológicas. “Há que usá-las da melhor maneira e incluí-las no dia-a-dia. O que passa por padronizar e sistematizar decisões jurídicas até automatizar as tarefas mais simples do quotidiano”, acrescentou.
Por fim, no âmbito das sociedades de advogados, Tiago Ponces de Carvalho defende que se espera a automação de algumas tarefas através da tecnologia RPA (Robotic Process Automation). “Esta tecnologia assenta na utilização de robôs capazes de capturar dados e interagir com programas, sites e sistemas, realizando diversos tipos de tarefas com as vantagens de funcionamento 24 horas por dia e com margem de erro próxima a zero. O recurso a estes sistemas permitirá uma considerável redução de custos, ao mesmo tempo se alcançando uma maior produtividade e rentabilidade, a par de uma maior eficácia dos serviços prestados”, explicou.
Por outro lado, Dantas Rodrigues aponta que o principal desafio da advocacia é acompanhar o desenvolvimento da IA em prol de um melhor trabalho e prestação de um melhor serviço tanto ao cliente como à comunidade.
“A Justiça tem de conseguir que a introdução da IA seja feita de forma adequada a otimizar os tempos de justiça, e, a permitir mitigar danos colaterais resultantes de decisões judiciais erradas sejam por erro na apreciação e valorização da prova, sejam desconformes com as normas jurídicas”, notou.
Por fim, Miguel Coutinho também defende que não há forma como travar a IA e é necessário uma adaptação a ela ou correm o risco de se tornar “obsoletos” e “ineficientes” no setor. “Mas isso também implica que, de futuro, e uma vez que o acesso às tecnologias e ferramentas requer investimentos avultados, poderão gerar-se cada vez mais desigualdades no acesso à justiça e no exercício e tutela de direitos. Faz, assim, todo o sentido debater formas de democratização da inteligência artificial, seja a nível do acesso às tecnologias, seja a nível da educação e formação, para uma maior inclusão de todos”, concluiu.
Assine o ECO Premium
No momento em que a informação é mais importante do que nunca, apoie o jornalismo independente e rigoroso.
De que forma? Assine o ECO Premium e tenha acesso a notícias exclusivas, à opinião que conta, às reportagens e especiais que mostram o outro lado da história.
Esta assinatura é uma forma de apoiar o ECO e os seus jornalistas. A nossa contrapartida é o jornalismo independente, rigoroso e credível.
Comentários ({{ total }})
Inteligência Artificial abre “lacunas” em Direito Penal. É preciso repensar a lei?
{{ noCommentsLabel }}