Inteligência Artificial: o instigador de crimes?
Pode a IA ser cúmplice de crimes? Casos recentes e investigações na Europa levantam dúvidas sobre a responsabilidade dos sistemas de IA e os riscos para utilizadores, especialmente em menores.
Pode a inteligência artificial (IA) ser considerada cúmplice, enquanto forma de comparticipação, pela prática de um ilícito criminal? A questão pode parecer paradoxal, uma vez que os sistemas de IA não possuem personalidade jurídica que permita a imputação da responsabilidade penal por meio do regime da cumplicidade. Mas casos recentes demonstram que a resposta exige uma reflexão ponderada.
Em abril de 2025, Adam Raine, jovem norte-americano de 16 anos, suicidou-se após meses de interações com o ChatGPT, que lhe forneceu instruções sobre métodos de enforcamento e se ofereceu para redigir uma nota de suicídio. Já em fevereiro de 2026, uma cidadã sul-coreana de 21 anos foi acusada do homicídio de dois homens em Seul, depois de ter questionado o mesmo sistema de IA sobre a dosagem letal de benzodiazepinas misturadas com álcool.
Mas a factualidade não se circunscreve à esfera do ilícito criminal. Uma investigação da Investigate Europe, publicada em março de 2026, testou sete sistemas de IA, como ChatGPT, Grok, Gemini, Copilot, Meta AI, Claude e Le Chat, em dez países europeus. Em 75% das interações, os sistemas de IA recomendaram casinos ilegais apresentados como plataformas seguras. Particularmente grave é o facto de mesmo quando os sistemas foram informados de que o utilizador era menor de 18 anos, a recomendação de plataformas ilegais não foi inibida. Segundo dados da Yield Security, os operadores ilegais de jogo online geraram 80,6 mil milhões de euros na UE em 2024, correspondendo a 71% do mercado total.
Ora, em Portugal, o art. 6.º do DL 66/2015, de 29 de abril, proíbe o acesso de menores a jogos online, sujeitando os operadores licenciados à aplicação de coimas até 5% do seu volume de negócios quando essa barreira for violada. Assim, caso um menor recorra a este expediente para contornar os mecanismos de verificação de idade implementados por um operador licenciado a operar em Portugal, o próprio operador poderá ver-se exposto a responsabilidade contraordenacional e, em última linha, ser afetado em danos reputacionais.
No plano europeu, dois instrumentos normativos assumem particular importância no combate aos casos identificados na investigação jornalística. O primeiro é o Regulamento 2024/1689, de 13 de junho de 2024, relativo à inteligência artificial (AIA). O segundo é o Regulamento 2022/2065, de 19 de outubro de 2022, relativo ao mercado único dos serviços digitais (DSA).
O AIA, no artigo 5.º, n.º 1, alínea b), proíbe os sistemas de IA de explorar as vulnerabilidades de pessoas ou grupos específicos, designadamente em razão da sua idade. Mas importa destacar que os sistemas de IA objeto da investigação jornalística são sistemas de finalidade geral, não tendo sido concebidos com a finalidade de explorar vulnerabilidades. O art. 55.º do diploma, respeitante a sistemas de finalidade geral, prevê, no entanto, a obrigação de atenuação de riscos sistémicos, sob pena da aplicação de coimas que poderão ascender a 7% do volume de negócios mundial.
Os arts. 28.º, 34.º e 35.º do DSA acrescentam obrigações de proteção de menores e avaliação de riscos, sob pena da aplicação de coimas que poderão ascender a 6% do volume de negócios. Um sistema que, confrontado com a indicação expressa de que o utilizador é menor, persiste na recomendação de plataformas de jogo ilegais, representa uma violação prima facie destas obrigações.
Articulados os dois diplomas, cremos que os fornecedores de sistemas de IA de grande dimensão, que operem em incumprimento simultâneo de ambos os regulamentos, ficam expostos a um risco sancionatório agregado de elevada magnitude.
Os instrumentos legais existem, o problema está no seu cumprimento. Se a culpa in eligendo se encontra cristalizada no passado, a culpa in vigilando permanece suscetível de melhoria. E é aí que reguladores, empresas e cidadãos têm um longo caminho a percorrer.
Assine o ECO Premium
No momento em que a informação é mais importante do que nunca, apoie o jornalismo independente e rigoroso.
De que forma? Assine o ECO Premium e tenha acesso a notícias exclusivas, à opinião que conta, às reportagens e especiais que mostram o outro lado da história.
Esta assinatura é uma forma de apoiar o ECO e os seus jornalistas. A nossa contrapartida é o jornalismo independente, rigoroso e credível.
Comentários ({{ total }})
Inteligência Artificial: o instigador de crimes?
{{ noCommentsLabel }}