“Há casos em que o recurso a IA é um meio mais sofisticado para a prática de crimes”

Até onde vai o direito à própria imagem no mundo digital? Pedro Rebelo Tavares, associado sénior de Propriedade Intelectual e Privacidade da PRA – Raposo, Sá Miranda & Associados explica.

Milhões de imagens e vídeos partilhados online estão a alimentar algoritmos de inteligência artificial (IA), muitas vezes sem consentimento. Rostos, vozes e expressões, tudo pode ser transformado em dados para treinar sistemas que posteriormente geram conteúdos realistas. Mas até onde vai o direito à própria imagem no mundo digital? Pedro Rebelo Tavares, associado sénior de Propriedade Intelectual e Privacidade da PRA – Raposo, Sá Miranda & Associados explica, em entrevista ao ECO/Advocatus.

Pode uma IA ser treinada com imagens publicadas nas redes sociais?

A licitude da extração automática de dados (web scraping) dependerá sempre do enquadramento jurídico e do contexto da recolha. Embora as imagens publicadas em redes sociais sejam, em muitos casos, acessíveis publicamente, isso não significa que possam ser livremente utilizadas, nomeadamente para fins de treino de IA. A utilização de fotografias ou outras imagens de terceiros sem consentimento prévio para esse efeito pode configurar, desde logo, uma violação de direitos de autor. O tema levanta também outras questões jurídicas relevantes, como o facto de poder consubstanciar um tratamento de dados pessoais, que em regra carece de consentimento por parte dos titulares desses dados. A Meta, por exemplo, tem defendido possuir um interesse legítimo como fundamento de licitude previsto no Regulamento Geral de Proteção de Dados (RGPD) para proceder a este tratamento sem o consentimento expresso por parte dos utilizadores das suas redes sociais. Contudo, trata-se de um entendimento que não é consensual e que tem sido objeto de críticas.

É legal recriar rostos (ou vozes) de pessoas reais por IA sem autorização dos próprios?

A reprodução de características identificáveis de uma pessoa, como o rosto ou a voz, sem o seu consentimento, para além de ser uma prática em regra contrária ao RGPD, é passível de violar direitos de personalidade, nomeadamente o direito à imagem e à identidade pessoal. Para além disso, em certos contextos de utilização, como o uso de deepfakes para levar a cabo atos de phishing, podemos estar perante ilícitos de natureza criminal.

Embora as imagens publicadas em redes sociais sejam, em muitos casos, acessíveis publicamente, isso não significa que possam ser livremente utilizadas, nomeadamente para fins de treino de IA. A utilização de fotografias ou outras imagens de terceiros sem consentimento prévio para esse efeito pode configurar, desde logo, uma violação de direitos de autor”

Que proteção têm menores, figuras públicas e cidadãos comuns no uso da IA?

Todos os cidadãos beneficiam da tutela geral dos direitos de personalidade e de proteção de dados pessoais. No caso dos menores, existe uma proteção acrescida, exigindo-se consentimento parental e muitas vezes uma ponderação do interesse superior da criança. As figuras públicas têm uma exposição acrescida, mas não perdem o direito à imagem ou à proteção dos seus dados pessoais, admitindo-se apenas uma maior margem de exposição mediática. Este grau de exposição deve, contudo, ser sempre limitado à sua atividade pública, sem nunca afetar o seu direito à reserva da intimidade da vida privada.

Que mecanismos de defesa têm estes utilizadores?

A nossa legislação fornece vários meios e mecanismos de reação a práticas ilícitas relativas à utilização ilícita de conteúdos por ferramentas de IA ou gerados por ferramentas de IA. Existe, a título de exemplo, um processo especial de tutela da personalidade como meio expedito e urgente que poderá ser um mecanismo adequado em algumas destas situações e que permite a integração de uma providência cautelar no próprio processo. Porém, tendo em consideração poderem estar em causa outras infrações que não a direitos de personalidade, designadamente utilizações ilícitas de dados pessoais ou infrações a direitos de propriedade intelectual, como direitos de autor, o tipo de ilícito em causa será sempre o fator determinante para a adequação de cada mecanismo ao caso concreto. Excluindo os casos em que o contexto seja merecedor de tutela penal e para além das ações judiciais comuns de natureza cível, os utilizadores dispõem em abstrato da possibilidade de recurso a medidas cautelares mais céleres para prevenir ou fazer cessar lesões a estes direitos, bem como, no caso dos dados pessoais, da possibilidade de exercício de direitos consagrados no RGPD (nomeadamente o “direito ao apagamento”) e de deduzir queixa à Comissão Nacional de Proteção de Dados (CNPD). Atualmente, a legislação também impõe obrigações às plataformas digitais relativas à remoção de conteúdos ilegais.

Quais os principais riscos jurídicos do uso de imagens por IA em Portugal?

Na perspetiva de quem utiliza essas imagens com propósitos lícitos, um dos riscos prende-se com a falsa sensação de originalidade inerente ao conteúdo gerado, pois existe a possibilidade de o modelo de IA ter sido treinado com conteúdos protegidos por direito de autor e poder reproduzir imagens com elementos reconhecíveis de obras protegidas. Nesta situação podemos estar perante a utilização de uma obra derivada sem autorização do autor original, o que constitui uma infração. Excluindo essas situações, ou mesmo outras em que as imagens possam dar origem a outro tipo de infrações (por exemplo, por incorporarem, de forma inadvertida, marcas ou pessoas reais), o utilizador destas imagens também poderá não conseguir reivindicar a sua autoria, em particular no caso de imagens geradas sem qualquer prova de contribuição humana ou quando os termos e condições de utilização da plataforma através da qual foram produzidas limitem ou condicionem a sua utilização. Este grau de ambiguidade quanto à propriedade intelectual das imagens significa, por exemplo, que uma empresa que utilize imagens de IA para incorporação em projetos comerciais poderá não conseguir garantir os direitos sobre essas imagens e a consequente exclusividade na utilização das mesmas a favor dos seus clientes. A par destes riscos existem ainda riscos derivados de falta de transparência, designadamente riscos éticos e reputacionais, nas situações em que o uso de IA não seja inicialmente declarado e venha a ser posteriormente detetado.

Como a legislação portuguesa está a adaptar-se a esses desafios?

Portugal beneficia diretamente de uma forte tendência vanguardista da União Europeia em matéria de regulamentação jurídica. Já nos referimos aqui ao RGPD, que nos é diretamente aplicável, mas não podemos deixar de mencionar outros diplomas que importam ao tema, como o Regulamento Serviços Digitais (DSA) e o Regulamento Mercados Digitais (DMA). Deixamos para último, pela sua relevância, o Regulamento Inteligência Artificial (AI Act), que estabelece critérios de risco para sistemas de IA e obrigações para todos os intervenientes da cadeia de IA, incluindo normas específicas para IA geradora de conteúdos (como deepfakes) e salvaguardas em vista à transparência e à proteção dos direitos fundamentais. Existem também muitos casos em que o recurso a tecnologias de IA consubstancia apena um meio mais sofisticado para a prática de crimes que já se encontram previstos e tutelados. Refiro-me aos casos de burla, incluindo de burla informática, de difamação ou de falsificação de identidade.

Na perspetiva de quem utiliza essas imagens com propósitos lícitos, um dos riscos prende-se com a falsa sensação de originalidade inerente ao conteúdo gerado, pois existe a possibilidade de o modelo de IA ter sido treinado com conteúdos protegidos por direito de autor e poder reproduzir imagens com elementos reconhecíveis de obras protegidas”

A nossa legislação é suficiente?

A legislação atual fornece uma base muito importante. Mas devemos encarar a questão como uma dialética permanente (e necessária) entre a inovação e a regulação. A complexidade e a velocidade da evolução tecnológica implicam que os problemas que a nossa legislação procura hoje resolver já não serão os mesmos dentro de um ano, ou talvez menos. Esta realidade exige uma atualização e preocupação permanentes por parte do legislador e tem dado origem a uma proliferação de textos legais. Este processo, embora natural, encerra inúmeros desafios práticos, como a implementação nacional das diretrizes que têm vindo a ser desenhadas ao nível europeu nestas matérias – um exercício que não dispensa um elevado nível de formação dos profissionais da área jurídica para a compreensão destas novas tecnologias e factualidades subjacentes.

Quais as medidas preventivas para empresas e indivíduos?

O uso de imagens geradas por IA por empresas e pessoas singulares deve sempre pressupor uma ponderação de risco relacionada ao contexto da sua utilização, uma verificação das condições de utilização da plataforma de IA, nomeadamente quanto à existência de garantias legais quanto aos direitos de utilização das imagens geradas, bem como uma preocupação em nunca usar imagens que possam ter semelhanças com obras protegidas ou indivíduos. Um outro tema transversal às empresas e aos cidadãos em que a prevenção também assume uma enorme importância é o da proliferação de práticas fraudulentas com recurso a IA. Felizmente, assistimos hoje com frequência a ações de sensibilização por parte das forças de segurança e de muitas entidades públicas e até privadas, no sentido de alertar para este tipo de fenómenos. As empresas, em particular, têm-se visto obrigadas a assegurar medidas robustas de segurança da informação e a garantir aos trabalhadores uma formação interna de natureza preventiva que os capacite a reconhecer e evitar eventuais situações prejudiciais. No que respeita a qualquer utilizador de plataformas digitais, a sensibilização para estas temáticas acabará sempre por ser o fator mais importante à prevenção. Os cidadãos estão, por exemplo, cada vez mais conscientes dos direitos que detêm sobre a utilização dos seus dados pessoais. A proliferação das denominadas “fake news” também deu lugar ao surgimento de várias plataformas destinadas à verificação de informação e a que cada um de nós vá tendo também um olhar cada vez mais crítico, ou até um certo ceticismo, relativamente à informação com que nos deparamos na Internet.

Como pode ser feita a retirada de conteúdo via notificação extrajudicial ou medidas cautelares?

A notificação extrajudicial é, tendencialmente, um dos primeiros passos em vista à cessação de uma infração e consiste numa comunicação que pode ser dirigida à plataforma ou ao responsável pela publicação, onde se identifica o conteúdo em causa e se exige a sua remoção com fundamento na infração de um ou mais direitos em concreto, nomeadamente direito de imagem, direito à honra, direitos de propriedade intelectual ou direito à proteção de dados pessoais. Nos casos em que isso não é suficiente, o titular do direito pode requerer ao tribunal o decretamento das providências que entenda necessárias para, no caso concreto, fazer cessar a infração. Com o intuito de assegurar a execução destas providências, o tribunal pode ainda, oficiosamente ou a pedido do requerente, decretar uma sanção pecuniária compulsória aplicável em caso de eventual incumprimento. Importa ressalvar que estas medidas possuem natureza provisória e por isso poderão requerer que seja intentada uma ação principal após o seu decretamento.

Os advogados devem dominar ferramentas como a AdvIA para evitar erros da IA (como citações falsas)?

A literacia tecnológica é cada vez mais essencial em qualquer área e o desenvolvimento de tecnologias assentes em processos de IA veio abrir novas perspetivas ao exercício da profissão. Mas os desafios que esta nova realidade traz são imensos – a adoção destas tecnologias obriga-nos, desde logo, a aprimorar o nosso sentido crítico. A capacidade de discernimento é privativa do ser humano (pelo menos, para já), pelo que estas tecnologias terão de ser vistas como meras ferramentas de trabalho, cujo crivo crítico pelo advogado será vital. Além disso, o advogado deve assumir-se não como mero executor, onde poderá ser substituído pela máquina, mas sim como intérprete da pretensão do cliente e criador da solução jurídica que mais se adequa ao caso concreto. A advocacia é, essencialmente, uma profissão centrada nas pessoas. A empatia e o discernimento humano desempenham e continuarão sempre a desempenhar um papel insubstituível na nossa prática. É essencial encontrar um equilíbrio saudável entre o uso da tecnologia e o apport humano do advogado, sendo este último o maior garante da qualidade do trabalho que entregamos aos nossos clientes.

A literacia tecnológica é cada vez mais essencial em qualquer área e o desenvolvimento de tecnologias assentes em processos de IA veio abrir novas perspetivas ao exercício da profissão. Mas os desafios que esta nova realidade traz são imensos – a adoção destas tecnologias obriga-nos, desde logo, a aprimorar o nosso sentido crítico”

De que forma a PRA se está a adaptar a esta nova realidade da IA?

Posso dar como exemplo a divulgação recente do nosso projeto iGenerator, que conta já com uma equipa particularmente vocacionada para prestar apoio em negócios emergentes onde a tecnologia disruptiva é um fator diferenciador. De um modo mais geral, a IA representa uma oportunidade para prestarmos um melhor serviço aos nossos clientes. Tendo isso em mente, a PRA está a desenvolver um projeto orientado para o desenvolvimento de ferramentas de IA customizadas.

E de que forma a PRA se está a prevenir contra os riscos da IA?

O desenvolvimento e a utilização de ferramentas de IA têm de se pautar por um conjunto de cuidados éticos, jurídicos e técnicos bastante alargado e exigente, para que possamos garantir o cumprimento dos nossos deveres deontológicos, como o sigilo profissional. Em termos globais, existe também uma aposta contínua na formação interna relativa aos riscos associados à IA – inclusivamente numa perspetiva de cibersegurança – e na capacitação para o uso responsável de ferramentas tecnológicas.

Assine o ECO Premium

No momento em que a informação é mais importante do que nunca, apoie o jornalismo independente e rigoroso.

De que forma? Assine o ECO Premium e tenha acesso a notícias exclusivas, à opinião que conta, às reportagens e especiais que mostram o outro lado da história.

Esta assinatura é uma forma de apoiar o ECO e os seus jornalistas. A nossa contrapartida é o jornalismo independente, rigoroso e credível.

Comentários ({{ total }})

“Há casos em que o recurso a IA é um meio mais sofisticado para a prática de crimes”

Respostas a {{ screenParentAuthor }} ({{ totalReplies }})

{{ noCommentsLabel }}

Ainda ninguém comentou este artigo.

Promova a discussão dando a sua opinião