Como detetar ‘deep fakes’ à solta nas redes sociais? “Não basta ver para crer”

Redes sociais estão repletas de vídeos de políticos e celebridades a dizer o que nunca disseram. IA tem tornado cada vez mais difícil distinguir o real da manipulação. Especialista diz o que fazer.

As autoridades nacionais e europeias estão preocupadas com o aumento de deep fakes a circularem nas redes sociais. Estes conteúdos são sobretudo vídeos em que se recorre a inteligência artificial (IA) para manipular a imagem de figuras públicas. Muitos têm finalidades humorísticas, mas nem sempre é assim: alguns podem ser burlas.

Com os avanços mais recentes na IA generativa, é cada vez mais difícil distinguir o real da manipulação. Num deep fake publicado recentemente no Instagram, o ex-primeiro-ministro, António Costa, e atual presidente do Conselho Europeu, surge a cantar A Garagem da Vizinha, do artista Quim Barreiros. A imagem e o som são realistas, mas tal nunca aconteceu.

Há outros políticos no ativo entre as ‘vítimas’, tais como o Presidente da República, Marcelo Rebelo de Sousa; o primeiro-ministro, Luís Montenegro; e o presidente do Chega, André Ventura. A situação já motivou queixas: “Desde que sou primeiro-ministro já apresentei umas três ou quatro queixas porque, de repente, enviavam-me, amigos, intervenções minhas que não eram minhas, mas era a minha cara que aparecia e a minha voz”, denunciou Montenegro em outubro.

A situação também afeta outras figuras públicas, como treinadores de futebol, como Bruno Lage, ou o craque português Cristiano Ronaldo. O principal problema é que o mesmo tipo de técnica pode ser usado para enganar. Um político a fazer uma declaração polémica. Ou um telefonema de alguém que se diz CEO, cuja voz é idêntica ou mesmo impossível de distinguir, abrindo a porta a fraudes, como alertou no ano passado o Centro Nacional de Cibersegurança (CNCS).

“Dentro de muito pouco tempo, [para] nós, seres humanos, seres de hidrogénio e de carbono, vai-nos ser extremamente difícil distinguirmos entre a verdade e a mentira, se consumimos informação só de uma fonte”, declarou no ano passado o contra-almirante António Gameiro Marques, responsável pelo Gabinete Nacional de Segurança. “Gostava que todos vós pensassem no recato das vossas casas, ou quando quiserem, no impacto que isto terá nas democracias“, reiterou.

À luz deste alerta, o ECO contactou Pedro Xavier Mendonça, especialista em cibersegurança e atual coordenador do departamento de desenvolvimento e inovação do CNCS, para conhecer algumas dicas e técnicas que os cidadãos devem saber para melhor identificarem este tipo de conteúdos.

Numa conversa que decorreu em outubro, o responsável lembrou que “o realismo não é necessariamente verdadeiro”. “Tendemos a acreditar naquilo que vemos, porque se parece real, então é porque é real. Temos de nos desligar desse mecanismo. Aplicar na nossa vida online uma regra que se vai aplicando nas empresas, que é a confiança zero”, diz.

Tendemos a acreditar naquilo que vemos, porque se parece real, então é porque é real. Temos de nos desligar desse mecanismo.

Pedro Xavier Mendonça

Coordenador do departamento de desenvolvimento e inovação do CNCS

Assim, um dos primeiros conselhos deixados é verificar sempre tudo. “Sempre que nos fazem um pedido para uma ação crítica, através de telefone ou videochamada, que parece verdadeiro, devemos verificar noutros canais se esse pedido é real. Se nos pedem uma transferência bancária para outro fornecedor, devemos verificar se foi mesmo esse fornecedor que pediu para alterar o IBAN”, diz.

Em suma, “todas as ações sensíveis que impliquem transferências bancárias e partilha de dados sensíveis ou pessoais devem ser verificadas”, alerta Pedro Xavier Mendonça. Esta confiança zero torna-se necessária perante a sofisticação de alguns ataques que chegaram ao conhecimento do CNCS. O especialista fala em “casos ligados a burla” que começam com o “comprometimento do email ou outro contacto profissional” e em que “alguém se faz passar pelo CEO de uma empresa, de forma realista, simulando a voz, convencendo o responsável financeiro a fazer uma transferência bancária para outro IBAN diferente”.

Outra dica deixada pelo especialista, sobretudo no âmbito das redes sociais, é “desconfiar de ofertas demasiado boas e de promoções nas redes sociais feitas por celebridades”. “Ter uma atitude de desconfiança e verificar sempre noutras fontes”, acrescenta. Para criar um deep fake, é preciso treinar o algoritmo com vídeos reais da pessoa em causa, fazendo de celebridades e influenciadores alvos fáceis.

Pedro Xavier Mendonça, responsável do Centro Nacional de CibersegurançaHugo Amaral/ECO

Apesar de a tecnologia estar bastante evoluída, ainda há pistas que os mais atentos poderão encontrar num vídeo e que podem levantar a suspeita de se tratar de um deep fake. Como tal, é importante “procurar pequenas incorreções de imagem”, porque a IA “não é 100% realista, não é infalível”, admite. Sobretudo quando a motivação é a fraude, “é feita muitas vezes por não portugueses, que não têm indicadores culturais, que usam bases de dados com vieses culturais que não se adequam a novos contextos”, diz Pedro Xavier Mendonça.

Alguns desses sinais poderão ser algo que “parece inverosímil dito por aquela pessoa” (como no exemplo dado com António Costa). Outros poderão ser falhas nas leis da física ou até anatómicas: “A questão dos olhos, a forma como a expressão muda, por vezes tem um aspeto mecânico”, indica.

O responsável deixa ainda uma dica para as próprias pessoas se protegerem deste tipo de situações: “Estes deep fakes, de imagem, som ou ambos, são construídos com base em treino que é feito com dados normalmente disponíveis online. Só é possível fazer deep fake da minha imagem se ela estiver disponível em variedade”, aponta. Isso é válido para qualquer fotografia ou vídeo publicado numa rede social.

Em algumas profissões — como a de jornalista — não é possível controlar isso. “Mas é importante que as pessoas também saibam e tenham consciência dos riscos” sempre que optam o fazer, alerta: “Já vemos que a IA pode ser usada de uma determinada maneira. Não basta ver para crer. É isso que está a mudar. É uma mudança social importante. Temos de nos reeducar, sobretudo no campo digital, para não avaliar tudo o que parece real como sendo imediatamente real só porque parece real.”

“Mentira, falsidade e desinformação sempre houve. A história está cheia de enganos. Ultrapassou-se com racionalidade. Hoje, os meios tecnológicos criam novos desafios a esse respeito”, conclui o responsável da autoridade de cibersegurança em Portugal.

Assine o ECO Premium

No momento em que a informação é mais importante do que nunca, apoie o jornalismo independente e rigoroso.

De que forma? Assine o ECO Premium e tenha acesso a notícias exclusivas, à opinião que conta, às reportagens e especiais que mostram o outro lado da história.

Esta assinatura é uma forma de apoiar o ECO e os seus jornalistas. A nossa contrapartida é o jornalismo independente, rigoroso e credível.

Comentários ({{ total }})

Como detetar ‘deep fakes’ à solta nas redes sociais? “Não basta ver para crer”

Respostas a {{ screenParentAuthor }} ({{ totalReplies }})

{{ noCommentsLabel }}

Ainda ninguém comentou este artigo.

Promova a discussão dando a sua opinião