Ofir Israel, da empresa de cibersegurança Check Point, alerta que a inteligência artificial generativa aumentou o volume de ameaças. Fazer um ciberataque sofisticado é agora muito mais acessível.
A inteligência artificial (IA) generativa pode ser usada para o bem e para o mal. Por isso, ao mesmo tempo que transforma as empresas e revoluciona métodos de trabalho, novas ferramentas como o ChatGPT, que surgiu em novembro de 2022, vieram aumentar muito o volume de ameaças existentes. Fazer um ataque, até dos mais sofisticados que existem, está agora ao alcance de “quase todos”, argumenta Ofir Israel, vice-presidente de prevenção de ameaças da Check Point.
Numa entrevista ao ECO em Viena (Áustria) — onde a Check Point promoveu em fevereiro o seu evento anual para o mercado EMEA, o CPX 2024 –, o especialista explicou como a IA generativa também está a mudar as estratégias e os métodos de defesa. No entanto, apesar dos alertas da Check Point de que a tecnologia pode ser usada para manipular eleições através de deepfakes e desinformação, Ofir Israel diz que não vê a IA generativa a produzir novos ataques — afirma serem apenas “mais do mesmo”.
O responsável termina a entrevista com um caso de estudo que diz estar a ser trabalhado na Check Point: usar IA generativa para “entender as conversas” e evitar que os trabalhadores de uma organização partilhem informação confidencial ou dados do negócio com o exterior. Questionado se isso não representa uma clara violação da privacidade dos trabalhadores, responde que “os nossos emails já são verificados hoje em dia”. Aliás, defende que uma aplicação deste tipo, no final, até pode ser benéfica para os próprios funcionários.
Não estamos a usar nenhuma IA generativa ou técnica nova para encontrar novos ataques porque não são novos ataques. São mais do mesmo.
Como é que a IA mudou a indústria da cibersegurança nos últimos anos, desde o surgimento do ChatGPT [em novembro de 2022]?
Desde o ChatGPT? Trabalhamos com IA há uns 11 ou 12 anos. O que hoje chamamos de IA chamava-se machine learning. Nós começámos com o machine learning, evoluímos para o deep learning — que é geralmente chamado IA — e usamo-lo há 11 anos. E não apenas nós. Alguns anos depois, outras empresas de cibersegurança começaram a usá-lo.
Mas o ChatGPT pôs a IA no radar.
Pôs a IA no radar. Mas temos falado de IA há anos na conferência CPX porque é o que fazemos e é o que trava os ataques, ou a maioria dos ataques.
Mas alguma coisa terá mudado. O interesse mudou, o investimento nesta área explodiu.
Eu penso que a IA generativa deu ferramentas tanto a quem defende como a quem ataca, mas de uma forma assimétrica.
Ok, comecemos pelo lado do atacante e depois farei a pergunta da outra perspetiva também.
Certo. Então, nos primeiros meses depois de surgir o ChatGPT, vimos os atacantes usarem-no para acelerar o desenvolvimento de ferramentas simples. Agora, é muito fácil qualquer pessoa ir ao ChatGPT, dizer-lhe “escreve aí um malware” e ele irá fazê-lo. Talvez responda que “não é suposto estar a escrever malwares“, mas aí inventa-se uma história e consegue-se que ele o faça. É muito simples. Isso é basicamente o que as ferramentas de IA generativa dão aos atacantes. Elas não criaram nenhum vetor novo de ataque, ou um novo tipo de ataque, ou algo assim. Elas tornaram tudo muito mais acessível, acelerado, escalável e alargado.
É preocupante, porque, se pensarmos numa sapataria com duas ou três lojas… quem se importaria com ela? Não seria alvo dos ataques mais sofisticados. Agora, com estas ferramentas, quase toda a gente consegue fazer os ataques mais sofisticados que existem. Como uma campanha muito direcionada de emails de phishing, ou sites de phishing, para levar alguém a dar as suas credenciais. Ou seja, tornou-se mais alargado, acelerado, mas não muito mais sofisticado.
É por isso que, da nossa perspetiva, do lado de quem defende, isso não mudou realmente. Só o volume. Não estamos a usar nenhuma IA generativa ou técnica nova para encontrar novos ataques porque não são novos ataques. São mais do mesmo. Portanto, vamos continuar o nosso plano para entender quais são as nossas lacunas de deteção e melhorar os nossos modelos, ou construir novos, recolher mais dados para ter melhores modelos, porque, na IA, quanto maior ou melhor o conjunto de dados, melhor o modelo.
Quando diz que os benefícios para quem ataca e para quem defende, como é o eu caso, são assimétricos, quer dizer que são maiores para quem defende?
Não. O que quero dizer é que não são os mesmos. Algumas pessoas pensam que, se existe uma nova tecnologia, haverá quem a use para o mal e quem a use para o bem, e combatem-se mutuamente. Mas usamos a IA generativa para coisas diferentes. Usamos a IA e outros métodos para bloquear ataques gerados por IA generativa. Foi o que quis dizer.
Acredita que é apenas uma questão de tempo até se encontrarem novas formas de atacar com este tipo de ferramentas?
Não me parece. Talvez esteja enganado, mas quero acreditar que a IA generativa pode ser tão boa e tão criativa quanto a pessoa que a usa. Algumas pessoas podem dizer — não é o meu caso — que os jornalistas vão perder o emprego porque o ChatGPT escreve tudo. Mas não é correto. É preciso encontrar a história, achar o ângulo e falar com pessoas. Mas talvez poupe imenso trabalho.
Os textos do ChatGPT parecem insípidos.
Pois é, usam sempre as mesmas palavras! Os hackers também têm de ser criativos. Mesmo um miúdo astuto de dez anos precisa de ter uma mente criminosa para fazer um ataque. Por isso, não acredito que a IA generativa por si própria vá gerar novos ataques. A mente criminosa tem de lá estar e será ela a conduzir e a encontrar a sofisticação. Portanto, acredito que, de certo modo, a IA generativa veio ajudar-nos mais a nós.
Estão a usá-la cada vez mais nos vossos produtos?
Há 11 anos, já tínhamos percebido que não podíamos continuar a usar os métodos antigos de travar ciberataques, como perceber qual é o endereço malicioso, o domínio ou o ficheiro e bloqueá-lo, ou escrever assinaturas do tipo “se este ficheiro tem este texto, então é malicioso”. Isso não é escalável e apenas trava aquilo que já sabemos que é mau. Precisamos de IA para parar aquilo que não sabemos que é mau. Pegamos em todos os dados e todas as pistas no ficheiro — uma pista pode ser vários padrões, ou um comportamento com uma certa nuance –, colocamos tudo num modelo de IA que é treinado num conjunto grande de dados, e isso ajudou e ajuda-nos ainda hoje a parar ataques desconhecidos. Aquilo que nós chamamos de ataques zero-day, que ainda não foram documentados. Isso é algo que fazemos nos nossos produtos. Além dos ficheiros, falamos de endereços de IP, emails, texto e tudo. Desde que o ChatGPT saiu, começámos a explorar como o usar nos nossos proDutos. E usamos em vários aspetos.
Estão a usar o GPT?
Usamos todo o tipo de LLM [grandes modelos de linguagem natural]. Usamos o GPT da OpenAI, também usamos o Llama [da Meta]. Na verdade, continuamos a explorar porque está sempre a mudar.
Agora a Check Point tem o seu próprio chatbot, ao qual podemos colocar questões sobre a nossa empresa, especificamente sobre cibersegurança, e ele responde a perguntas como “de quantas tentativas de ataque fui vítima esta semana?”. É apenas uma forma de sumarizar informação ou pode ser algo mais?
Ele também realiza operações. Chamamos-lhe Copilot. É mesmo outro membro da equipa, porque podemos perguntar-lhe o que fazer, ou colocar uma questão, ou pedir-lhe que faça qualquer coisa, e ele ajuda nisso, sabe tudo, pelo menos sobre a Check Point. Foi o principal use case que começámos a explorar e, agora que foi lançado, usamos estas ferramentas para revolucionar a interação entre o homem e o software.
Os modelos de IA precisam de enormes quantidades de dados para serem eficazes. Sabemos isso. Especificamente neste contexto, de informação proprietária do negócio, para que o modelo conheça o contexto. Como é que se equilibra isso com a prevenção de ameaças, porque sabemos que a partilha de demasiada informação pode ser, ela própria, um risco?
Estamos bem conscientes disso e é por isso que não treinamos LLM e não os ajustamos. Usamos modelos genéricos de formas inteligentes e temos algumas patentes em prompt engineering, para que eles tenham o contexto de que precisam. Vou dar um exemplo: perguntar-lhe quais foram as cinco últimas pessoas que foram bloqueadas na firewall. A forma ingénua de o fazer é dar todos os registos da última semana na prompt e pedir-lhe os cinco principais, por quantidade de vezes que foram bloqueados. Isso é ingénuo e levanta dois problemas. Um, não queremos partilhar os dados. Dois, o tamanho da prompt tem limites. Mesmo que continue a aumentar, continua a ser limitada. Em vez disso, o que fazemos é ensinar ao modelo como gerar uma query ao servidor de registos. Assim mantemos os dados nas mãos dos clientes e não os damos à OpenAI ou a qualquer outro LLM.
Terminemos com mais exemplos de aplicações de IA que, na sua experiência, têm sido particularmente eficazes a aumentar as ciberdefesas nas organizações?
Uma das coisas mais interessantes que estamos a explorar agora – está mesmo numa fase de investigação – é o uso de IA generativa para o que chamamos de Prevenção de Fugas de Dados (Data Leak Prevention, DLP). Normalmente, DLP tem a ver com garantir que não são enviados documentos que podem ter números de cartões de crédito ou informação sensível…
…ou que ninguém fala com jornalistas…
[Risos]
Mas na verdade DLP pode ser: imagine que está a falar com um amigo no Teams, WhatsApp ou email, acerca de um projeto em que está envolvido, ou talvez nem perceba mas está a expor informação que é sensível (não um cartão de crédito, porque isso é fácil de detetar e bloquear). Como é que um CEO ou CIO é capaz de garantir que os seus trabalhadores não partilham informação? Por isso estamos a usar um LLM para entender as conversas, mas não apenas baseado em palavras-chave — é perceber se na conversa se está a expor informação sensível.
Isso não é uma violação da privacidade?
Não, se a informação se mantiver no perímetro e não for enviada para o ChatGPT, certo?
O que me está a contar é um case study em que, por exemplo, nós os dois — o Ofir na Check Point eu no meu jornal — começamos a trocar emails. O programa compreende…
… os nossos emails já são verificados hoje em dia.
É um argumento, mas o que me está a contar é um sistema que é capaz de o sinalizar por falar comigo, ou por partilhar informação específica comigo, e bloqueia o seu email, por exemplo, antes de ele sair da empresa, antes de chegar à minha caixa de correio?
Sim, sim. Já faz isso.
Isso é preocupante.
Eu compreendo… já faz isso. Impede que eu envie um ficheiro malicioso para si e previne que envie um ficheiro malicioso para mim. Da mesma forma que impede que me impede de partilhar consigo código-fonte da empresa, certo? Ou se lhe disser “hey, tenho uma notícia, captámos um grande cliente”, isso é informação sensível do negócio, certo? É a mesma coisa. Mas compreendo o que está a dizer.
Como é que navegam este tipo de problemas éticos nessa investigação em específico? Estou curioso.
Por agora é só uma extensão do DLP, que já se sabe que inspeciona os dados… Eu penso que a questão será a forma como vai ser usado. Uma das primeiras coisas que vai fazer é classificar qualquer conversa e perceber se é pessoal ou negócio. Também é algo que podemos fazer com um LLM. Por isso, se a política disser que “se é pessoal, não continues”, então até pode ser melhor para o trabalhador, porque atualmente nós inspecionamos tudo.
O ECO viajou para Viena (Áustria) a convite da Check Point Software.
Assine o ECO Premium
No momento em que a informação é mais importante do que nunca, apoie o jornalismo independente e rigoroso.
De que forma? Assine o ECO Premium e tenha acesso a notícias exclusivas, à opinião que conta, às reportagens e especiais que mostram o outro lado da história.
Esta assinatura é uma forma de apoiar o ECO e os seus jornalistas. A nossa contrapartida é o jornalismo independente, rigoroso e credível.
Comentários ({{ total }})
“Agora quase todos conseguem fazer os ciberataques mais sofisticados que existem”
{{ noCommentsLabel }}