Inês Lynce, presidente do INESC-ID, diz que o custo de desenvolvimento das ferramentas de IA tem diminuído, facilitando a adopção, mas apela a uma reflexão da sociedade sobre a forma é usada.
Inês Lynce, presidente do conselho de diretores do INESC-ID e co-diretora do Programa Carnegie Mellon Portugal, alerta para a necessidade de reter em Portugal profissionais com competências na área da inteligência artificial generativa. Convida também a uma reflexão sobre o uso desta tecnologia, defendendo uma maior informação da população.
“Reter o talento nesta área em Portugal é uma dificuldade. Os alunos acabam a formação e vão para fora trabalhar. Não tanto por não quererem trabalhar em Portugal, mas a oferta que têm lá fora é de tal maneira apelativa que não há forma de concorrer”, afirma a também professora do Instituto Superior Técnico em entrevista ao À Prova de Futuro, um podcast do ECO com o apoio do Meo Empresas.
Inês Lynce considera positivas as medidas anunciadas pelo Governo no âmbito da Agenda Nacional de Inteligência Artificial, que prevê o lançamento de uma plataforma de empregos no domínio da IA e a criação de um regime de vistos acelerados.
A presidente do INESC-ID apela também a uma reflexão sobre a forma como a inteligência artificial generativa está a ser adotada e alerta para a necessidade de ter consciência dos riscos. “Já começa a haver um eco generalizado das pessoas da área, mesmo aquelas que são de tecnologia: vamos parar para ver o que é que nós, como sociedade, queremos da inteligência artificial“, afirma.
Assista aqui à entrevista na íntegra:
Em 2025, assistimos a uma generalização no uso dos chatbots de inteligência artificial e um forte investimento em agentes para operações empresariais. Este ano, que desenvolvimentos é que podemos esperar?
Estamos numa fase em que houve um salto, claramente, e os chamados Large Language Models ilustram muito bem isso, com as capacidades que têm estas ferramentas. Se vamos ter outro salto no futuro próximo? Não acredito, porque estes saltos, como em tudo na humanidade, não acontecem numa mesma área a toda a hora. Agora é tirar o máximo proveito.
E nesse esforço de tirar o máximo proveito, o que poderemos ver?
Há aquilo que se chama um hype. Qualquer empresa há de dizer que está a usar ou que está a pensar usar, e isso faz sentido. Depois a questão é como é que vai ser essa concretização na prática. Teremos sempre as empresas que desenvolvem a tecnologia e depois temos as empresas, a sociedade e a própria administração pública que fazem uso dessa tecnologia. Aí ainda há um longo caminho para percorrer. A tecnologia vai sempre à frente da adoção da mesma, a questão é se vai ao encontro das reais necessidades da sociedade. Já começa a haver um eco generalizado das pessoas da área, mesmo aquelas que são de tecnologia: vamos parar para ver o que é que nós, como sociedade, queremos da inteligência artificial.
Já há muitos processos automáticos em que os documentos que são submetidos são automaticamente classificados para saber se têm direito, por exemplo, a um subsídio ou não. Isso acelera muito. O que é que tem que haver? A possibilidade da pessoa reclamar e aí não é a máquina que vai ver. Tem que haver alguém que pessoalmente vai ver.
Mas já sabemos o que queremos?
É mais fácil dizer o que não queremos, muitas vezes, de pôr limites. Mas mesmo o que não queremos pode ser formulado de forma positiva. Por exemplo, que não queremos que a inteligência artificial venha a definir de forma irreversível o futuro de uma pessoa. Toda a questão dos dados poderem ser tendenciosos. Havia ferramentas que achavam que uma pessoa, por ser de determinada raça ou viver num determinado bairro, tinha maior tendência a ser reincidente e isso era discriminação. Já houve exemplos práticos e paradigmáticos daquilo que não faz sentido. Ou seja, o que nós observamos cada vez mais é que as pessoas não estão dispostas a prescindir da interferência de um humano.
Há aqui uma parte toda que a própria sociedade tem que dizer quais são os limites, por um lado, e o que é que interessa. A sociedade tem interesse que a inteligência artificial seja aplicada na área da saúde, por exemplo, no diagnóstico. Há determinadas especialidades médicas em que o tempo que demoravam para fazer um diagnóstico desceu brutalmente. Na saúde é muito visível e há uma adoção generalizada.
O benefício é mais óbvio.
O benefício é muito óbvio. Desde que esteja o humano também. Ou seja, é um médico que usa a máquina e que, com isso, consegue formular um diagnóstico mais preciso. Agora, se tudo isso é automático e é a máquina que decide qual é a ordem pela qual as pessoas vão ser intervencionadas, por exemplo…
Ou atendidas numa urgência.
Aí tem que ser muito claro quais são as regras, porque têm que ser socialmente aceites.

O que temos visto é uma tendência para ir nesse sentido, de desenvolver agentes que tomam decisões autónomas, sobretudo no contexto empresarial.
Sim. Mas depende daquilo que são as decisões. Quando eu estou a fazer uma compra ou me sugerem filmes para ver, ninguém tem reservas em relação a isso. Por exemplo, na Estratégia Digital Nacional há um plano para utilizar inteligência artificial para fazer classificação de documentos. Pode errar, mas entre ter alguns documentos mal classificados ou não ter classificação nenhuma, penso que vemos aí uma mais-valia.
A ciência de dados e a análise de dados, e muito com a inteligência artificial, servem para apoiar a decisão. Ou então, se houver uma decisão, tem que ser passível de ser reclamada. Já há muitos processos automáticos em que os documentos que são submetidos são automaticamente classificados para saber se têm direito, por exemplo, a um subsídio ou não. Isso acelera muito. O que é que tem que haver? A possibilidade da pessoa reclamar e aí não é a máquina que vai ver. Tem que haver alguém que pessoalmente vai ver.
As decisões continuam a ser algo que é crítico. É preciso a própria sociedade refletir sobre isso e, para isso, tem que estar informada e saber quais são as capacidades da tecnologia.
Podemos estar a adotar a [inteligência artificial] sem saber os riscos. Eu dou sempre os exemplos dos meus colegas que trabalham em cibersegurança, tipicamente não têm câmaras nos computadores, usam telemóveis muito básicos. Há uma certa deformação profissional, no bom sentido, que nós temos que ter em relação à inteligência artificial.
Acha que estamos a adotar a inteligência artificial generativa de forma acrítica?
Podemos estar a adotar sem saber os riscos. Eu dou sempre os exemplos dos meus colegas que trabalham em cibersegurança, tipicamente não têm câmaras nos computadores, usam telemóveis muito básicos. Há uma certa deformação profissional, no bom sentido, que nós temos que ter em relação à inteligência artificial. Sabemos que em relação às crianças pode haver um uso desinformado e que isso pode ter consequências sérias, também nos adultos.
Mas a questão é se nós sabemos os riscos quando estamos a usar, por exemplo, um modelo de linguagem que é gratuito e é aberto. Eu tenho que saber que a informação que eu lá ponho, eu estou a dá-la. Até que ponto é que eu quero dar essa informação ou não?
De uma maneira geral as pessoas não estão conscientes desses riscos.
Não estão. Podemos dizer que passou a haver formação nesse sentido, mas a formação e a educação das pessoas é algo que é preciso dizer muitas vezes de formas diferentes até se perceber e ser interiorizado. Um bocadinho como tudo o que é ações de phishing temos de estar todos alerta E isso é um esforço também coletivo. Nem se pode dizer, já estamos todos esclarecidos, porque a tecnologia vai avançando, há novas formas de perigos que temos de estar alerta, não no sentido negativo. Faz parte, é como andar na rua. Há perigos de andar na rua e não é por isso que deixamos de andar.
Há uma reflexão que toda esta evolução da inteligência artificial penso que nos leva a fazer, que é depois de ver tudo isto e de perceber o potencial da tecnologia e de observar como ela está a mudar, se valorizamos mais ou menos a inteligência humana do que valorizávamos antes. Atualmente eu valorizo mais, porque consigo perceber que a tecnologia, por muito deslumbrante que seja, há muito que falta.
Há quem considere, por exemplo, que podemos perder capacidade de ter pensamento crítico, a partir do momento em que usamos as ferramentas de inteligência artificial e o chatbots para todo o género de questões, informação, pesquisa, etc.
Há esse risco. Esse risco é real. Se nós pensarmos, por exemplo, mesmo em relação ao uso da nossa memória, quando não havia telemóveis, nós sabíamos os telefones de cor. Há uma reflexão que toda esta evolução da inteligência artificial penso que nos leva a fazer, que é depois de ver tudo isto e de perceber o potencial da tecnologia e de observar como ela está a mudar, se valorizamos mais ou menos a inteligência humana do que valorizávamos antes. Atualmente eu valorizo mais, porque consigo perceber que a tecnologia, por muito deslumbrante que seja, há muito que falta.
Vamos assistir ao desenvolvimento de modelos de inteligência artificial mais específicos para determinados setores, mais customizados?
A inteligência artificial será muito mais útil quando poder ser customizada e treinada para domínios específicos e até a nível de uma empresa que tem um uso no seu âmbito. O que se tem observado atualmente é que também o custo de desenvolvimento dessas ferramentas tem diminuído.

Porque acontece essa diminuição de custo?
Por um lado, porque o hardware já está muito mais preparado para correr este tipo de tecnologia. Depois há também um esforço para que estes modelos sejam mais eficientes e, de alguma maneira mais pequenos, em termos do esforço que exigem.
Outra tendência que temos visto emergir são os robôs humanoides, com uma aposta grande quer na China, quer nos Estados Unidos, por exemplo. Vamos assistir a um crescimento de sistemas de IA que interagem com o mundo físico, seja nas fábricas ou em casa?
Há aqui várias questões. Para ser adotado de uma forma mais generalizada, tem que haver um custo razoável. Já há muitas empresas onde se vê um veículo a distribuir correspondência e há uma aceitação muito positiva. A questão é se isso compensa o custo que tem.
Se nós pedirmos a um modelo de linguagem para fazer cálculos, pode fazer os básicos, porque já pode ter sido treinado para isso, mas é muito fácil sentir os limites. E aí é quando eu digo que, de facto, a inteligência humana, para mim, vale mais neste momento, porque eu vejo que não chegam lá.
O Santo Graal da inteligência artificial é chegar à capacidade de raciocínio, o reasoning. Podemos ficar mais perto disso este ano ou é algo ainda muito distante?
Dentro da inteligência artificial existe a parte do raciocínio automático e existe a parte da aprendizagem automática, o machine learning. A área que explodiu e trouxe a inteligência artificial para a ordem do dia foi a área de machine learning, que está fortemente baseada naquilo que é estatístico e que, nesse sentido, contrasta com o raciocínio. Quando falamos em raciocínio, falamos em resultados precisos, confiáveis. O raciocínio é utilizado, por exemplo, para verificar software crítico, que não há erros para inferir informação. Se nós pedirmos a um modelo de linguagem para fazer cálculos, pode fazer os básicos, porque já pode ter sido treinado para isso, mas é muito fácil sentir os limites. E aí é quando eu digo que, de facto, a inteligência humana, para mim, vale mais neste momento, porque eu vejo que não chegam lá.
Há aqui dois paradigmas que são diferentes, que não quer dizer que não possam cooperar, mas o facto é que o grande avanço da inteligência artificial foi para uma área que não é a área de raciocínio. Atualmente, fala-se muito de como combinar estas duas realidades e a cadeia do pensamento, de alguma maneira, ser refletida. A questão é que a natureza da tecnologia que utilizamos atualmente não é matemática. Matemática no sentido da matemática exata, é uma matemática estatística. Esta área do raciocínio, pela sua natureza matemática, tem um custo muito elevado e que ainda não se conseguiu tornar mais barato. A própria natureza da base matemática que está por trás é questionável. Não é algo que seja trivial alcançar.
Mas vamos ver mais investimentos para lá chegar.
Do ponto de vista científico, é uma questão interessantíssima. Dizer que, do ponto de vista prático, até porque há a desconfiança de que não seja trivial consegui-lo, que deve ser um grande investimento, essa questão já é mais discutível. É bom ter essa noção de que é uma limitação atual. Há maneiras, digamos assim, de contornar para casos simples. Se vai escalar para casos complexos? Para já não escala. E há os que acham que dificilmente vai escalar. Há um bocadinho de tudo, por isso é que do ponto de vista científico é muito interessante.
Também interessante do ponto de vista científico, é a computação quântica. Também estamos longe de lá chegar?
É uma área onde já se investiu muito e continua a investir. Eu diria que os resultados não estão à altura das expectativas que havia. Se chegarmos à computação quântica de forma generalizada, toda esta área de raciocínio vai ser afetada, por exemplo. Mesmo que possamos ter soluções ad hoc, não me parece que num futuro imediato, ou a médio prazo, se consiga chegar a um uso generalizado.
No ano passado, começámos a ver as primeiras notícias de empresas a dizerem que estavam a despedir pessoas ou a congelar novas contratações, porque estavam a usar ferramentas de inteligência artificial que lhes permitiam substituir essas funções. Vamos ver isso ainda mais este ano?
Fazemos sempre o paralelo muitas vezes com aquilo que foi a revolução industrial. Tínhamos máquinas que faziam com menor custo e de uma forma mais eficiente aquilo que faziam os humanos. Do ponto de vista social, é mau ter uma máquina a apertar botões o dia inteiro, quando quem o fazia era uma pessoa? Com certeza que não. Mas a sociedade como um todo tem que estar preparada para isso. A ideia de que a formação que a pessoa tinha era para a vida, está cada vez mais desmistificada, porque é a nossa capacidade de pensar e de adaptar que é uma mais-valia quando temos alguém a trabalhar.
Atualmente, o que se observa é que a tecnologia consegue fazer o que é mais básico. E, por isso, os estagiários, os jovens que teriam o primeiro emprego, são aqueles que estão a ser mais afetados ou as pessoas que faziam funções completamente rotineiras e que podem ser substituídas pela máquina. Isto faz parte do processo. A sociedade como um todo tem que se reinventar. Tem que haver um caminho para essas pessoas porque, por um lado, é verdade que que há necessidades que deixaram de existir, mas até que ponto é que não há também novas necessidades que se criam. As pessoas estão a viver muito mais tempo, por isso, há muito mais necessidade de tudo o que é o cuidado das pessoas. O processo de aprendizagem ao longo da vida também será sempre importante.
Quero ainda perguntar-lhe sobre a nova estratégia digital nacional que o Governo vai começar a implementar este ano, com um orçamento global de mil milhões de euros. As prioridades que foram definidas são as corretas? A ambição é suficiente para garantir que Portugal não fica para trás nesta área?
As prioridades fazem sentido nas várias vertentes. Depois temos que olhar para o plano de ação. O plano de ação que já está cá fora, para 2026 e 2027 faz sentido no papel. Parece interessante. A questão é — e já sabemos como é o nosso país — como é que depois vai ser implementado. Temos muita tendência a fazer planos e não tanto a avaliar os planos.
Reter o talento nesta área em Portugal é uma dificuldade. Os alunos acabam a formação e vão para fora trabalhar. Não tanto por não quererem trabalhar em Portugal, mas a oferta que têm lá fora é de tal maneira apelativa que não há forma de concorrer.
A Agenda Nacional de Inteligência Artificial prevê, por exemplo, o lançamento de uma plataforma de empregos no domínio da inteligência artificial e a criação de um regime de vistos acelerados para investigadores altamente qualificados. Isto surge nesta agenda porque, de facto, há uma dificuldade em conseguir ter talento suficiente nestas áreas em Portugal?
Há dificuldade, apesar de haver empresas a quererem se estabelecer em Portugal para obter esse talento. O que nós verificamos atualmente, e aqui já a minha experiência académica e de formação, é que esta é das áreas mais competitivas a nível global. Há ofertas de emprego por valores muito altos e não há pessoas com um determinado tipo de conhecimento já mais elevado. Há uma dificuldade crescente em recrutar novos docentes, não só porque as empresas são muito apelativas, como também pelo valor dos salários em Portugal. E ainda pior do que isso, o custo da habitação em Portugal. Reter o talento nesta área em Portugal é uma dificuldade. Os alunos acabam a formação e vão para fora trabalhar. Não tanto por não quererem trabalhar em Portugal, mas a oferta que têm lá fora é de tal maneira apelativa que não há forma de concorrer.
As medidas que constam nesta agenda podem ajudar?
Pode ajudar. Até no ensino, quando queremos atrair alunos estrangeiros, é um drama. Este tema dos vistos é importantíssimo, haver uma via verde, atendendo a que é uma necessidade real do país.
Assine o ECO Premium
No momento em que a informação é mais importante do que nunca, apoie o jornalismo independente e rigoroso.
De que forma? Assine o ECO Premium e tenha acesso a notícias exclusivas, à opinião que conta, às reportagens e especiais que mostram o outro lado da história.
Esta assinatura é uma forma de apoiar o ECO e os seus jornalistas. A nossa contrapartida é o jornalismo independente, rigoroso e credível.
Comentários ({{ total }})
“Devemos parar para ver o que, como sociedade, queremos da inteligência artificial”
{{ noCommentsLabel }}