“Portugal deve identificar onde a IA pode aumentar a produtividade” diz VP da Google DeepMind
Fernando Pereira, vice-presidente da Google DeepMind, diz que é necessário identificar problemas económicos e sociais onde a IA pode aumentar a produtividade em Portugal, que considera ser importante.
O vice-presidente (VP) da Google DeepMind Fernando Pereira defende, em entrevista à Lusa, que é necessário identificar problemas económicos e sociais onde a inteligência artificial (IA) pode aumentar a produtividade em Portugal, que considera ser importante.
Sobre o papel da IA em Portugal, Fernando Pereira salienta que esta é “uma tecnologia extremamente flexível que tem potencialidade enorme para aumentar a produtividade, tanto no setor público como no setor privado”.
“Há uma grande capacidade intelectual, científica, de engenharia em Portugal e, utilizando essas ferramentas, ou seja, as ferramentas que estão disponíveis de grandes companhias, que são desenvolvidas pelos próprios grupos de investigação, de identificar áreas de valor social, económico e aplicar a tecnologia, desenvolver a tecnologia em direções que permitam o aumento da produtividade”, sublinha.
Há dois anos o responsável, que é considerado uma das referências mundiais de IA, já tinha defendido que a “produtividade é a coisa mais importante para uma economia como a portuguesa”. Fernando Pereira insiste na necessidade de aumentar a produtividade e reduzir a ineficiência de diversas áreas, nomeadamente na interação entre cidadãos e a Administração Pública, onde a tecnologia “pode ajudar a reduzir os fossos” entre as diferentes entidades.
Para um país como Portugal, “que não está na ponta da produtividade económica na União Europeia, identificar a maneira de utilizar esta nova tecnologia para acelerar a produtividade parece, para mim, a coisa mais importante“, defende.
Fernando Pereira destaca que a inteligência artificial também está a criar novas oportunidades para o desenvolvimento de produtos e refere que a IA tem tido um papel relevante na criação de produtos farmacêuticos. Questionado sobre a sua maior preocupação em relação à IA generativa, o vice-presidente da Google DeepMind sublinha que o desafio é manter uma tecnologia que se diferencia de muitas outras já desenvolvidas anteriormente.
“Porque tem tal flexibilidade e tal capacidade que (…) as técnicas tradicionais de engenharia baseadas em ter equações e fazer modelos muito precisos”, por exemplo, engenharia eletrotécnica ou engenharia civil, não se aplicam, refere.
Portanto, “a coisa que nos preocupa sempre é: será que nos está a falhar alguma perspetiva, que estamos a construir algo que tem comportamentos que nós não saibamos prever”, prossegue. Por isso, “estamos constantemente a testar, a fazer testes cada vez mais extensivos” e “é por isso que um dos meus papéis nesta área é fazer perguntas”, remata. O responsável sublinha ainda que a Google tem um conjunto de diretrizes para assegurar que a inteligência artificial generativa é desenvolvida de uma maneira responsável e alinhada com as necessidades humanas.
Os algoritmos que recomendam conteúdo
Sobre o uso de algoritmos de recomendação nas redes sociais, Fernando Pereira recorda que isto surgiu “muito antes da inteligência artificial generativa, eram técnicas de aprendizagem automática em que aprendem a recomendar baseado nas interações que os utilizadores têm com esses materiais”.
Aliás, esta foi uma área onde Fernando Pereira trabalhou na década anterior. “Há uma tensão entre o algoritmo “prender a recomendar aquilo com que as pessoas interagem” e por vezes criarem bolhas.
Por exemplo, se uma pessoa gosta de esquiar, logo é razoável que o algoritmo do YouTube recomende vídeos deste desporto, o que “é uma coisa positiva”. O mesmo pode acontecer em outras áreas, desde música a livros. “Claro que é preciso pôr uns certos travões nesses sistemas para evitar que eles se tornem demasiado insulares”, ou seja, “criem estas bolhas separadas”, explica Fernando Pereira.
Agora no que diz respeito à inteligência artificial (IA) generativa, o problema põe-se em “como é que vamos responder a um utilizador que está, por exemplo, a entrar numa área” que pode ter um “caráter de aspetos mais afetivos” ou “excessos mais controversos”, diz. “Nós temos princípios” e documentos sobre como se analisa os riscos de IA generativa, incluindo para o recente Gemini 3 [modelo de IA da Google].
Uma das áreas que está a ser estudada é sobre a potencial distorção, ou seja, a maneira como a IA generativa pode “influenciar a pessoa numa direção negativa”. Portanto, “ao treinar estes modelos, nós fazemos uma série de testes”, quer internos, como também “trabalhamos com organizações externas para fazer essa avaliação para identificar o potencial” de comportamentos menos saudáveis e tentar manter que a inteligência artificial generativa fique num espaço mais equilibrado, salienta.
Inteligência natural vs Inteligência artificial
Fernando Pereira é um dos oradores do “Responsible AI Forum 2025”, que decorre na Fundação Champalimaud, em Lisboa, esta terça-feira, 25 de novembro, onde vai abordar o tema “inteligência natural vs inteligência artificial” com o neurocientista António Damásio.
O especialista em IA diz que “há muitas diferenças [entre os dois tipos de inteligência]”, adiantando que António Damásio tem feito colaborações com alguns colegas seus que também têm explorado as diferenças entre as duas áreas.
O responsável e uma das referências mundiais na área da IA, observa que existe um contraste entre a forma como a neurociência interpreta a inteligência natural e a maneira como a inteligência artificial é organizada atualmente. “Há diferenças bastante grandes”, diz, especialmente na forma de processar informação e aprender.
“Essas diferenças significam que a inteligência artificial pode ser vista mais produtivamente como uma extensão ou uma prótese, digamos assim, relativamente à inteligência natural”, sublinha.
A inteligência artificial generativa é uma técnica presente no Gemini, no ChatGPT e em outros modelos de IA. Para Fernando Pereira essas técnicas analisam a informação e extraem “a essência de como descrevemos o mundo, como comunicamos e interagimos”, permitindo, a partir disso, “amplificar a nossa capacidade de comunicar e produzir”.
Já sobre os receios que existem da IA superar a inteligência humana, o vice-presidente da Google DeepMind considera que esta é uma questão que não é suficientemente clara para si. “A inteligência humana tem parte da nossa capacidade de organizar a nossa vida humana, social”, no mundo físico, social, “as nossas motivações, os nossos objetivos”, enquanto inteligência artificial “é uma ferramenta que pode amplificar”, refere.
Até porque “há muitas coisas que já faz melhor do que eu fazia (…), mas quem é que está ao volante, a controlar a situação? Somos nós que estamos a definir quais são os problemas a que apontamos esta ferramenta. Portanto, esta noção de superar sugere uma noção de autonomia, de independência, de uma vontade independente que não é parte dos nossos objetivos como construtores destas tecnologias“, finaliza.
Assine o ECO Premium
No momento em que a informação é mais importante do que nunca, apoie o jornalismo independente e rigoroso.
De que forma? Assine o ECO Premium e tenha acesso a notícias exclusivas, à opinião que conta, às reportagens e especiais que mostram o outro lado da história.
Esta assinatura é uma forma de apoiar o ECO e os seus jornalistas. A nossa contrapartida é o jornalismo independente, rigoroso e credível.
Comentários ({{ total }})
“Portugal deve identificar onde a IA pode aumentar a produtividade” diz VP da Google DeepMind
{{ noCommentsLabel }}