Daniela Braga, fundadora da Defined.ai acha "ótima" a ideia de um ChatGPT português, mas o prazo avançado, para o primeiro trimestre de 2025, é "impossível". "Vai ser um modelo pequeno", diz.
Desenvolver um Large Language Model (LLM) português, a mesma tecnologia por trás do ChatGPT da OpenAI, “é uma questão de soberania nacional”, considera Daniela Braga, CEO e fundadora da Defined.ai.
A empreendedora, que lidera um dos consórcios de Inteligência Artificial (IA) financiados pelo Plano de Recuperação e Resiliência (PRR) e, em 2021, foi convidada pela administração de Joe Biden para integrar a task force criada para ajudar a definir a estratégia de IA nos Estados Unidos, vê por isso com bons olhos o anúncio do primeiro-ministro, Luís Montenegro, durante a Web Summit de que, no primeiro trimestre de 2025, queria um LLM em português, para o país tirar partido da inovação trazida pela IA.
Mas há um excesso de otimismo, considera Daniela Braga. E explica porquê. “Acho a ideia ótima. Mas acho (o prazo) impossível. Vai ser um modelo pequeno, não vai ser um large, vai ser um small model”, diz. “Um LLM demora um ano a construir”, conclui.
A trabalhar nos Estados Unidos, Daniel Braga desmistifica a ideia que só a Europa está a regular a IA. “Nunca tivemos tanta regulação também nos Estados Unidos, e Estado a Estado, de tal maneira que nós, neste momento, mesmo com todo o enquadramento legal, em Estados como Texas, Illinois e, dependendo dos casos, em Washington e Califórnia, não se consegue sequer recolher dados pagando às pessoas, mesmo com contratos certinhos, o que é uma perda para a economia”, lamenta.
E deixa um alerta: cuidado com as aplicações ‘descontroladas’ de IA. A empreendedora foi oradora nesta edição da Web Summit e falou com o ECO.
Em 2022, foi anunciado que a Defined.ai liderava um consórcio de IA, tinha 34,3 milhões do PRR para “otimizar o atendimento ao cliente público e privado através de assistentes virtuais”. Como está este projeto?
Estamos no final do segundo ano de execução. O deadline é final de 2025 e estamos on track. Fizemos uma expansão de línguas, sobretudo, porque Portugal recebe muitos turistas estrangeiros. Inicialmente, a ideia era fazer apenas português e inglês. No ano passado lançamos a Diana na Web Summit para mostrar um caso de uso de code switching, basicamente, a mudança de língua dentro do mesmo modelo de linguagem, algo que ainda não está resolvido no estado da arte e, um ano depois, ainda não está.
A ideia inicial era ter estes agentes inteligentes para a interação com os serviços públicos e com as empresas, no atendimento a cliente. Agora estamos a expandir línguas. Nos últimos dois anos fizemos muita recolha de dados — que aliás, alinha bem com a nossa empresa, somos o maior mercado de dados da inteligência artificial eticamente recolhidos — agora aumentámos para cinco línguas, as principais europeias, o espanhol, francês, o alemão…
Apesar dessa expansão de línguas, diz estar on track…
Na execução do orçamento. O IAPMEI está a fazer novos cálculos por falta de execução (em outros projetos), nós estamos on track na nossa execução.
A Diana foi o teaser do que aí vem. Quando podemos esperar…
É uma tecnologia modelar. A Diana mostra o sistema end-to-end, entrada e saída de voz, mas pode ser usado separadamente. O ano de 2025 vai ser novamente um ano de exploração com o Estado português — tivemos um ano de estagnação em qualquer discussão a este nível — e com o setor privado.
Há dois anos, quando estávamos a falar com eles, estava tudo ainda muito incipiente, muito a medo, agora já se vê, sobretudo em áreas mais reguladas, como a banca e o setor da saúde, a vontade de começar a ter esse tipo de serviço. A IA está um bocadinho mais desmistificada.
Vamos voltar ao mercado, ver quais os clientes onde podemos ter estes produto. Obviamente que isso só faz sentido se tiver produtos a operar, nunca foi um projeto de investigação. Temos a tecnologia avançada, em qualquer desenvolvimento, dois terços do trabalho são dados e depois é o afinamento. Depois de identificarmos um cliente, passamos outro terço a afinar os modelos.
Nos últimos dois anos fizemos muita recolha de dados — que aliás, alinha bem com a nossa empresa, somos o maior mercado de dados da inteligência artificial e eticamente recolhidos — agora aumentámos para cinco línguas, as principais europeias, o espanhol, francês, o alemão (o projeto de IA desenvolvido no âmbito do PRR).
Banca e saúde serão potencialmente os primeiros clientes?
O óbvio é os serviços da banca — até porque já têm alguma coisa a funcionar —, as telecomunicações, a Nos está no nosso consórcio, assim como as universidades. Atenção que os Large Language Models (LLM) não estavam previstos quando fizemos a submissão da candidatura.
Não parece que faça sentido nesta altura mudar o scope, a não ser que façamos uma aliança com, por exemplo, a outra agenda, que também tem inteligência artificial. O conceito de LLM só apareceu quando já tínhamos o projeto em execução. Mudar qualquer coisa em projetos de IAPMEI é muito difícil.
Na abertura da Web Summit, Luís Montenegro anunciou um ‘ChatGPT português’ até ao primeiro trimestre de 2025. Estão envolvidos nesse projeto?
Não tenho conhecimento.
Em outro palco, no Parlamento, Montenegro admitiu que o Governo “está disponível” para criar uma Agência para a IA. A avançar, o que espera desta agência?
Acho que seria uma ótima ideia. Gostaria que juntasse as entidades nacionais que já têm track records, sobretudo algumas privadas e academia. Desenvolver um LLM português é uma questão de soberania nacional. Tenho dito isso muitas vezes, em muitos lados, porque senão vamos estar dependentes de tecnologia americana, que só chegará ao português numa linha muito longa do roadmap.
Além de que, para já, os GPT são baratinhos ou de borla, mas chegará o dia em que isto vai-se pagar, e bem. E há a questão do enviesamento. Se não são os próprios países a tratar das suas diferenças culturais e das suas segmentações sociais, não vai ser uma empresa estrangeira que vai conseguir ir ao pormenor de incluir toda a gente. Essa é a realidade.
Ou seja, poderá ser uma ferramenta de exclusão.
Mais ainda. Portanto, acho essas ideias todas ótimas.
O ‘ChatGPT português’ já tem uma data, o primeiro trimestre de 2025. Não se sabe o estado de desenvolvimento do projeto, mas acha o prazo…
Acho a ideia ótima, mas acho (o prazo) impossível. Vai ser um modelo pequeno, não vai ser um large vai ser um small model. Não há em lado nenhum, do ponto de vista ético, dados disponíveis, a não ser através de nós porque somos o maior mercado de dados. Um LLM demora um ano a construir. Não precisamos de fazer um LLM do tamanho do ChatGPT da OpenAI, mas imagino que, pelo menos, 5 milhões de dólares, em dados, é o que custará.
Há muita computação, que não sei quem vai pagar — há um supercomputador em Braga, pode ser que seja aproveitado nesse sentido —, mas depois há toda uma fase de fine tuning que, em qualquer modelo, seja de voz ou texto, é um processo que nunca pára. A Google, a OpenAI ainda estão a fazer fine tuning e a Google está a fazer LLM ainda antes da OpenAI.
É um prazo, se calhar, excessivamente otimista?
Acho muito otimista. E não se vai ter um Large Language Model vamos ter um Small Language Model.
Nunca tivemos tanta regulação também nos Estados Unidos, e Estado a Estado, de tal maneira que nós, neste momento, mesmo com todo o enquadramento legal em Estados como Texas, Illinois e, dependendo dos casos, em Washington e Califórnia, não se consegue sequer recolher dados pagando às pessoas, mesmo com contratos certinhos, o que é uma perda para a economia.
Mario Draghi alertou que a Europa não pode perder a oportunidade trazida pela IA e que se tem de ter cuidado com a excessiva regulação. Tem havido muita fricção entre Europa e EUA em torno da regulação tech, com uma nova administração Trump essa fricção poderá aumentar substancialmente?
Por acaso, acho que não. Se olharmos para a cronologia, a ordem executiva que o presidente Biden lançou no ano passado já tinha começado a ser escrevinhada no final do tempo da administração Trump. E a task force em que participei, apesar de ter sido executada no tempo do Biden, foi iniciada no tempo do Trump.
Para explicar que nunca tivemos tanta regulação também nos Estados Unidos, e Estado a Estado, de tal maneira que nós, neste momento, mesmo com todo o enquadramento legal, em Estados como Texas, Illinois e, dependendo dos casos, em Washington e Califórnia, não se consegue sequer recolher dados mesmo pagando às pessoas, com contratos certinhos, o que é uma perda para a economia.
O excesso de regulação está mais do lado dos EUA do que da Europa, é isso?
O que estou a dizer é que não está pior. Há uma ideia errada de que Europa é que regula e os EUA não. Os Estados Unidos estão a regular igualmente. E tem havido uma continuidade ao nível da IA, independentemente da cor política. Penso que vai continuar, não estou a imaginar que agora as coisas mudem.
Se vai haver alguma mudança é económica, os mercados estão muito otimistas, estranhamente. A economia parece estar muito otimista, a parte social é que é outra história, não é?
O IA ACT europeu serve os propósitos de uma regulação responsável e, ao mesmo tempo, acomoda as necessidades das empresas da área? É uma boa legislação ou merecia um fine tuning?
Quanto mais não seja a Europa mantém o Norte. Mesmo para os EUA, a Europa dá um sinal. Para os EUA, o mercado europeu, apesar de pequeno, não é um mercado desprezável. São membros da NATO, têm algumas das economias maiores onde todas as empresas americanas querem estar. Não é uma coisa que os Estados Unidos ignorem ou queiram ignorar.
Não acho a legislação do AI ACT fora do normal. O que não acontece tanto nos EUA é olhar para a legislação do ponto de vista punitivo. O AI ACT tem uma aura muito punitiva porque tem aquelas sanções sobre as receitas das empresas, dependendo das aplicações. A verdade é que há aplicações que não deviam sequer ser consideradas.
Que aplicações ao certo?
Tecnologia que tenha decisões do ponto de vista de social scoring, um clássico. Por exemplo, no mundo do dating, uma pessoa ficar com um profiling de dating que arrasta quase um registo criminal para outros aspetos, como ser contratado para um emprego, fazer um empréstimo bancário.
Aplicações que decidam a vida ou a morte. Na parte da economia da guerra, em áreas de difícil acesso, muita coisa tem que ser monitorizada por IA. Há erros, muitos erros ainda. A decisão de atirar ou não atirar. Isso são decisões que não devem fazer parte.
Estamos a viver o verão mais longo em IA e prevê-se que continue em alta. Agora como qualquer tecnologia há altos e baixos, mas estamos ainda a surfar a onda, acho eu, por outros 18 meses.
Numa anterior Web Summit dizia que não tinha medo da IA, o que a preocupava era os humanos. Chegamos a um patamar em que, se calhar, há que temer a IA?
Há que recear as aplicações muito ambiciosas. Por exemplo, esta aplicação dos modelos Grok, do x.AI [a resposta de Elon Musk ao ChatGPT da OpenAI], que tem seis mil milhões de dólares de investimento, não há barreiras. Basicamente, qualquer pessoa pode criar uma imagem ou deepfake que pode ser até um atentado à imagem pública de uma pessoa.
O pior é que depois são colocados nos algoritmos das redes sociais… Honestamente, pôr um bocadinho de regras nessas coisas pode ser interessante.
O Virgílio Bento, fundador da Sword Health, afirmava esta semana numa publicação do LinkedIn que se estava a chegar a um “inverno do IA”, que a tecnologia estava a chegar a um plateau no ritmo de progressão. Concorda?
Estamos longe. Nunca tivemos um verão tão longo de IA. Nos EUA, os nossos clientes estão a desenvolver aplicações que envolvem realidade aumentada, realidade virtual, integração com robótica. Estamos a viver o verão mais longo em IA e prevê-se que continue em alta. Agora como qualquer tecnologia há altos e baixos, mas estamos ainda a surfar a onda, acho eu, por outros 18 meses.
Assine o ECO Premium
No momento em que a informação é mais importante do que nunca, apoie o jornalismo independente e rigoroso.
De que forma? Assine o ECO Premium e tenha acesso a notícias exclusivas, à opinião que conta, às reportagens e especiais que mostram o outro lado da história.
Esta assinatura é uma forma de apoiar o ECO e os seus jornalistas. A nossa contrapartida é o jornalismo independente, rigoroso e credível.
Comentários ({{ total }})
“ChatGPT português é uma questão de soberania, mas prazo de março é impossível”
{{ noCommentsLabel }}