China exige maior controlo das tecnológicas no treino de modelos com algoritmos de IA
Apesar do lançamento de chatbots por grandes grupos chineses como Alibaba, DeepSeek, Tencent ou ByteDance, persistem dúvidas sobre o desenvolvimento da IA num ambiente sujeito a forte censura estatal.
As autoridades chinesas alertaram para os riscos associados à chamada “contaminação de dados” em sistemas de inteligência artificial (IA) e instaram as empresas tecnológicas a reforçarem o controlo da informação utilizada no treino dos seus modelos.
Num comunicado publicado na rede social WeChat, o Ministério da Segurança do Estado advertiu que a proliferação de textos, imagens e vídeos gerados por IA está a aumentar a probabilidade de conteúdos “falsificados, enviesados ou repetitivos” integrarem novos conjuntos de dados de treino, o que pode resultar em erros de julgamento, “decisões automáticas equivocadas” ou “manipulação da opinião pública”.
As autoridades citam estudos segundo os quais bastaria que uma em cada 10.000 amostras fosse falsa para que o número de respostas prejudiciais de um modelo aumentasse de forma sensível. Este “efeito em cascata”, em que conteúdos gerados artificialmente alimentam novos sistemas, é motivo de preocupação para setores sensíveis como a saúde, as finanças ou a segurança pública, onde decisões baseadas em dados imprecisos teriam impacto direto sobre a população.
Para mitigar estes riscos, o ministério recordou que está em vigor, desde janeiro, um regulamento que obriga as plataformas de IA generativa a realizarem auditorias de segurança, a identificar claramente os conteúdos produzidos por inteligência artificial e a eliminar periodicamente dados que violem as normas em vigor.
O organismo já tinha alertado, em julho, que o uso da IA pode representar uma ameaça à “estabilidade social”, à proteção de dados sensíveis e à segurança nacional, caso a tecnologia caia nas mãos de “forças hostis à China”.
Desde 2023, os serviços de IA no país estão obrigados a seguir os “valores socialistas fundamentais” e proibidos de “gerar conteúdos que atentem contra a segurança nacional, a unidade territorial e a estabilidade social”.
Apesar do lançamento de chatbots por grandes grupos tecnológicos chineses como Alibaba, DeepSeek, Tencent ou ByteDance, persistem dúvidas sobre o desenvolvimento da IA num ambiente sujeito a forte censura estatal.
Desde 2023, o Ministério da Segurança do Estado publica regularmente na sua conta oficial na WeChat casos de alegada espionagem e recomenda à população que desconfie de ofertas de trabalho ou pedidos de informação oriundos do estrangeiro.
Paralelamente, o ministério apela a uma “mobilização de toda a sociedade” para “prevenir e combater o espionagem” e “reforçar a defesa nacional”, alertando para os riscos do envio de dados sensíveis através da internet.
Assine o ECO Premium
No momento em que a informação é mais importante do que nunca, apoie o jornalismo independente e rigoroso.
De que forma? Assine o ECO Premium e tenha acesso a notícias exclusivas, à opinião que conta, às reportagens e especiais que mostram o outro lado da história.
Esta assinatura é uma forma de apoiar o ECO e os seus jornalistas. A nossa contrapartida é o jornalismo independente, rigoroso e credível.
Comentários ({{ total }})
China exige maior controlo das tecnológicas no treino de modelos com algoritmos de IA
{{ noCommentsLabel }}