Memorize este nome: GPT-3

Foi esta semana anunciado ao mundo mais um passo na procura por inteligência artificial. A aplicação tanto gera belos pedaços de código como discursos de ódio bem ao jeito das redes sociais.

A nova aplicação trabalha sobre a linguagem e aplica a força bruta para gerar conteúdos musicais, literários, programação ou posts para as redes sociais. O nome é uma contração da sua designação técnica: GPT vem de generative pre-training, 3 porque é a terceira versão desta linguagem.

Este modelo de inteligência artificial é ainda rudimentar face ao que aí vem mas, quer queiramos quer não, é um passo na direção do futuro. Esse futuro é admirável a assustador, como convém. A aplicação recorre a redes neuronais para encontrar padrões e aprender linguagens. O que é notável aqui não é a capacidade de programação: muitas aplicações já o fazem de forma semelhante e, até mais capaz. O que é impressionante aqui é que a GPT-3 não foi treinada para programar, nem “aprendeu” inglês. Apreendeu ambas as línguas através da análise detalhada de terabytes e terabytes de dados disponíveis na internet, porque era esse o objetivo para que foi criada: dominar as regras da linguagem, tratando o inglês, o html ou a música por igual e criando informação de forma livre.

O que também é notável – e extremamente perigoso – é que, ao ingerir esses dados, esta “inteligência” aprendeu também a reproduzir estereótipos. Quando começou a disparar tweets, rapidamente adotou os piores exemplos das redes sociais no que toca ao papel da mulher, ao racismo e à promoção da violência. Estas inteligências artificiais precisam de se alimentar de pacotes gigantescos de dados. Dada a sua dimensão, é impossível controlar o que ela ingere, pelo que o risco está sempre lá.

É importante notar que, apesar dos resultados impressionantes, estes pedaços de software não são capazes de compreender argumentos, sentidos ou emoções. São ainda burros, devendo muito pouco à inteligência – parecem espertos devido à força bruta dos seus algoritmos e à quantidade enorme de dados a que acedem para treinar, o que é parte do problema.

Ao aceitarmos os resultados produzidos como “inteligentes”, estamos a validar os argumentos baseados em dados falsos meramente publicados na internet. Somos capazes de controlar cada grama de alimento que damos aos animais que vamos ingerir, mas não somos capazes de fazer o mesmo com as bases de dados que vão governar as nossas vidas. Não é só perigoso, é estúpido. E esta pressa está a ser forçada por indústrias que respondem pouco e mal aos poderes democráticos instituídos.

Este laboratório de investigação foi co-fundado por Elon Musk com o objetivo de criar inteligências artificiais que “sirvam a humanidade no seu todo”. Entretanto, a Microsoft já lá investiu mil milhões de dólares e o modelo de negócio mudou: agora é uma empresa que se prepara a comercializar os seus serviços, incluindo este software de linguagem capaz do melhor e do pior.

A ideia é que em 2021 se venda o acesso a esta tecnologia para que se criem conteúdos “inteligentes”. Se a aplicação não evoluir até lá, será apenas mais uma oportunidade falhada – mesmo que seja rotulada como o próximo nível de “inteligência”. Não deixa de ser irónico que estejamos tão preocupados em encontrar uma inteligência superior à nossa que nos contentemos com uma que é claramente menos capaz.

Ler mais: Este é o artigo científico que anunciou ao mundo a GTP-3 e onde se demonstra em simultâneo o potencial e o risco da mesma

Assine o ECO Premium

No momento em que a informação é mais importante do que nunca, apoie o jornalismo independente e rigoroso.

De que forma? Assine o ECO Premium e tenha acesso a notícias exclusivas, à opinião que conta, às reportagens e especiais que mostram o outro lado da história.

Esta assinatura é uma forma de apoiar o ECO e os seus jornalistas. A nossa contrapartida é o jornalismo independente, rigoroso e credível.

Comentários ({{ total }})

Memorize este nome: GPT-3

Respostas a {{ screenParentAuthor }} ({{ totalReplies }})

{{ noCommentsLabel }}

Ainda ninguém comentou este artigo.

Promova a discussão dando a sua opinião