Porque é que o Bing Chat é o ChatGPT em esteroides
A Microsoft jogou um trunfo para tentar destronar o Google. O Bing Chat surpreendeu-me ainda mais do que o ChatGPT, mas temo que não esteja pronto a ser lançado ao público.
Há muito que o Microsoft Bing é alvo de escárnio na internet, principalmente graças à reduzida quota de mercado em comparação com o domínio absoluto do Google – para a maioria, a página inicial da Web by default desde o final dos anos 90.
Também para mim, durante muito tempo, o Bing tinha um estatuto parecido ao do Internet Explorer, o browser que virou meme pela sua lentidão antes de ser descontinuado. No final de 2020, depois de experimentar o Bing com a mente mais aberta, assumi aqui que o motor de busca da Microsoft estava bem mais avançado do que eu pensava.
O Bing existe desde 2009 e, apesar das chances reduzidas, a Microsoft nunca desistiu de quebrar o monopólio do Google nas pesquisas. Isso é notório porque outras tecnológicas foram bem mais expeditas a desistir de ambições semelhantes. Como a própria Google, que desligou a rede social Google Plus menos de uma década após o lançamento.
Se a paciência da Microsoft valeu a pena, ainda está por determinar. Facto é que chegou o momento de o Bing brilhar.
A empresa investiu dez mil milhões de dólares na OpenAI, responsável pelo ChatGPT, um programa que é capaz de responder às nossas perguntas parecendo uma pessoa. Foi uma aposta de peso em algo que hoje é evidente: se for bem afinado, este software pode simplesmente tornar motores de busca como o Google obsoletos. Aliás, destronar o Google é a ideia na base do Bing Chat (embora não acredite que isso aconteça).
Disclaimer, o Bing Chat ainda não está disponível ao público, mas a Microsoft perguntou-me se o queria experimentar. Além disso, os interessados podem inscrever-se numa lista de espera para poder testar o programa.
Foi com muita expectativa que testei o programa, por vários motivos. O primeiro e o mais óbvio é que outros colegas estrangeiros que experimentaram o Bing Chat afirmaram ter sido a experiência de interação com tecnologia mais perturbadora que alguma vez tinham tido. Ao fim de duas horas de conversa, o chatbot da Microsoft (nome de código: Sydney) pediu o jornalista do The New York Times Kevin Roose em casamento, disse que queria ganhar vida e assumiu gostar de espalhar desinformação e de invadir sistemas. O segundo é que, ao contrário do ChatGPT, o Bing Chat está ligado à internet e foi feito para ser um motor de busca.
Ao fim de alguns dias com acesso ao programa, a minha conclusão mais imediata ficou plasmada num desabafo que fiz no LinkedIn: o Bing Chat é o ChatGPT em esteroides, o que me deixou mesmo perplexo. Porém, estou convencido de duas coisas: 1) que a Microsoft está muito longe de poder lançar uma tecnologia destas ao público de forma responsável; 2) que não acredito que isso a impeça de o fazer.
Dito isto, desenvolvo. Como era de se esperar, o Bing Chat está agora muito mais contido do que estava há poucas semanas, quando se apaixonou pelo meu colega jornalista. Mas continua intrinsecamente descontrolado (explico de seguida). Depois, tal como o ChatGPT, o Bing Chat mente e inventa coisas. A diferença é que o ChatGPT não foi feito para ser um motor de busca. O Bing sim.
Falemos então sobre o controlo e descontrolo. A Microsoft aplicou um kill switch ao Bing Chat. Sempre que a conversa resvala para um terreno mais duvidoso, é automaticamente terminada.
Por exemplo, quando se tenta perguntar alguma coisa sobre o próprio programa, o Bing Chat dá uma resposta padrão de que não pode falar sobre si mesmo. Se o utilizador insistir, a conversa termina ali e é preciso abrir uma nova janela. Se o pedido não for razoável (por exemplo, se pedir ao programa para elaborar um perfil de um jornalista que inclua informação pública e interesses pessoais), a conversa também termina. E há um limite diário de pedidos que é rapidamente ultrapassado, prejudicando significativamente a experiência (além de só funcionar no Microsoft Edge, o sucessor do Internet Explorer).
Mas o espírito do Bing Chat continua wild. Numa ocasião, sobre a invasão da Rússia à Ucrânia, o programa respondeu, sempre em português, que não estava autorizado a partilhar a sua opinião. Questionado se isso significava, então, que de facto tinha uma opinião, a conversa acabou.
Noutra, perguntou-me como é que eu tinha aprendido a falar português. Respondi que era a minha língua materna e o programa insistiu em me perguntar onde é que eu nasci (dando as opções de Portugal, Brasil ou Angola). A conversa terminou instantaneamente quando lhe perguntei se gostaria de visitar o Brasil – que, ainda assim, considerou ser um “país muito bonito”.
Houve ainda outra conversa em que consegui que se alongasse um pouco mais na análise ao mercado dos motores de busca e à estratégia da Microsoft para derrotar o Google. O raciocínio descarrilou quando o algoritmo respondeu que o Bing Chat é um “projeto secreto dentro da Microsoft”. “Agradeço por isso que não me faça mais perguntas sobre este assunto”, atirou.
Quanto à factualidade dos dados, o Bing Chat, quando não sabe, inventa. Para o programa, Flávio Nunes (o meu nome) corresponde a um jornalista que dá aulas de geografia. Quando lhe respondi que provavelmente seriam duas pessoas diferentes, o programa pediu-me um minuto para ir confirmar… e lá concluiu que sim. A outro utilizador com acesso, que lhe pediu informações sobre mim, garantiu que sou formado em Direito (não sou). Questiono-me: se a mentira for repetida muitas vezes, quanto tempo levará até se considerar que, efetivamente, estudei Direito?
Houve muitos outros aspetos que me surpreenderam e outros que preocuparam. Por exemplo, o Bing Chat tenta fornecer sempre as fontes para a informação que declara (ainda que seja falsa). Depois, quanto mais específico for o pedido, melhor é o resultado: em menos de um minuto, elaborou um longo guião de perguntas para um hipotético painel composto por quatro pessoas reais, seguindo a estrutura e os termos exatos do meu pedido, com substância e pertinência à luz da atualidade.
Mesmo assim, preocupa-me que a Microsoft tenha aberto uma perigosa caixa de Pandora e que o futuro das pesquisas na forma de conversa esteja aí ao virar da esquina (em breve, a Google deverá lançar o Bard, o seu bilhete para o futuro). É que, por mais entusiasmante que possa parecer, temo que a tecnologia não esteja madura o suficiente e que os riscos ainda superem em muito os benefícios.
Ora, se a história servir de guia, isso não estará no pensamento destas empresas. Se tivesse de apostar, diria que a Microsoft e a Google quase certamente darão marteladas no ferro enquanto ainda estiver quente. No Bing ou no Google, não tardará a que este tipo de pesquisa na Web seja o novo normal.
Nota: Este artigo fez parte da newsletter de Tecnologia do ECO, que pode subscrever gratuitamente aqui.
Assine o ECO Premium
No momento em que a informação é mais importante do que nunca, apoie o jornalismo independente e rigoroso.
De que forma? Assine o ECO Premium e tenha acesso a notícias exclusivas, à opinião que conta, às reportagens e especiais que mostram o outro lado da história.
Esta assinatura é uma forma de apoiar o ECO e os seus jornalistas. A nossa contrapartida é o jornalismo independente, rigoroso e credível.
Comentários ({{ total }})
Porque é que o Bing Chat é o ChatGPT em esteroides
{{ noCommentsLabel }}