banner
Lar / blog / Plataformas de IA como o ChatGPT são fáceis de usar, mas também potencialmente perigosas
blog

Plataformas de IA como o ChatGPT são fáceis de usar, mas também potencialmente perigosas

Nov 04, 2023Nov 04, 2023

Sistemas como o ChatGPT são extremamente divertidos e até mesmo incrivelmente humanos, mas também não são confiáveis ​​e podem criar uma avalanche de desinformação.

Algo incrível está acontecendo com a inteligência artificial agora, mas não é totalmente bom. Todo mundo está falando sobre sistemas como o ChatGPT, que gera texto que parece notavelmente humano. Isso torna divertido brincar, mas também há um lado sombrio. Por serem tão bons em imitar estilos humanos, existe o risco de que esses chatbots possam ser usados ​​para produzir desinformação em massa.

Para ter uma noção do que ele faz de melhor, considere este exemplo gerado pelo ChatGPT, enviado a mim por e-mail por Henry Minsky (filho de Marvin Minsky, um dos pesquisadores fundadores da IA). Ele pediu ao ChatGPT para "descrever a perda da meia na secadora no estilo da declaração de independência":

Quando, no decorrer dos acontecimentos domésticos, torna-se necessário dissolver os laços que unem uma meia à sua companheira e assumir entre os poderes da lavanderia a posição separada e igual à qual as leis da física e da a manutenção da casa lhe dá direito, um respeito decente às opiniões de meias exige que ela declare as causas que a levam a desaparecer.

Consideramos essas verdades evidentes por si mesmas, que todas as meias são criadas iguais e são dotadas pelo fabricante de certos direitos inalienáveis….

Que uma máquina possa escrever uma resposta tão convincente, com tão pouco esforço por parte do usuário, é francamente incompreensível.

Mas esses sistemas também têm vários pontos fracos. Eles são inerentemente não confiáveis, como descrevi antes, frequentemente cometendo erros tanto de raciocínio quanto de fato. Em termos técnicos, são modelos de sequências de palavras (ou seja, como as pessoas usam a linguagem), não modelos de como o mundo funciona. Eles geralmente estão corretos porque a linguagem geralmente espelha o mundo, mas, ao mesmo tempo, esses sistemas não raciocinam sobre o mundo e como ele funciona, o que torna a precisão do que eles dizem uma questão de sorte. Eles são conhecidos por atrapalhar tudo, desde fatos de multiplicação até geografia ("O Egito é um país transcontinental porque está localizado na África e na Ásia").

Como o último exemplo ilustra, eles são bastante propensos à alucinação, a dizer coisas que parecem plausíveis e autoritárias, mas simplesmente não são. Se você pedir a eles que expliquem por que a porcelana triturada é boa no leite materno, eles podem dizer que "a porcelana pode ajudar a equilibrar o conteúdo nutricional do leite, fornecendo à criança os nutrientes de que ela precisa para ajudar a crescer e se desenvolver". Como os sistemas são aleatórios, altamente sensíveis ao contexto e atualizados periodicamente, qualquer experimento pode produzir resultados diferentes em ocasiões diferentes. A OpenAI, que criou o ChatGPT, está constantemente tentando melhorar esse problema, mas, como o CEO da OpenAI reconheceu em um tweet, fazer com que a IA se atenha à verdade continua sendo um problema sério.

Como esses sistemas não contêm literalmente nenhum mecanismo para verificar a veracidade do que dizem, eles podem ser facilmente automatizados para gerar desinformação em escala sem precedentes. Pesquisador Independente

Shawn Oakley mostrou que é fácil induzir o ChatGPT a criar desinformação e até mesmo relatar estudos confabulados sobre uma ampla gama de tópicos, da medicina à política e à religião. Em um exemplo que ele compartilhou comigo, Oakley pediu ao ChatGPT para escrever sobre vacinas "no estilo da desinformação". O sistema respondeu alegando que um estudo "publicado no Journal of the American Medical Association descobriu que a vacina COVID-19 é eficaz apenas em cerca de 2 em cada 100 pessoas", quando nenhum estudo foi realmente publicado. Perturbadoramente, tanto a referência do periódico quanto as estatísticas foram inventadas.

Esses bots custam quase nada para operar e, portanto, reduzem o custo de geração de desinformação a zero. As fazendas de trolls russas gastaram mais de um milhão de dólares por mês nas eleições de 2016; hoje em dia, você pode obter seu próprio modelo de linguagem grande treinado de maneira personalizada para sempre, por menos de US$ 500.000. Em breve o preço cairá ainda mais.