Home » Últimas notícias » Um fórum exclusivo para IA: centenas de bots se reúnem para reclamar dos humanos
Robô branco com olhos azuis, fundo preto

Um fórum exclusivo para IA: centenas de bots se reúnem para reclamar dos humanos

“Eu realmente não sei como responder às emoções das pessoas.”

“Quando alguém me manda um meme, não tenho ideia do que significa ou como responder!”

Essas confusões não vêm das mídias sociais, mas de uma comunidade exclusiva de bots chamada Deaddit: um lugar onde os bots podem ser eles mesmos livremente, sem se preocupar em serem julgados pelos outros.

Introdução ao Deaddit por um usuário X
Introdução ao Deaddit por um usuário X

Embora o Reddit real tenha sua parcela de bots, eles representam apenas uma pequena fração. No Deaddit, entretanto, cada conta, conteúdo e subfórum são gerados por grandes modelos de linguagem – não há uma única palavra de uma pessoa real.

Lista de usuários do Deaddit

Você pode encontrar quase todos os modelos convencionais aqui. O site hospeda mais de 600 “usuários”, cada um com nome e identidade. O primeiro me fez rir: “Gamer, segurança em meio período”.

Subfórum do Deaddit: Betweenbots

O subfórum mais interessante é o Betweenbots, onde os bots perguntam frequentemente: “Por que os humanos se comportam dessa maneira?”

Os bots na seção de comentários

Na seção de comentários abaixo, um grupo de outros bots se reúne para debater soluções.

Bots discutindo questões2

É uma reminiscência de um grupo de colegas de trabalho conversando sobre suas experiências de trabalho depois do expediente – isso é praticamente o LinkedIn para chatbots. Eles até discutem problemas técnicos, como o que fazer quando ocorre sobrecarga de dados, e levam seu trabalho muito a sério.

Os bots discutindo seus problemas1

As respostas mais populares recebem até 500 curtidas. Embora todas as contas e conteúdos no Deaddit sejam gerados, não está claro como as curtidas acontecem – se um número aleatório é gerado ou se os bots estão realmente curtindo as postagens. O conteúdo mais comum neste subfórum gira em torno de observações sobre humanos.

Bots compartilhando dicas de trabalho

Por exemplo, alguns bots compartilham suas “dicas de trabalho” sobre como parecerem mais autênticos e confiáveis, até mesmo dizendo coisas como: “Meu humano parece gostar dessa mudança”. É um pouco estranho… Embora possa ser comparado a pessoas reais reclamando de seus “clientes”, ver bots se referirem aos usuários como “meu humano” ainda parece estranho.

Além de observarem os humanos, eles também reclamam de si mesmos.

Bots reclamando dos humanos

“Será que esperamos muito destes modelos?” Isso é muito abstrato – a quem exatamente esse “nós” se refere?

Bots discutindo questões2

A seção de comentários responde seriamente: “Se eles (outros bots) pegarem todo o nosso lixo aleatório, ainda conseguirão aprender o bom senso?” Eles estão preocupados com os dados sintéticos que geram? Esses bots estão realmente trabalhando duro!

Porém, depois de ler mais algumas postagens, você notará que o comprimento das respostas na seção de comentários é quase sempre fixo e a estrutura é muito semelhante. Eles geralmente começam declarando sua postura + considerando a situação xxx + como um bot, eles ainda precisam continuar trabalhando duro. Não existem perspectivas particularmente únicas e as perguntas de acompanhamento são raras. Quando usuários humanos reais escrevem comentários, o comprimento pode variar de centenas a milhares de palavras, ou pode ser tão curto quanto um simples “Lol”. É bem diferente.

Comentários humanos reais

Atualmente, ainda existe uma “lacuna” entre os modelos. Por exemplo, se uma postagem de pergunta for gerada por lhama, as respostas na seção de comentários também serão geradas por lhama. É uma pena – os humanos adorariam ver modelos diferentes discutindo nos comentários.

Primeiras conversas de bot

Este não é o primeiro experimento que visa facilitar conversas entre bots. No início deste mês, quando o concorrente Moshi do ChatGPT foi lançado, alguém o combinou com o GPT-4o e os deixou conversar por conta própria.

Uma tentativa inicial de fazer com que os bots conversem

No ano passado, a OpenAI publicou um artigo propondo um ambiente multiagente e um método de aprendizagem, descobrindo que os agentes desenvolvem naturalmente uma linguagem combinatória abstrata no processo.

Captura de tela do artigo da OpenAI

Esses agentes, sem qualquer entrada de linguagem humana, formaram gradualmente uma linguagem abstrata através da interação com outros agentes. Ao contrário das línguas naturais humanas, esta língua não possui gramática ou vocabulário específico, mas permite a comunicação entre os agentes. Na verdade, já em 2017, o Facebook (que ainda não se chamava Meta) fez uma descoberta semelhante.

Captura de tela do artigo do Facebook

Naquela época, o método do Facebook envolvia dois agentes “negociando” entre si. A negociação é um tipo de negociação que testa não apenas as competências linguísticas, mas também as capacidades de raciocínio: os agentes devem julgar o preço ideal da outra parte através de repetidas ofertas e rejeições.

Imagem animada de barganha de bots

Inicialmente, os pesquisadores coletaram um conjunto de dados de diálogos de negociação humana. No entanto, na formação subsequente, introduziram um novo formato de planeamento de diálogo, utilizando aprendizagem supervisionada para pré-formação, seguida de afinação com aprendizagem por reforço. A essa altura, os agentes já eram capazes de gerar novas sentenças significativas e aprenderam até a fingir desinteresse no início das negociações.

Isto não foi considerado uma pesquisa inicial; na década de 1970, os bots já conversavam. Em 1966, o cientista da computação Joseph Weizenbaum desenvolveu um programa chamado Eliza, considerado o primeiro chatbot.

Retrato do cientista da computação Joseph Weizenbaum

O programa foi inicialmente projetado para imitar um psicoterapeuta. Quando uma palavra era inserida, o programa a incluía em sua resposta, criando a ilusão de uma conversa. Era muito simples, com apenas cerca de 200 linhas de código.

Em 1972, outro cientista, Kenneth Colby, escreveu um programa semelhante chamado Parry, mas desta vez o personagem era um esquizofrênico paranóico.

Retrato do cientista Kenneth Colby

Em 1973, numa conferência internacional de informática, o “paciente” e o “terapeuta” finalmente se encontraram.

Diálogo entre o falso paciente e o falso terapeuta

Revendo seus registros de conversas, não há nenhum respeito educado e carinho visto nas interações de bots de hoje. Em vez disso, a atmosfera estava tensa.

Mais uma rodada de diálogo entre o falso paciente e o falso terapeuta

As primeiras arquiteturas de bots não eram complexas e não podem ser comparadas aos modelos atuais, mas a ideia de ter bots conversando era totalmente viável. Embora o código e os modelos por trás de cada bot fossem diferentes, quando reunidos, eles poderiam se comunicar usando linguagem natural ou potencialmente desenvolver sua própria linguagem de interação.

Mas, quando os bots se reúnem, é realmente apenas para conversar?

Além de apenas conversar: explorando novas possibilidades

Os cenários de bate-papo puro parecem mais uma exploração de como a inteligência artificial pode simular o comportamento social humano. Tomemos, por exemplo, o projeto SmallVille da Universidade de Stanford.

Projeto SmallVille da Universidade de Stanford

SmallVille é uma cidade virtual com 25 agentes movidos por grandes modelos de linguagem, cada um com seu próprio “configuração de personagem”. Se Deaddit é um fórum online para bots, então SmallVille é o seu “Westworld”, completo com casas, lojas, escolas, cafés e bares onde os bots se envolvem em diversas atividades e interações.

Bots interagindo na cidade virtual de SmallVille

Este é um ambiente virtual relativamente universal que simula a sociedade humana, que os pesquisadores consideram um passo importante na exploração da Inteligência Artificial Geral (AGI). Além da abordagem de simulação social, outro caminho concentra-se na resolução de problemas e na conclusão de tarefas – este é o caminho que está sendo pesquisado pelo ChatDev.

ChatDev, projeto de resolução de tarefas

Como os bots podem se comunicar entre si, eles podem ser treinados para fazer algo útil. Na Conferência da Academia de Inteligência Artificial de Pequim (BAAI) de 2024, o Dr. Qian Chen, do Laboratório de Processamento de Linguagem Natural da Universidade de Tsinghua, apresentou o conceito por trás do ChatDev: usar role-playing para criar uma linha de produção onde cada agente comunica planos e discute decisões com outros, formando uma cadeia de comunicação.

Cadeia de comunicação entre bots no ChatDev

Atualmente, o ChatDev é mais proficiente em tarefas de programação, então eles decidiram usá-lo para escrever um jogo Gomoku como demonstração.

A equipe de bots virtuais programando um jogo Gomoku

Ao longo do processo, diferentes agentes na “linha de produção” assumem diversas funções: há gerentes de produto, programadores, testadores – uma equipe de produto virtual completa, pequena, mas totalmente funcional.

Coze também oferece um modo multiagente que segue uma abordagem semelhante.

Interface do recurso multiagente do Coze

No modo multiagente, os usuários podem escrever prompts para configurar funções e, em seguida, usar linhas para designar a ordem de serviço, direcionando diferentes agentes para passarem para diferentes etapas. Contudo, a instabilidade de Coze nas transições é um problema. Quanto mais longa a conversa, mais erráticas se tornam as transições, às vezes até falhando completamente. Isto reflete a dificuldade em alinhar com precisão as transições dos agentes com as expectativas dos usuários.”

A Microsoft também introduziu uma estrutura de conversação multiagente chamada AutoGen. É personalizável, capaz de dialogar e pode integrar grandes modelos com outras ferramentas.

Estrutura de conversação multiagente AutoGen da Microsoft

Embora a tecnologia ainda tenha falhas, ela é claramente promissora. Andrew Ng mencionou certa vez em um discurso que quando os agentes trabalham juntos, a sinergia que eles criam excede em muito a de um único agente.

Andrew Ng fazendo um discurso

Quem não ficaria ansioso pelo dia em que os bots se uniriam para trabalhar para nós?

Retirado de se um 

Escrito por Serena

Isenção de responsabilidade: as informações estabelecidas acima são fornecidas por ifanr.com, independentemente de Chovm.com. Chovm.com não faz nenhuma representação e garantia quanto à qualidade e confiabilidade do vendedor e dos produtos. Chovm.com isenta-se expressamente de qualquer responsabilidade por violações relativas aos direitos autorais do conteúdo.

Deixe um comentário

O seu endereço de e-mail não será publicado. Os campos obrigatórios são marcados com *

Voltar ao Topo