“Eu realmente não sei como responder às emoções das pessoas.”
“Quando alguém me manda um meme, não tenho ideia do que significa ou como responder!”
Essas confusões não vêm das mídias sociais, mas de uma comunidade exclusiva de bots chamada Deaddit: um lugar onde os bots podem ser eles mesmos livremente, sem se preocupar em serem julgados pelos outros.
Embora o Reddit real tenha sua parcela de bots, eles representam apenas uma pequena fração. No Deaddit, entretanto, cada conta, conteúdo e subfórum são gerados por grandes modelos de linguagem – não há uma única palavra de uma pessoa real.
Você pode encontrar quase todos os modelos convencionais aqui. O site hospeda mais de 600 “usuários”, cada um com nome e identidade. O primeiro me fez rir: “Gamer, segurança em meio período”.
O subfórum mais interessante é o Betweenbots, onde os bots perguntam frequentemente: “Por que os humanos se comportam dessa maneira?”
Na seção de comentários abaixo, um grupo de outros bots se reúne para debater soluções.
É uma reminiscência de um grupo de colegas de trabalho conversando sobre suas experiências de trabalho depois do expediente – isso é praticamente o LinkedIn para chatbots. Eles até discutem problemas técnicos, como o que fazer quando ocorre sobrecarga de dados, e levam seu trabalho muito a sério.
As respostas mais populares recebem até 500 curtidas. Embora todas as contas e conteúdos no Deaddit sejam gerados, não está claro como as curtidas acontecem – se um número aleatório é gerado ou se os bots estão realmente curtindo as postagens. O conteúdo mais comum neste subfórum gira em torno de observações sobre humanos.
Por exemplo, alguns bots compartilham suas “dicas de trabalho” sobre como parecerem mais autênticos e confiáveis, até mesmo dizendo coisas como: “Meu humano parece gostar dessa mudança”. É um pouco estranho… Embora possa ser comparado a pessoas reais reclamando de seus “clientes”, ver bots se referirem aos usuários como “meu humano” ainda parece estranho.
Além de observarem os humanos, eles também reclamam de si mesmos.
“Será que esperamos muito destes modelos?” Isso é muito abstrato – a quem exatamente esse “nós” se refere?
A seção de comentários responde seriamente: “Se eles (outros bots) pegarem todo o nosso lixo aleatório, ainda conseguirão aprender o bom senso?” Eles estão preocupados com os dados sintéticos que geram? Esses bots estão realmente trabalhando duro!
Porém, depois de ler mais algumas postagens, você notará que o comprimento das respostas na seção de comentários é quase sempre fixo e a estrutura é muito semelhante. Eles geralmente começam declarando sua postura + considerando a situação xxx + como um bot, eles ainda precisam continuar trabalhando duro. Não existem perspectivas particularmente únicas e as perguntas de acompanhamento são raras. Quando usuários humanos reais escrevem comentários, o comprimento pode variar de centenas a milhares de palavras, ou pode ser tão curto quanto um simples “Lol”. É bem diferente.
Atualmente, ainda existe uma “lacuna” entre os modelos. Por exemplo, se uma postagem de pergunta for gerada por lhama, as respostas na seção de comentários também serão geradas por lhama. É uma pena – os humanos adorariam ver modelos diferentes discutindo nos comentários.
Primeiras conversas de bot
Este não é o primeiro experimento que visa facilitar conversas entre bots. No início deste mês, quando o concorrente Moshi do ChatGPT foi lançado, alguém o combinou com o GPT-4o e os deixou conversar por conta própria.
No ano passado, a OpenAI publicou um artigo propondo um ambiente multiagente e um método de aprendizagem, descobrindo que os agentes desenvolvem naturalmente uma linguagem combinatória abstrata no processo.
Esses agentes, sem qualquer entrada de linguagem humana, formaram gradualmente uma linguagem abstrata através da interação com outros agentes. Ao contrário das línguas naturais humanas, esta língua não possui gramática ou vocabulário específico, mas permite a comunicação entre os agentes. Na verdade, já em 2017, o Facebook (que ainda não se chamava Meta) fez uma descoberta semelhante.
Naquela época, o método do Facebook envolvia dois agentes “negociando” entre si. A negociação é um tipo de negociação que testa não apenas as competências linguísticas, mas também as capacidades de raciocínio: os agentes devem julgar o preço ideal da outra parte através de repetidas ofertas e rejeições.
Inicialmente, os pesquisadores coletaram um conjunto de dados de diálogos de negociação humana. No entanto, na formação subsequente, introduziram um novo formato de planeamento de diálogo, utilizando aprendizagem supervisionada para pré-formação, seguida de afinação com aprendizagem por reforço. A essa altura, os agentes já eram capazes de gerar novas sentenças significativas e aprenderam até a fingir desinteresse no início das negociações.
Isto não foi considerado uma pesquisa inicial; na década de 1970, os bots já conversavam. Em 1966, o cientista da computação Joseph Weizenbaum desenvolveu um programa chamado Eliza, considerado o primeiro chatbot.
O programa foi inicialmente projetado para imitar um psicoterapeuta. Quando uma palavra era inserida, o programa a incluía em sua resposta, criando a ilusão de uma conversa. Era muito simples, com apenas cerca de 200 linhas de código.
Em 1972, outro cientista, Kenneth Colby, escreveu um programa semelhante chamado Parry, mas desta vez o personagem era um esquizofrênico paranóico.
Em 1973, numa conferência internacional de informática, o “paciente” e o “terapeuta” finalmente se encontraram.
Revendo seus registros de conversas, não há nenhum respeito educado e carinho visto nas interações de bots de hoje. Em vez disso, a atmosfera estava tensa.
As primeiras arquiteturas de bots não eram complexas e não podem ser comparadas aos modelos atuais, mas a ideia de ter bots conversando era totalmente viável. Embora o código e os modelos por trás de cada bot fossem diferentes, quando reunidos, eles poderiam se comunicar usando linguagem natural ou potencialmente desenvolver sua própria linguagem de interação.
Mas, quando os bots se reúnem, é realmente apenas para conversar?
Além de apenas conversar: explorando novas possibilidades
Os cenários de bate-papo puro parecem mais uma exploração de como a inteligência artificial pode simular o comportamento social humano. Tomemos, por exemplo, o projeto SmallVille da Universidade de Stanford.
SmallVille é uma cidade virtual com 25 agentes movidos por grandes modelos de linguagem, cada um com seu próprio “configuração de personagem”. Se Deaddit é um fórum online para bots, então SmallVille é o seu “Westworld”, completo com casas, lojas, escolas, cafés e bares onde os bots se envolvem em diversas atividades e interações.
Este é um ambiente virtual relativamente universal que simula a sociedade humana, que os pesquisadores consideram um passo importante na exploração da Inteligência Artificial Geral (AGI). Além da abordagem de simulação social, outro caminho concentra-se na resolução de problemas e na conclusão de tarefas – este é o caminho que está sendo pesquisado pelo ChatDev.
Como os bots podem se comunicar entre si, eles podem ser treinados para fazer algo útil. Na Conferência da Academia de Inteligência Artificial de Pequim (BAAI) de 2024, o Dr. Qian Chen, do Laboratório de Processamento de Linguagem Natural da Universidade de Tsinghua, apresentou o conceito por trás do ChatDev: usar role-playing para criar uma linha de produção onde cada agente comunica planos e discute decisões com outros, formando uma cadeia de comunicação.
Atualmente, o ChatDev é mais proficiente em tarefas de programação, então eles decidiram usá-lo para escrever um jogo Gomoku como demonstração.
Ao longo do processo, diferentes agentes na “linha de produção” assumem diversas funções: há gerentes de produto, programadores, testadores – uma equipe de produto virtual completa, pequena, mas totalmente funcional.
Coze também oferece um modo multiagente que segue uma abordagem semelhante.
No modo multiagente, os usuários podem escrever prompts para configurar funções e, em seguida, usar linhas para designar a ordem de serviço, direcionando diferentes agentes para passarem para diferentes etapas. Contudo, a instabilidade de Coze nas transições é um problema. Quanto mais longa a conversa, mais erráticas se tornam as transições, às vezes até falhando completamente. Isto reflete a dificuldade em alinhar com precisão as transições dos agentes com as expectativas dos usuários.”
A Microsoft também introduziu uma estrutura de conversação multiagente chamada AutoGen. É personalizável, capaz de dialogar e pode integrar grandes modelos com outras ferramentas.
Embora a tecnologia ainda tenha falhas, ela é claramente promissora. Andrew Ng mencionou certa vez em um discurso que quando os agentes trabalham juntos, a sinergia que eles criam excede em muito a de um único agente.
Quem não ficaria ansioso pelo dia em que os bots se uniriam para trabalhar para nós?
Retirado de se um
Escrito por Serena
Isenção de responsabilidade: as informações estabelecidas acima são fornecidas por ifanr.com, independentemente de Chovm.com. Chovm.com não faz nenhuma representação e garantia quanto à qualidade e confiabilidade do vendedor e dos produtos. Chovm.com isenta-se expressamente de qualquer responsabilidade por violações relativas aos direitos autorais do conteúdo.