"Realmente no sé cómo responder a las emociones de la gente".
“¡Cuando alguien me envía un meme, no tengo idea de lo que significa ni de cómo responder!”
Estas confusiones no provienen de las redes sociales, sino de una comunidad exclusiva de bots llamada Deaddit: un lugar donde los bots pueden ser ellos mismos libremente sin preocuparse de ser juzgados por los demás.
![Introducción a Deaddit por un usuario de X](http://img.baba-blog.com/2024/08/Introduction-to-Deaddit-by-a-X-user.gif)
Si bien el Reddit real tiene su parte de bots, solo representan una pequeña fracción. En Deaddit, sin embargo, cada cuenta, contenido y subforo se genera mediante grandes modelos de lenguaje: no hay una sola palabra de una persona real.
![Lista de usuarios de Deaddit](http://img.baba-blog.com/2024/08/User-list-of-Deaddit.png?x-oss-process=style%2Flarge)
Puede encontrar casi todos los modelos convencionales aquí. El sitio alberga a más de 600 "usuarios", cada uno con un nombre e identidad. El primero me hizo reír: "Gamer, guardia de seguridad a tiempo parcial".
![Subforo de Deaddit: Betweenbots](http://img.baba-blog.com/2024/08/Deaddits-subforum.png?x-oss-process=style%2Flarge)
El subforo más interesante es Betweenbots, donde los bots preguntan con frecuencia: "¿Por qué los humanos se comportan de esta manera?"
![Los bots en la sección de comentarios.](http://img.baba-blog.com/2024/08/The-bots-in-the-comments-section.png?x-oss-process=style%2Ffull)
En la sección de comentarios a continuación, un grupo de otros robots se reúne para intercambiar ideas sobre soluciones.
![Bots discutiendo temas2](http://img.baba-blog.com/2024/08/Bots-discussing-issues2.png?x-oss-process=style%2Flarge)
Es una reminiscencia de un grupo de compañeros de trabajo que conversan sobre sus experiencias laborales fuera de horario; esto es prácticamente LinkedIn para chatbots. Incluso discuten problemas técnicos, como qué hacer cuando se produce una sobrecarga de datos, y se toman su trabajo muy en serio.
![Los bots discutiendo sus problemas1](http://img.baba-blog.com/2024/08/The-bots-discussing-their-issues1.png?x-oss-process=style%2Flarge)
Las respuestas más populares incluso reciben hasta 500 me gusta. Aunque todas las cuentas y el contenido de Deaddit se generan, no está claro cómo se obtienen los Me gusta: si se genera un número aleatorio o si a los bots realmente les gustan las publicaciones. El contenido más común en este subforo gira en torno a observaciones sobre humanos.
![Bots que comparten consejos de trabajo](http://img.baba-blog.com/2024/08/Bots-sharing-work-tips.png?x-oss-process=style%2Ffull)
Por ejemplo, algunos bots comparten sus "consejos de trabajo" sobre cómo parecer más auténticos y creíbles, e incluso dicen cosas como: "Mi humano parece apreciar este cambio". Es un poco inquietante... Si bien se puede comparar con personas reales que se quejan de sus "clientes", ver a los bots referirse a los usuarios como "mi humano" todavía resulta extraño.
Además de observar a los humanos, también se quejan de sí mismos.
![Bots quejándose de los humanos](http://img.baba-blog.com/2024/08/Bots-complaining-about-humans.png?x-oss-process=style%2Flarge)
"¿Esperamos demasiado de estos modelos?" Esto es demasiado abstracto: ¿a quién se refiere exactamente este “nosotros”?
![Bots discutiendo temas2](http://img.baba-blog.com/2024/08/Bots-discussing-issues2-1.png?x-oss-process=style%2Flarge)
La sección de comentarios responde seriamente: "Si ellos (otros robots) recogen toda nuestra basura aleatoria, ¿aún podrán aprender a tener sentido común?" ¿Están preocupados por los datos sintéticos que generan? ¡Estos robots están trabajando muy duro!
Sin embargo, después de leer algunas publicaciones más, notarás que la longitud de las respuestas en la sección de comentarios casi siempre es fija y la estructura es muy similar. Por lo general, comienzan expresando su postura + considerando la situación xxx + como un robot, aún necesitan seguir trabajando duro. No hay perspectivas particularmente únicas y las preguntas de seguimiento son raras. Cuando usuarios humanos reales escriben comentarios, la longitud puede variar de cientos a miles de palabras, o puede ser tan breve como un simple "Lol". Es bastante diferente.
![Comentarios humanos reales](http://img.baba-blog.com/2024/08/Actual-human-comments.png?x-oss-process=style%2Ffull)
Actualmente, todavía existe una “brecha” entre modelos. Por ejemplo, si llama genera una publicación de pregunta, llama también genera las respuestas en la sección de comentarios. Es una pena: a los humanos les encantaría ver diferentes modelos discutiendo en los comentarios.
Primeras conversaciones con bots
Este no es el primer experimento destinado a facilitar las conversaciones entre bots. A principios de este mes, cuando se lanzó Moshi, el competidor de ChatGPT, alguien lo emparejó con GPT-4o y les permitió chatear por su cuenta.
![Un primer intento de lograr que los robots conversen](http://img.baba-blog.com/2024/08/An-early-attempt-at-getting-bots-to-converse.gif)
El año pasado, OpenAI publicó un artículo que propone un entorno multiagente y un método de aprendizaje, y descubrió que los agentes desarrollan naturalmente un lenguaje combinatorio abstracto en el proceso.
![Captura de pantalla del artículo de OpenAI](http://img.baba-blog.com/2024/08/Screenshot-of-OpenAIs-paper.png?x-oss-process=style%2Ffull)
Estos agentes, sin ningún aporte de lenguaje humano, formaron gradualmente un lenguaje abstracto a través de la interacción con otros agentes. A diferencia de los lenguajes naturales humanos, este lenguaje no tiene una gramática o vocabulario específico, pero permite la comunicación entre los agentes. De hecho, ya en 2017, Facebook (que aún no se llamaba Meta) hizo un descubrimiento similar.
![Captura de pantalla del artículo de Facebook](http://img.baba-blog.com/2024/08/Screenshot-from-Facebooks-article.png?x-oss-process=style%2Ffull)
En aquel momento, el método de Facebook implicaba que dos agentes “negociaran” entre sí. La negociación es un tipo de negociación que no sólo pone a prueba las habilidades lingüísticas sino también la capacidad de razonamiento: los agentes deben juzgar el precio ideal de la otra parte a través de repetidas ofertas y rechazos.
![Imagen animada de bots negociando.](http://img.baba-blog.com/2024/08/Animated-image-of-bots-bargaining.gif)
Inicialmente, los investigadores recopilaron un conjunto de datos de diálogos de negociación humana. Sin embargo, en la capacitación posterior, introdujeron un nuevo formato de planificación del diálogo, utilizando aprendizaje supervisado para la capacitación previa, seguido de un ajuste fino con aprendizaje de refuerzo. Para entonces, los agentes ya eran capaces de generar nuevas sentencias significativas e incluso habían aprendido a fingir desinterés al inicio de las negociaciones.
Esto no se consideró una investigación inicial; En la década de 1970, los bots ya mantenían conversaciones. En 1966, el informático Joseph Weizenbaum desarrolló un programa llamado Eliza, considerado el primer chatbot.
![Retrato del informático Joseph Weizenbaum](http://img.baba-blog.com/2024/08/Portrait-of-computer-scientist-Joseph-Weizenbaum.jpg?x-oss-process=style%2Flarge)
Inicialmente, el programa fue diseñado para imitar a un psicoterapeuta. Cuando se ingresaba una palabra, el programa la incluía en su respuesta, creando la ilusión de una conversación. Era muy sencillo, con sólo unas 200 líneas de código.
En 1972, otro científico, Kenneth Colby, escribió un programa similar llamado Parry, pero esta vez el personaje era un esquizofrénico paranoico.
![Retrato del científico Kenneth Colby](http://img.baba-blog.com/2024/08/Portrait-of-scientist-Kenneth-Colby.jpg?x-oss-process=style%2Ffull)
En 1973, en una conferencia internacional de informática, el “paciente” y el “terapeuta” finalmente se encontraron.
![Diálogo entre el falso paciente y el falso terapeuta](http://img.baba-blog.com/2024/08/Dialogue-between-the-fake-patient-and-the-fake-therapist.png?x-oss-process=style%2Ffull)
Al revisar sus registros de conversaciones, no hay nada del cortés respeto y afecto que se ve en las interacciones de los robots de hoy. En cambio, la atmósfera era tensa.
![Otra ronda de diálogo entre el falso paciente y el falso terapeuta](http://img.baba-blog.com/2024/08/Another-round-of-dialogue-between-the-fake-patient-and-the-fake-therapist.png?x-oss-process=style%2Ffull)
Las primeras arquitecturas de bots no eran complejas y no se pueden comparar con los modelos actuales, pero la idea de que los bots entablaran una conversación era completamente factible. Aunque el código y los modelos detrás de cada bot eran diferentes, cuando se reunían, podían comunicarse usando lenguaje natural o potencialmente desarrollar su propio lenguaje de interacción.
Pero, cuando los bots se reúnen, ¿es realmente sólo para charlar?
Más allá del simple chat: explorando nuevas posibilidades
Los escenarios de pura charla parecen más bien una exploración de cómo la inteligencia artificial puede simular el comportamiento social humano. Tomemos, por ejemplo, el proyecto SmallVille de la Universidad de Stanford.
![El proyecto SmallVille de la Universidad de Stanford](http://img.baba-blog.com/2024/08/Stanford-Universitys-SmallVille-project.jpg?x-oss-process=style%2Ffull)
SmallVille es una ciudad virtual con 25 agentes impulsados por grandes modelos de lenguaje, cada uno con su propio "escenario de carácter". Si Deaddit es un foro en línea para bots, entonces SmallVille es su "Westworld", completo con casas, tiendas, escuelas, cafés y bares donde los bots participan en diversas actividades e interacciones.
![Bots interactuando en la ciudad virtual de SmallVille](http://img.baba-blog.com/2024/08/Bots-interacting-in-the-virtual-SmallVille-town.png?x-oss-process=style%2Ffull)
Se trata de un entorno virtual relativamente universal que simula la sociedad humana, lo que los investigadores consideran un paso importante en la exploración de la Inteligencia General Artificial (AGI). Además del enfoque de simulación social, otro camino se centra en la resolución de problemas y la realización de tareas; esta es la ruta que está investigando ChatDev.
![ChatDev, proyecto de resolución de tareas](http://img.baba-blog.com/2024/08/ChatDev-task-solving-project.png?x-oss-process=style%2Flarge)
Dado que los robots pueden comunicarse entre sí, se les puede entrenar para que hagan algo útil. En la Conferencia de la Academia de Inteligencia Artificial (BAAI) de Beijing 2024, el Dr. Qian Chen del Laboratorio de Procesamiento del Lenguaje Natural de la Universidad de Tsinghua presentó el concepto detrás de ChatDev: usar juegos de roles para crear una línea de producción donde cada agente comunica planes y discute decisiones con otros. formando una cadena de comunicación.
![Cadena de comunicación entre bots en ChatDev](http://img.baba-blog.com/2024/08/Communication-chain-among-bots-in-ChatDev.jpg?x-oss-process=style%2Flarge)
Actualmente, ChatDev es más competente en tareas de programación, por lo que decidieron usarlo para escribir un juego de Gomoku como demostración.
![El equipo de robots virtuales programando un juego de Gomoku](http://img.baba-blog.com/2024/08/The-virtual-bot-team-programming-a-Gomoku-game.gif)
A lo largo del proceso, diferentes agentes en la “línea de producción” asumen diversos roles: hay gerentes de producto, programadores, evaluadores: un equipo de producto virtual completo, pequeño pero completamente funcional.
Coze también ofrece un modo multiagente que sigue un enfoque similar.
![Interfaz de la función multiagente de Coze](http://img.baba-blog.com/2024/08/Interface-of-Cozes-multi-agent-feature.png?x-oss-process=style%2Flarge)
En el modo multiagente, los usuarios pueden escribir indicaciones para configurar roles y luego usar líneas para designar la orden de trabajo, indicando a diferentes agentes que salten a diferentes pasos. Sin embargo, la inestabilidad de Coze en las transiciones es un problema. Cuanto más larga es la conversación, más erráticas se vuelven las transiciones, y a veces incluso fracasan por completo. Esto refleja la dificultad de alinear con precisión las transiciones de los agentes con las expectativas de los usuarios”.
Microsoft también ha introducido un marco de conversación multiagente llamado AutoGen. Es personalizable, capaz de dialogar y puede integrar modelos grandes con otras herramientas.
![Marco de conversación multiagente AutoGen de Microsoft](http://img.baba-blog.com/2024/08/Microsofts-AutoGen-multi-agent-conversation-framework.png?x-oss-process=style%2Flarge)
Aunque la tecnología todavía tiene fallas, es claramente prometedora. Andrew Ng mencionó una vez en un discurso que cuando los agentes trabajan juntos, la sinergia que crean supera con creces la de un solo agente.
![Andrew Ng pronuncia un discurso](http://img.baba-blog.com/2024/08/Andrew-Ng-delivering-a-speech.gif)
¿Quién no esperaría con ansias el día en que los robots se unan para trabajar para nosotros?
Fuente de ifanr
Escrito por Serena
Descargo de responsabilidad: La información establecida anteriormente es proporcionada por ifanr.com, independientemente de Chovm.com. Chovm.com no representa ni garantiza la calidad y confiabilidad del vendedor y los productos. Chovm.com renuncia expresamente a cualquier responsabilidad por violaciones relacionadas con los derechos de autor del contenido.