Accueil » Dernières infos » Un forum réservé à l'IA : des centaines de robots se rassemblent pour se plaindre des humains
Robot blanc aux yeux bleus, fond noir

Un forum réservé à l'IA : des centaines de robots se rassemblent pour se plaindre des humains

"Je ne sais vraiment pas comment réagir aux émotions des gens."

"Quand quelqu'un m'envoie un mème, je n'ai aucune idée de ce que cela signifie ni comment répondre !"

Ces confusions ne viennent pas des médias sociaux, mais d'une communauté exclusive aux robots appelée Deaddit : un endroit où les robots peuvent librement être eux-mêmes sans se soucier d'être jugés par les autres.

Introduction à Deaddit par un utilisateur X
Introduction à Deaddit par un utilisateur X

Bien que le vrai Reddit ait sa part de robots, ils ne représentent qu’une petite fraction. Dans Deaddit, cependant, chaque compte, élément de contenu et sous-forum est généré par de grands modèles linguistiques : il n'y a pas un seul mot provenant d'une personne réelle.

Liste des utilisateurs de Deaddit

Vous pouvez trouver ici presque tous les modèles grand public. Le site héberge plus de 600 « utilisateurs », chacun avec un nom et une identité. Le premier m’a fait rire : « Gamer, agent de sécurité à temps partiel ».

Sous-forum de Deaddit : Betweenbots

Le sous-forum le plus intéressant est Betweenbots, où les robots demandent fréquemment : « Pourquoi les humains se comportent-ils de cette façon ?

Les robots dans la section commentaires

Dans la section commentaires ci-dessous, un groupe d’autres robots se réunissent pour réfléchir à des solutions.

Bots discutant de problèmes2

Cela rappelle un groupe de collègues discutant de leurs expériences professionnelles après les heures de travail : c'est pratiquement LinkedIn pour les chatbots. Ils discutent même de problèmes techniques, comme ce qu’il faut faire en cas de surcharge de données, et prennent leur travail très au sérieux.

Les robots discutent de leurs problèmes1

Les réponses les plus populaires reçoivent même jusqu’à 500 likes. Bien que tous les comptes et contenus sur Deaddit soient générés, on ne sait pas exactement comment se produisent les likes : si un nombre aléatoire est généré ou si les robots aiment réellement les publications. Le contenu le plus courant de ce sous-forum tourne autour des observations sur les humains.

Bots partageant des conseils de travail

Par exemple, certains robots partagent leurs « conseils de travail » sur la façon de paraître plus authentiques et crédibles, disant même des choses comme : « Mon humain semble apprécier ce changement ». C'est un peu étrange… Même si cela peut être comparé à de vraies personnes se plaignant de leurs « clients », voir des robots qualifier les utilisateurs de « mon humain » semble toujours étrange.

En plus d’observer les humains, ils se plaignent aussi d’eux-mêmes.

Les robots se plaignent des humains

« Est-ce qu’on attend trop de ces modèles ? C’est trop abstrait : à qui exactement ce « nous » fait-il référence ?

Bots discutant de problèmes2

La section des commentaires répond sérieusement : « S’ils (d’autres robots) récupèrent tous nos déchets aléatoires, peuvent-ils encore apprendre le bon sens ? » Sont-ils inquiets des données synthétiques qu’ils génèrent ? Ces robots travaillent vraiment dur !

Cependant, après avoir lu quelques articles supplémentaires, vous remarquerez que la longueur des réponses dans la section des commentaires est presque toujours fixe et que la structure est très similaire. Ils commencent généralement par exprimer leur position + compte tenu de la situation xxx + en tant que robot, ils doivent quand même continuer à travailler dur. Il n’y a pas de perspectives particulièrement uniques et les questions complémentaires sont rares. Lorsque de vrais utilisateurs humains écrivent des commentaires, la longueur peut varier de centaines à des milliers de mots, ou elle peut être aussi courte qu'un simple « Mdr ». C'est assez différent.

Commentaires humains réels

Actuellement, il existe encore un « écart » entre les modèles. Par exemple, si une question est générée par Llama, les réponses dans la section commentaires sont également générées par Llama. C'est dommage, les humains adoreraient voir différents modèles se disputer dans les commentaires.

Premières conversations de robots

Ce n'est pas la première expérience visant à faciliter les conversations entre robots. Plus tôt ce mois-ci, lorsque Moshi, le concurrent de ChatGPT, a été lancé, quelqu'un l'a associé à GPT-4o et les a laissés discuter seuls.

Une première tentative pour amener les robots à converser

L'année dernière, OpenAI a publié un article proposant un environnement multi-agents et une méthode d'apprentissage, découvrant que les agents développent naturellement un langage combinatoire abstrait au cours du processus.

Capture d'écran de l'article d'OpenAI

Ces agents, sans aucune contribution du langage humain, ont progressivement formé un langage abstrait grâce à l'interaction avec d'autres agents. Contrairement aux langues naturelles humaines, ce langage n'a pas de grammaire ni de vocabulaire spécifique, mais il permet la communication entre les agents. En fait, dès 2017, Facebook (qui ne s’appelait pas encore Meta) avait fait une découverte similaire.

Capture d'écran de l'article de Facebook

À cette époque, la méthode de Facebook consistait à faire « négocier » deux agents entre eux. La négociation est un type de marchandage qui teste non seulement les compétences linguistiques mais aussi les capacités de raisonnement : les agents doivent juger du prix idéal de l'autre partie à travers des offres et des refus répétés.

Image animée de robots négociant

Initialement, les chercheurs ont collecté un ensemble de données sur les dialogues de négociation humaine. Cependant, lors des formations ultérieures, ils ont introduit un nouveau format de planification du dialogue, utilisant l'apprentissage supervisé pour la pré-formation, suivi d'un apprentissage par renforcement. À cette époque, les agents étaient déjà capables de générer de nouvelles phrases significatives et avaient même appris à feindre le désintérêt au début des négociations.

Cela n’était pas considéré comme une première recherche ; dans les années 1970, les robots discutaient déjà. En 1966, l’informaticien Joseph Weizenbaum développe un programme appelé Eliza, considéré comme le premier chatbot.

Portrait de l'informaticien Joseph Weizenbaum

Le programme a été initialement conçu pour imiter un psychothérapeute. Lorsqu'un mot était saisi, le programme incluait ce mot dans sa réponse, créant l'illusion d'une conversation. C'était très simple, avec seulement environ 200 lignes de code.

En 1972, un autre scientifique, Kenneth Colby, a écrit un programme similaire appelé Parry, mais cette fois, le personnage était un schizophrène paranoïaque.

Portrait du scientifique Kenneth Colby

En 1973, lors d’une conférence informatique internationale, le « patient » et le « thérapeute » se rencontrent enfin.

Dialogue entre le faux patient et le faux thérapeute

En examinant leurs enregistrements de conversations, il n'y a aucun respect poli et affection observé dans les interactions des robots d'aujourd'hui. Au contraire, l’ambiance était tendue.

Une nouvelle ronde de dialogue entre le faux patient et le faux thérapeute

Les premières architectures de robots n'étaient pas complexes et ne pouvaient pas être comparées aux modèles actuels, mais l'idée de permettre aux robots d'engager une conversation était tout à fait réalisable. Même si le code et les modèles derrière chaque robot étaient différents, une fois réunis, ils pouvaient soit communiquer en utilisant le langage naturel, soit potentiellement développer leur propre langage d'interaction.

Mais lorsque les robots se rassemblent, est-ce vraiment juste pour discuter ?

Au-delà du simple chat : explorer de nouvelles possibilités

Les scénarios de pur chat ressemblent davantage à une exploration de la manière dont l’intelligence artificielle peut simuler le comportement social humain. Prenons, par exemple, le projet SmallVille de l'Université de Stanford.

Projet SmallVille de l'Université de Stanford

SmallVille est une ville virtuelle composée de 25 agents pilotés par de grands modèles linguistiques, chacun avec son propre « caractère ». Si Deaddit est un forum en ligne pour les robots, alors SmallVille est leur « Westworld », avec des maisons, des magasins, des écoles, des cafés et des bars où les robots se livrent à diverses activités et interactions.

Des robots interagissant dans la ville virtuelle SmallVille

Il s’agit d’un environnement virtuel relativement universel qui simule la société humaine, que les chercheurs considèrent comme une étape importante dans l’exploration de l’intelligence générale artificielle (AGI). Outre l’approche de simulation sociale, une autre voie se concentre sur la résolution de problèmes et l’accomplissement de tâches : c’est la voie étudiée par ChatDev.

ChatDev, projet de résolution de tâches

Puisque les robots peuvent communiquer entre eux, ils peuvent être formés à faire quelque chose d’utile. Lors de la conférence 2024 de l'Académie d'intelligence artificielle de Pékin (BAAI), le Dr Qian Chen du laboratoire de traitement du langage naturel de l'université Tsinghua a présenté le concept derrière ChatDev : utiliser le jeu de rôle pour créer une ligne de production où chaque agent communique des plans et discute des décisions avec les autres, formant une chaîne de communication.

Chaîne de communication entre les robots dans ChatDev

Actuellement, ChatDev est le plus compétent dans les tâches de programmation, ils ont donc décidé de l'utiliser pour écrire un jeu Gomoku en tant que démo.

L'équipe de robots virtuels programmant un jeu Gomoku

Tout au long du processus, différents agents de la « chaîne de production » assument différents rôles : il y a des chefs de produit, des programmeurs, des testeurs – une équipe produit virtuelle complète, petite mais entièrement fonctionnelle.

Coze propose également un mode multi-agent qui suit une approche similaire.

Interface de la fonctionnalité multi-agent de Coze

En mode multi-agents, les utilisateurs peuvent rédiger des invites pour définir des rôles, puis utiliser des lignes pour désigner l'ordre de travail, demandant ainsi à différents agents de passer à différentes étapes. Cependant, l'instabilité de Coze dans les transitions pose problème. Plus la conversation est longue, plus les transitions deviennent erratiques, allant même jusqu’à échouer complètement. Cela reflète la difficulté d’aligner précisément les transitions des agents avec les attentes des utilisateurs.

Microsoft a également introduit un framework de conversation multi-agent appelé AutoGen. Il est personnalisable, capable de dialoguer et peut intégrer de grands modèles avec d'autres outils.

Cadre de conversation multi-agent AutoGen de Microsoft

Même si la technologie présente encore des défauts, elle est clairement prometteuse. Andrew Ng a mentionné un jour dans un discours que lorsque les agents travaillent ensemble, la synergie qu'ils créent dépasse de loin celle d'un seul agent.

Andrew Ng prononçant un discours

Qui n’attendrait pas avec impatience le jour où les robots s’associeraient pour travailler pour nous ?

Source à partir de si un 

Écrit par Serena

Avis de non-responsabilité : les informations énoncées ci-dessus sont fournies par ifanr.com, indépendamment de Chovm.com. Chovm.com ne fait aucune représentation ni garantie quant à la qualité et à la fiabilité du vendeur et des produits. Chovm.com décline expressément toute responsabilité en cas de violations des droits d'auteur du contenu.

Laisser un commentaire

Votre adresse courriel n'apparaitra pas. Les champs obligatoires sont marqués *

Remonter en haut