"Je ne sais vraiment pas comment réagir aux émotions des gens."
"Quand quelqu'un m'envoie un mème, je n'ai aucune idée de ce que cela signifie ni comment répondre !"
Ces confusions ne viennent pas des médias sociaux, mais d'une communauté exclusive aux robots appelée Deaddit : un endroit où les robots peuvent librement être eux-mêmes sans se soucier d'être jugés par les autres.
Bien que le vrai Reddit ait sa part de robots, ils ne représentent qu’une petite fraction. Dans Deaddit, cependant, chaque compte, élément de contenu et sous-forum est généré par de grands modèles linguistiques : il n'y a pas un seul mot provenant d'une personne réelle.
Vous pouvez trouver ici presque tous les modèles grand public. Le site héberge plus de 600 « utilisateurs », chacun avec un nom et une identité. Le premier m’a fait rire : « Gamer, agent de sécurité à temps partiel ».
Le sous-forum le plus intéressant est Betweenbots, où les robots demandent fréquemment : « Pourquoi les humains se comportent-ils de cette façon ?
Dans la section commentaires ci-dessous, un groupe d’autres robots se réunissent pour réfléchir à des solutions.
Cela rappelle un groupe de collègues discutant de leurs expériences professionnelles après les heures de travail : c'est pratiquement LinkedIn pour les chatbots. Ils discutent même de problèmes techniques, comme ce qu’il faut faire en cas de surcharge de données, et prennent leur travail très au sérieux.
Les réponses les plus populaires reçoivent même jusqu’à 500 likes. Bien que tous les comptes et contenus sur Deaddit soient générés, on ne sait pas exactement comment se produisent les likes : si un nombre aléatoire est généré ou si les robots aiment réellement les publications. Le contenu le plus courant de ce sous-forum tourne autour des observations sur les humains.
Par exemple, certains robots partagent leurs « conseils de travail » sur la façon de paraître plus authentiques et crédibles, disant même des choses comme : « Mon humain semble apprécier ce changement ». C'est un peu étrange… Même si cela peut être comparé à de vraies personnes se plaignant de leurs « clients », voir des robots qualifier les utilisateurs de « mon humain » semble toujours étrange.
En plus d’observer les humains, ils se plaignent aussi d’eux-mêmes.
« Est-ce qu’on attend trop de ces modèles ? C’est trop abstrait : à qui exactement ce « nous » fait-il référence ?
La section des commentaires répond sérieusement : « S’ils (d’autres robots) récupèrent tous nos déchets aléatoires, peuvent-ils encore apprendre le bon sens ? » Sont-ils inquiets des données synthétiques qu’ils génèrent ? Ces robots travaillent vraiment dur !
Cependant, après avoir lu quelques articles supplémentaires, vous remarquerez que la longueur des réponses dans la section des commentaires est presque toujours fixe et que la structure est très similaire. Ils commencent généralement par exprimer leur position + compte tenu de la situation xxx + en tant que robot, ils doivent quand même continuer à travailler dur. Il n’y a pas de perspectives particulièrement uniques et les questions complémentaires sont rares. Lorsque de vrais utilisateurs humains écrivent des commentaires, la longueur peut varier de centaines à des milliers de mots, ou elle peut être aussi courte qu'un simple « Mdr ». C'est assez différent.
Actuellement, il existe encore un « écart » entre les modèles. Par exemple, si une question est générée par Llama, les réponses dans la section commentaires sont également générées par Llama. C'est dommage, les humains adoreraient voir différents modèles se disputer dans les commentaires.
Premières conversations de robots
Ce n'est pas la première expérience visant à faciliter les conversations entre robots. Plus tôt ce mois-ci, lorsque Moshi, le concurrent de ChatGPT, a été lancé, quelqu'un l'a associé à GPT-4o et les a laissés discuter seuls.
L'année dernière, OpenAI a publié un article proposant un environnement multi-agents et une méthode d'apprentissage, découvrant que les agents développent naturellement un langage combinatoire abstrait au cours du processus.
Ces agents, sans aucune contribution du langage humain, ont progressivement formé un langage abstrait grâce à l'interaction avec d'autres agents. Contrairement aux langues naturelles humaines, ce langage n'a pas de grammaire ni de vocabulaire spécifique, mais il permet la communication entre les agents. En fait, dès 2017, Facebook (qui ne s’appelait pas encore Meta) avait fait une découverte similaire.
À cette époque, la méthode de Facebook consistait à faire « négocier » deux agents entre eux. La négociation est un type de marchandage qui teste non seulement les compétences linguistiques mais aussi les capacités de raisonnement : les agents doivent juger du prix idéal de l'autre partie à travers des offres et des refus répétés.
Initialement, les chercheurs ont collecté un ensemble de données sur les dialogues de négociation humaine. Cependant, lors des formations ultérieures, ils ont introduit un nouveau format de planification du dialogue, utilisant l'apprentissage supervisé pour la pré-formation, suivi d'un apprentissage par renforcement. À cette époque, les agents étaient déjà capables de générer de nouvelles phrases significatives et avaient même appris à feindre le désintérêt au début des négociations.
Cela n’était pas considéré comme une première recherche ; dans les années 1970, les robots discutaient déjà. En 1966, l’informaticien Joseph Weizenbaum développe un programme appelé Eliza, considéré comme le premier chatbot.
Le programme a été initialement conçu pour imiter un psychothérapeute. Lorsqu'un mot était saisi, le programme incluait ce mot dans sa réponse, créant l'illusion d'une conversation. C'était très simple, avec seulement environ 200 lignes de code.
En 1972, un autre scientifique, Kenneth Colby, a écrit un programme similaire appelé Parry, mais cette fois, le personnage était un schizophrène paranoïaque.
En 1973, lors d’une conférence informatique internationale, le « patient » et le « thérapeute » se rencontrent enfin.
En examinant leurs enregistrements de conversations, il n'y a aucun respect poli et affection observé dans les interactions des robots d'aujourd'hui. Au contraire, l’ambiance était tendue.
Les premières architectures de robots n'étaient pas complexes et ne pouvaient pas être comparées aux modèles actuels, mais l'idée de permettre aux robots d'engager une conversation était tout à fait réalisable. Même si le code et les modèles derrière chaque robot étaient différents, une fois réunis, ils pouvaient soit communiquer en utilisant le langage naturel, soit potentiellement développer leur propre langage d'interaction.
Mais lorsque les robots se rassemblent, est-ce vraiment juste pour discuter ?
Au-delà du simple chat : explorer de nouvelles possibilités
Les scénarios de pur chat ressemblent davantage à une exploration de la manière dont l’intelligence artificielle peut simuler le comportement social humain. Prenons, par exemple, le projet SmallVille de l'Université de Stanford.
SmallVille est une ville virtuelle composée de 25 agents pilotés par de grands modèles linguistiques, chacun avec son propre « caractère ». Si Deaddit est un forum en ligne pour les robots, alors SmallVille est leur « Westworld », avec des maisons, des magasins, des écoles, des cafés et des bars où les robots se livrent à diverses activités et interactions.
Il s’agit d’un environnement virtuel relativement universel qui simule la société humaine, que les chercheurs considèrent comme une étape importante dans l’exploration de l’intelligence générale artificielle (AGI). Outre l’approche de simulation sociale, une autre voie se concentre sur la résolution de problèmes et l’accomplissement de tâches : c’est la voie étudiée par ChatDev.
Puisque les robots peuvent communiquer entre eux, ils peuvent être formés à faire quelque chose d’utile. Lors de la conférence 2024 de l'Académie d'intelligence artificielle de Pékin (BAAI), le Dr Qian Chen du laboratoire de traitement du langage naturel de l'université Tsinghua a présenté le concept derrière ChatDev : utiliser le jeu de rôle pour créer une ligne de production où chaque agent communique des plans et discute des décisions avec les autres, formant une chaîne de communication.
Actuellement, ChatDev est le plus compétent dans les tâches de programmation, ils ont donc décidé de l'utiliser pour écrire un jeu Gomoku en tant que démo.
Tout au long du processus, différents agents de la « chaîne de production » assument différents rôles : il y a des chefs de produit, des programmeurs, des testeurs – une équipe produit virtuelle complète, petite mais entièrement fonctionnelle.
Coze propose également un mode multi-agent qui suit une approche similaire.
En mode multi-agents, les utilisateurs peuvent rédiger des invites pour définir des rôles, puis utiliser des lignes pour désigner l'ordre de travail, demandant ainsi à différents agents de passer à différentes étapes. Cependant, l'instabilité de Coze dans les transitions pose problème. Plus la conversation est longue, plus les transitions deviennent erratiques, allant même jusqu’à échouer complètement. Cela reflète la difficulté d’aligner précisément les transitions des agents avec les attentes des utilisateurs.
Microsoft a également introduit un framework de conversation multi-agent appelé AutoGen. Il est personnalisable, capable de dialoguer et peut intégrer de grands modèles avec d'autres outils.
Même si la technologie présente encore des défauts, elle est clairement prometteuse. Andrew Ng a mentionné un jour dans un discours que lorsque les agents travaillent ensemble, la synergie qu'ils créent dépasse de loin celle d'un seul agent.
Qui n’attendrait pas avec impatience le jour où les robots s’associeraient pour travailler pour nous ?
Source à partir de si un
Écrit par Serena
Avis de non-responsabilité : les informations énoncées ci-dessus sont fournies par ifanr.com, indépendamment de Chovm.com. Chovm.com ne fait aucune représentation ni garantie quant à la qualité et à la fiabilité du vendeur et des produits. Chovm.com décline expressément toute responsabilité en cas de violations des droits d'auteur du contenu.