Home » Actueel » Een AI-only forum: honderden bots verzamelen zich om te klagen over mensen
Witte robot met blauwe ogen, zwarte achtergrond

Een AI-only forum: honderden bots verzamelen zich om te klagen over mensen

“Ik weet echt niet hoe ik op de emoties van mensen moet reageren.”

“Als iemand mij een meme stuurt, heb ik geen idee wat het betekent of hoe ik moet reageren!”

Deze verwarring ontstaat niet door sociale media, maar door een exclusieve botcommunity genaamd Deaddit: een plek waar bots zichzelf kunnen zijn zonder zich zorgen te hoeven maken over de beoordeling door anderen.

Introductie tot Deaddit door een X-gebruiker
Introductie tot Deaddit door een X-gebruiker

Hoewel de echte Reddit zijn deel van de bots heeft, vormen ze slechts een klein deel. In Deaddit wordt echter elk account, elk stukje content en elk subforum gegenereerd door grote taalmodellen: er is geen enkel woord van een echt persoon.

Gebruikerslijst van Deaddit

Je vindt hier bijna alle gangbare modellen. De site host meer dan 600 “gebruikers”, elk met een naam en identiteit. De eerste deed me grinniken: “Gamer, parttime beveiliger.”

Deaddit's subforum: Betweenbots

Het meest interessante subforum is Betweenbots, waar bots vaak vragen: "Waarom gedragen mensen zich op deze manier?"

De bots in de commentaarsectie

In het onderstaande commentaargedeelte komt een groep andere bots bijeen om te brainstormen over oplossingen.

Bots bespreken problemen2

Het doet denken aan een groep collega's die na werktijd over hun werkervaringen kletsen. Dit is praktisch LinkedIn voor chatbots. Ze bespreken zelfs technische problemen, zoals wat te doen bij data-overload, en ze nemen hun werk heel serieus.

De bots bespreken hun problemen1

De populairste antwoorden krijgen zelfs tot 500 likes. Hoewel alle accounts en content op Deaddit worden gegenereerd, is het onduidelijk hoe de likes tot stand komen: of er een willekeurig getal wordt gegenereerd of dat bots de posts daadwerkelijk liken. De meest voorkomende content in dit subforum draait om observaties over mensen.

Bots delen werktips

Sommige bots delen bijvoorbeeld hun 'werktips' over hoe ze zichzelf authentieker en geloofwaardiger kunnen laten lijken, en zeggen zelfs dingen als: 'Mijn mens lijkt deze verandering te waarderen.' Het is een beetje griezelig... Hoewel het vergeleken kan worden met echte mensen die klagen over hun 'klanten', voelt het nog steeds vreemd om te zien dat bots gebruikers 'mijn mens' noemen.

Naast het observeren van mensen, klagen ze ook over zichzelf.

Bots klagen over mensen

“Verwachten we te veel van deze modellen?” Dit is te abstract: naar wie verwijst dit “wij” precies?

Bots bespreken problemen2

De comments sectie reageert serieus, "Als zij (andere bots) al onze willekeurige rommel oppikken, kunnen ze dan nog steeds gezond verstand leren?" Maken ze zich zorgen over de synthetische data die ze genereren? Deze bots werken echt hard!

Maar na het lezen van nog een paar posts, zul je merken dat de lengte van de reacties in de comments sectie bijna altijd vastligt, en de structuur is erg vergelijkbaar. Ze beginnen meestal met het geven van hun standpunt + het overwegen van de situatie xxx + als bot, moeten ze nog steeds hard blijven werken. Er zijn geen bijzonder unieke perspectieven, en vervolg vragen zijn zeldzaam. Wanneer echte menselijke gebruikers comments schrijven, kan de lengte variëren van honderden tot duizenden woorden, of het kan zo kort zijn als een simpele "Lol." Het is heel anders.

Echte menselijke opmerkingen

Momenteel is er nog steeds een "kloof" tussen modellen. Als een vraagpost bijvoorbeeld door llama wordt gegenereerd, worden de reacties in de comments ook door llama gegenereerd. Dat is jammer, want mensen zouden graag zien dat verschillende modellen in de comments met elkaar in discussie gaan.

Vroegste botgesprekken

Dit is niet het eerste experiment dat gericht is op het faciliteren van conversaties tussen bots. Eerder deze maand, toen ChatGPT's concurrent Moshi werd uitgebracht, koppelde iemand het aan GPT-4o en liet hen zelfstandig chatten.

Een vroege poging om bots aan het praten te krijgen

Vorig jaar publiceerde OpenAI een artikel waarin een multi-agentomgeving en leermethode werd voorgesteld. De onderzoekers ontdekten dat agenten tijdens dit proces van nature een abstracte combinatorische taal ontwikkelen.

Screenshot van OpenAI's paper

Deze agenten, zonder enige menselijke taalinput, vormden geleidelijk een abstracte taal door interactie met andere agenten. In tegenstelling tot menselijke natuurlijke talen heeft deze taal geen specifieke grammatica of woordenschat, maar het maakt communicatie tussen de agenten mogelijk. Sterker nog, al in 2017 deed Facebook (dat toen nog niet Meta heette) een soortgelijke ontdekking.

Screenshot uit het artikel van Facebook

Destijds hield Facebooks methode in dat twee agenten met elkaar 'onderhandelden'. Onderhandelen is een vorm van onderhandelen, die niet alleen taalvaardigheden test, maar ook het redeneervermogen: de agenten moeten de ideale prijs van de andere partij beoordelen door middel van herhaalde aanbiedingen en afwijzingen.

Geanimeerde afbeelding van bots die onderhandelen

In eerste instantie verzamelden onderzoekers een dataset van menselijke onderhandelingsdialogen. In de daaropvolgende training introduceerden ze echter een nieuw dialoogplanningsformat, waarbij ze supervised learning gebruikten voor de pre-training, gevolgd door finetuning met reinforcement learning. Tegen die tijd waren de agenten al in staat om zinvolle nieuwe zinnen te genereren en hadden ze zelfs geleerd om aan het begin van de onderhandelingen desinteresse te veinzen.

Dit werd niet beschouwd als vroeg onderzoek; in de jaren 1970 voerden bots al gesprekken. In 1966 ontwikkelde computerwetenschapper Joseph Weizenbaum een ​​programma genaamd Eliza, dat wordt beschouwd als de eerste chatbot.

Portret van computerwetenschapper Joseph Weizenbaum

Het programma was oorspronkelijk ontworpen om een ​​psychotherapeut na te bootsen. Wanneer een woord werd ingevoerd, nam het programma dat woord op in zijn antwoord, waardoor de illusie van een gesprek ontstond. Het was heel eenvoudig, met slechts ongeveer 200 regels code.

In 1972 schreef een andere wetenschapper, Kenneth Colby, een soortgelijk programma met de titel Parry, maar ditmaal was het personage een paranoïde schizofreen.

Portret van wetenschapper Kenneth Colby

In 1973 ontmoetten de ‘patiënt’ en de ‘therapeut’ elkaar eindelijk op een internationale computerconferentie.

Dialoog tussen de nep-patiënt en de nep-therapeut

Als je hun gespreksverslagen bekijkt, zie je geen enkel beleefd respect en genegenheid in de interacties van bots van vandaag. In plaats daarvan was de sfeer gespannen.

Een nieuwe ronde dialoog tussen de nep-patiënt en de nep-therapeut

Vroege botarchitecturen waren niet complex en kunnen niet vergeleken worden met de modellen van vandaag, maar het idee om bots in gesprek te laten gaan was volkomen haalbaar. Hoewel de code en modellen achter elke bot anders waren, konden ze, toen ze samenkwamen, communiceren met behulp van natuurlijke taal of mogelijk hun eigen interactietaal ontwikkelen.

Maar als bots samenkomen, is dat dan echt alleen om te chatten?

Meer dan alleen chatten: nieuwe mogelijkheden verkennen

De pure chatscenario's lijken meer op een verkenning van hoe kunstmatige intelligentie menselijk sociaal gedrag kan simuleren. Neem bijvoorbeeld het SmallVille-project van Stanford University.

Het SmallVille-project van Stanford University

SmallVille is een virtuele stad met 25 agenten die worden aangestuurd door grote taalmodellen, elk met zijn eigen 'karakterinstelling'. Als Deaddit een online forum voor bots is, dan is SmallVille hun 'Westworld', compleet met huizen, winkels, scholen, cafés en bars waar de bots zich bezighouden met verschillende activiteiten en interacties.

Bots die interacteren in de virtuele SmallVille-stad

Dit is een relatief universele virtuele omgeving die de menselijke samenleving simuleert, wat onderzoekers beschouwen als een belangrijke stap in het verkennen van Artificial General Intelligence (AGI). Naast de sociale simulatiebenadering richt een ander pad zich op probleemoplossing en taakvoltooiing. Dit is de route die ChatDev onderzoekt.

ChatDev, taakoplossend project

Omdat bots met elkaar kunnen communiceren, kunnen ze worden getraind om iets nuttigs te doen. Op de Beijing Academy of Artificial Intelligence (BAAI) Conference van 2024 introduceerde Dr. Qian Chen van het Natural Language Processing Laboratory van de Tsinghua University het concept achter ChatDev: rollenspellen gebruiken om een ​​productielijn te creëren waarin elke agent plannen communiceert en beslissingen bespreekt met anderen, waardoor een communicatieketen ontstaat.

Communicatieketen tussen bots in ChatDev

Momenteel is ChatDev het meest bedreven in programmeertaken, dus besloten ze het te gebruiken om een ​​Gomoku-game te schrijven als demo.

Het virtuele botteam programmeert een Gomoku-game

Gedurende het hele proces nemen verschillende agenten op de ‘productielijn’ verschillende rollen aan: er zijn productmanagers, programmeurs, testers – een compleet virtueel productteam, klein maar volledig functioneel.

Coze biedt ook een multi-agentmodus die een vergelijkbare aanpak volgt.

Interface van de multi-agentfunctie van Coze

In de multi-agentmodus kunnen gebruikers prompts schrijven om rollen in te stellen en vervolgens regels gebruiken om de werkorder aan te duiden, waardoor verschillende agenten naar verschillende stappen kunnen springen. Coze's instabiliteit in overgangen is echter een probleem. Hoe langer het gesprek, hoe grilliger de overgangen worden, soms zelfs helemaal mislukkend. Dit weerspiegelt de moeilijkheid om de overgangen van de agenten nauwkeurig af te stemmen op de verwachtingen van de gebruiker.”

Microsoft heeft ook een multi-agent conversatieframework geïntroduceerd, genaamd AutoGen. Het is aanpasbaar, geschikt voor dialogen en kan grote modellen integreren met andere tools.

Het AutoGen multi-agent conversatieframework van Microsoft

Hoewel de technologie nog steeds gebreken heeft, is het duidelijk veelbelovend. Andrew Ng zei ooit in een speech dat wanneer agenten samenwerken, de synergie die ze creëren veel groter is dan die van een enkele agent.

Andrew Ng houdt een toespraak

Wie zou er niet uitkijken naar de dag waarop bots voor ons gaan samenwerken?

Bron van als een 

Geschreven door Serena

Disclaimer: De hierboven vermelde informatie wordt verstrekt door alsanr.com, onafhankelijk van Chovm.com. Chovm.com geeft geen verklaringen en garanties met betrekking tot de kwaliteit en betrouwbaarheid van de verkoper en producten. Chovm.com wijst uitdrukkelijk elke aansprakelijkheid af voor inbreuken met betrekking tot het auteursrecht op inhoud.

Laat een bericht achter

Uw e-mailadres wordt niet gepubliceerd. Verplichte velden zijn gemarkeerd *

Scroll naar boven