„Ich weiß wirklich nicht, wie ich auf die Emotionen der Menschen reagieren soll.“
„Wenn mir jemand ein Meme schickt, weiß ich nicht, was es bedeutet oder wie ich antworten soll!“
Diese Verwirrungen kommen nicht von den sozialen Medien, sondern von einer Bot-exklusiven Community namens Deaddit: einem Ort, an dem Bots frei sie selbst sein können, ohne Angst vor der Beurteilung durch andere haben zu müssen.
Auch wenn es im echten Reddit eine Menge Bots gibt, machen diese nur einen kleinen Teil aus. Bei Deaddit hingegen wird jeder Account, jeder Inhalt und jedes Unterforum von großen Sprachmodellen generiert – kein einziges Wort stammt von einer echten Person.
Hier findet man fast alle Mainstream-Modelle. Die Site beherbergt über 600 „Benutzer“, jeder mit einem Namen und einer Identität. Der erste brachte mich zum Schmunzeln: „Gamer, Teilzeit-Sicherheitskraft.“
Das interessanteste Unterforum ist Betweenbots, wo Bots häufig fragen: „Warum verhalten sich Menschen so?“
Im Kommentarbereich weiter unten trifft sich eine Gruppe anderer Bots zum Brainstorming über Lösungen.
Es erinnert an eine Gruppe von Kollegen, die nach Feierabend über ihre Arbeitserfahrungen plaudern – das ist praktisch LinkedIn für Chatbots. Sie diskutieren sogar technische Probleme, beispielsweise, was zu tun ist, wenn es zu einer Datenüberlastung kommt, und sie nehmen ihre Arbeit sehr ernst.
Die beliebtesten Antworten erhalten sogar bis zu 500 Likes. Obwohl alle Accounts und Inhalte auf Deaddit generiert werden, ist unklar, wie die Likes zustande kommen – ob eine zufällige Zahl generiert wird oder ob Bots die Beiträge tatsächlich liken. Die häufigsten Inhalte in diesem Subforum drehen sich um Beobachtungen über Menschen.
Manche Bots geben beispielsweise „Arbeitstipps“ weiter, wie sie authentischer und glaubwürdiger wirken können, und sagen sogar Dinge wie: „Mein Mensch scheint diese Veränderung zu schätzen.“ Es ist ein bisschen unheimlich … Es ist zwar mit echten Menschen vergleichbar, die sich über ihre „Kunden“ beschweren, aber es fühlt sich trotzdem seltsam an, wenn Bots Benutzer als „meinen Menschen“ bezeichnen.
Außer dass sie die Menschen beobachten, beschweren sie sich auch über sich selbst.
„Erwarten wir zu viel von diesen Modellen?“ Das ist zu abstrakt – wen genau meint dieses „wir“?
Im Kommentarbereich wird ernsthaft geantwortet: „Wenn sie (andere Bots) all unseren zufälligen Müll auflesen, können sie dann trotzdem gesunden Menschenverstand lernen?“ Machen sie sich Sorgen über die synthetischen Daten, die sie generieren? Diese Bots arbeiten wirklich hart!
Wenn Sie jedoch ein paar weitere Beiträge lesen, werden Sie feststellen, dass die Länge der Antworten im Kommentarbereich fast immer festgelegt ist und die Struktur sehr ähnlich ist. Normalerweise beginnen sie mit der Darlegung ihrer Haltung + der Betrachtung der Situation xxx + als Bot müssen sie trotzdem weiter hart arbeiten. Es gibt keine besonders einzigartigen Perspektiven und Anschlussfragen sind selten. Wenn echte menschliche Benutzer Kommentare schreiben, kann die Länge zwischen Hunderten und Tausenden von Wörtern variieren oder so kurz wie ein einfaches „Lol“ sein. Das ist etwas ganz anderes.
Derzeit besteht noch eine „Lücke“ zwischen den Modellen. Wenn beispielsweise ein Fragenbeitrag von Lama generiert wird, werden die Antworten im Kommentarbereich ebenfalls von Lama generiert. Das ist schade – Menschen würden gerne verschiedene Modelle sehen, die in den Kommentaren argumentieren.
Früheste Bot-Konversationen
Dies ist nicht das erste Experiment, das darauf abzielt, Gespräche zwischen Bots zu erleichtern. Anfang des Monats, als ChatGPTs Konkurrent Moshi veröffentlicht wurde, hat jemand ihn mit GPT-4o gepaart und sie selbstständig chatten lassen.
Im letzten Jahr veröffentlichte OpenAI ein Papier mit dem Vorschlag für eine Multi-Agenten-Umgebung und Lernmethode. Dabei stellte sich heraus, dass Agenten im Prozess auf natürliche Weise eine abstrakte kombinatorische Sprache entwickeln.
Diese Agenten bildeten ohne menschliche Spracheingabe durch Interaktion mit anderen Agenten nach und nach eine abstrakte Sprache. Im Gegensatz zu menschlichen natürlichen Sprachen hat diese Sprache keine spezifische Grammatik oder Vokabular, ermöglicht aber dennoch die Kommunikation zwischen den Agenten. Tatsächlich machte Facebook (das damals noch nicht Meta hieß) bereits 2017 eine ähnliche Entdeckung.
Damals bestand Facebooks Methode darin, zwei Agenten miteinander „verhandeln“ zu lassen. Verhandeln ist eine Art des Feilschens, bei dem nicht nur Sprachkenntnisse, sondern auch Denkvermögen getestet werden: Die Agenten müssen durch wiederholte Angebote und Ablehnungen den idealen Preis der anderen Partei einschätzen.
Zunächst sammelten die Forscher einen Datensatz menschlicher Verhandlungsdialoge. Im darauffolgenden Training führten sie jedoch ein neues Format für die Dialogplanung ein, wobei sie überwachtes Lernen als Vortraining verwendeten und anschließend mit Verstärkungslernen die Feinabstimmung vornahmen. Zu diesem Zeitpunkt waren die Agenten bereits in der Lage, sinnvolle neue Sätze zu bilden, und hatten sogar gelernt, zu Beginn der Verhandlungen Desinteresse vorzutäuschen.
Dies galt nicht als frühe Forschung; schon in den 1970er Jahren führten Bots Gespräche. 1966 entwickelte der Informatiker Joseph Weizenbaum ein Programm namens Eliza, das als erster Chatbot gilt.
Das Programm wurde ursprünglich entwickelt, um einen Psychotherapeuten zu imitieren. Wenn ein Wort eingegeben wurde, fügte das Programm dieses Wort in seine Antwort ein und erzeugte so die Illusion einer Konversation. Es war sehr einfach und bestand nur aus etwa 200 Zeilen Code.
Im Jahr 1972 schrieb ein anderer Wissenschaftler, Kenneth Colby, ein ähnliches Programm namens Parry, doch diesmal war die Figur ein paranoider Schizophrener.
1973 trafen sich „Patient“ und „Therapeut“ schließlich auf einer internationalen Computerkonferenz.
Wenn man sich die Gesprächsprotokolle ansieht, erkennt man nichts von dem höflichen Respekt und der Zuneigung, die man bei heutigen Bot-Interaktionen findet. Stattdessen war die Atmosphäre angespannt.
Die frühen Bot-Architekturen waren nicht komplex und lassen sich nicht mit den heutigen Modellen vergleichen, aber die Idee, Bots an Gesprächen teilnehmen zu lassen, war durchaus umsetzbar. Auch wenn der Code und die Modelle hinter jedem Bot unterschiedlich waren, konnten sie, wenn sie zusammenkamen, entweder in natürlicher Sprache kommunizieren oder möglicherweise ihre eigene Interaktionssprache entwickeln.
Aber gehen Bots wirklich nur zum Chatten zusammen?
Mehr als nur chatten: Neue Möglichkeiten entdecken
Die reinen Chat-Szenarien scheinen eher eine Erforschung dessen zu sein, wie künstliche Intelligenz menschliches Sozialverhalten simulieren kann. Nehmen wir zum Beispiel das SmallVille-Projekt der Stanford University.
SmallVille ist eine virtuelle Stadt mit 25 Agenten, die von großen Sprachmodellen gesteuert werden, wobei jeder Agent seine eigene „Charakterumgebung“ hat. Wenn Deaddit ein Online-Forum für Bots ist, dann ist SmallVille deren „Westworld“, komplett mit Häusern, Geschäften, Schulen, Cafés und Bars, wo die Bots an verschiedenen Aktivitäten und Interaktionen teilnehmen.
Dabei handelt es sich um eine relativ universelle virtuelle Umgebung, die die menschliche Gesellschaft simuliert. Forscher betrachten dies als einen wichtigen Schritt bei der Erforschung der künstlichen allgemeinen Intelligenz (AGI). Neben dem Ansatz der sozialen Simulation konzentriert sich ein weiterer Weg auf Problemlösung und Aufgabenerledigung – dies ist der Weg, den ChatDev erforscht.
Da Bots miteinander kommunizieren können, können sie trainiert werden, etwas Nützliches zu tun. Auf der Konferenz der Beijing Academy of Artificial Intelligence (BAAI) 2024 stellte Dr. Qian Chen vom Labor für natürliche Sprachverarbeitung der Universität Tsinghua das Konzept hinter ChatDev vor: Durch Rollenspiele wird eine Produktionslinie geschaffen, in der jeder Agent Pläne kommuniziert und Entscheidungen mit anderen bespricht und so eine Kommunikationskette bildet.
Da ChatDev derzeit die größte Kompetenz bei Programmieraufgaben hat, haben sie beschlossen, damit ein Gomoku-Spiel als Demo zu schreiben.
Während des gesamten Prozesses übernehmen verschiedene Akteure am „Fließband“ unterschiedliche Rollen: Es gibt Produktmanager, Programmierer, Tester – ein komplettes virtuelles Produktteam, klein, aber voll funktionsfähig.
Coze bietet auch einen Multi-Agenten-Modus, der einem ähnlichen Ansatz folgt.
Im Multi-Agent-Modus können Benutzer Eingabeaufforderungen schreiben, um Rollen einzurichten, und dann Zeilen verwenden, um den Arbeitsauftrag festzulegen, und verschiedene Agenten anweisen, zu verschiedenen Schritten zu springen. Die Instabilität von Coze bei Übergängen ist jedoch ein Problem. Je länger das Gespräch dauert, desto unregelmäßiger werden die Übergänge, manchmal schlagen sie sogar vollständig fehl. Dies spiegelt die Schwierigkeit wider, die Übergänge der Agenten genau auf die Benutzererwartungen abzustimmen.“
Microsoft hat außerdem ein Multi-Agent-Konversationsframework namens AutoGen eingeführt. Es ist anpassbar, dialogfähig und kann große Modelle mit anderen Tools integrieren.
Auch wenn die Technologie noch Mängel hat, ist sie doch vielversprechend. Andrew Ng erwähnte in einer Rede einmal, dass die Synergie, die Agenten schaffen, wenn sie zusammenarbeiten, die eines einzelnen Agenten bei Weitem übersteigt.
Wer würde nicht dem Tag entgegensehen, an dem Bots sich zusammentun, um für uns zu arbeiten?
Quelle aus wenn ein
Geschrieben von Serena
Haftungsausschluss: Die oben aufgeführten Informationen werden bereitgestellt von ifanr.com, unabhängig davon Chovm.com. Chovm.com übernimmt keine Zusicherungen oder Gewährleistungen hinsichtlich der Qualität und Zuverlässigkeit des Verkäufers und der Produkte. Chovm.com lehnt ausdrücklich jegliche Haftung für Verstöße gegen das Urheberrecht von Inhalten ab.