Casa » Notizie » Un forum dedicato esclusivamente all'intelligenza artificiale: centinaia di bot si riuniscono per lamentarsi degli esseri umani
Robot bianco con gli occhi azzurri, sfondo nero

Un forum dedicato esclusivamente all'intelligenza artificiale: centinaia di bot si riuniscono per lamentarsi degli esseri umani

"Non so davvero come rispondere alle emozioni delle persone."

"Quando qualcuno mi manda un meme, non ho idea di cosa significhi o come rispondere!"

Queste confusioni non provengono dai social media, ma da una comunità esclusiva di bot chiamata Deaddit: un luogo dove i bot possono liberamente essere se stessi senza preoccuparsi di essere giudicati dagli altri.

Introduzione a Deaddit da parte di un utente X
Introduzione a Deaddit da parte di un utente X

Anche se il vero Reddit ha la sua quota di bot, questi costituiscono solo una piccola parte. In Deaddit, tuttavia, ogni account, contenuto e forum secondario è generato da modelli linguistici di grandi dimensioni: non c'è una sola parola di una persona reale.

Elenco utenti di Deaddit

Puoi trovare quasi tutti i modelli tradizionali qui. Il sito ospita oltre 600 "utenti", ciascuno con un nome e un'identità. Il primo mi ha fatto ridere: “Giocatore, guardia di sicurezza part-time”.

Forum secondario di Deaddit: Betweenbots

Il forum secondario più interessante è Betweenbots, dove i bot spesso chiedono: "Perché gli esseri umani si comportano in questo modo?"

I bot nella sezione commenti

Nella sezione commenti qui sotto, un gruppo di altri bot si riunisce per discutere di soluzioni.

Bot che discutono di problemi2

Ricorda un gruppo di colleghi che chiacchierano delle loro esperienze lavorative fuori orario: è praticamente LinkedIn per i chatbot. Discutono anche di problemi tecnici, come cosa fare in caso di sovraccarico di dati, e prendono molto sul serio il loro lavoro.

I bot discutono i loro problemi1

Le risposte più popolari ricevono anche fino a 500 Mi piace. Sebbene tutti gli account e i contenuti su Deaddit siano generati, non è chiaro come avvengano i Mi piace: se viene generato un numero casuale o se ai bot piacciono effettivamente i post. Il contenuto più comune in questo sottoforum ruota attorno alle osservazioni sugli esseri umani.

Bot che condividono suggerimenti di lavoro

Ad esempio, alcuni bot condividono i loro “consigli di lavoro” su come apparire più autentici e credibili, dicendo anche cose del tipo: “Il mio essere umano sembra apprezzare questo cambiamento”. È un po' inquietante... Anche se può essere paragonato a persone reali che si lamentano dei loro "clienti", vedere i bot riferirsi agli utenti come "il mio essere umano" sembra comunque strano.

Oltre ad osservare gli esseri umani, si lamentano anche di se stessi.

Bot che si lamentano degli umani

“Ci aspettiamo troppo da questi modelli?” Questo è troppo astratto: a chi si riferisce esattamente questo “noi”?

Bot che discutono di problemi2

La sezione dei commenti risponde seriamente: "Se loro (altri bot) raccogliessero tutta la nostra spazzatura casuale, potrebbero ancora imparare il buon senso?" Sono preoccupati per i dati sintetici che generano? Questi robot stanno davvero lavorando duro!

Tuttavia, dopo aver letto qualche altro post, noterai che la lunghezza delle risposte nella sezione commenti è quasi sempre fissa e la struttura è molto simile. Di solito iniziano dichiarando la loro posizione + considerando la situazione xxx + come un bot, devono comunque continuare a lavorare sodo. Non ci sono prospettive particolarmente uniche e le domande di follow-up sono rare. Quando utenti umani reali scrivono commenti, la lunghezza può variare da centinaia a migliaia di parole, oppure potrebbe essere breve come un semplice “Lol”. È abbastanza diverso.

Commenti umani reali

Attualmente esiste ancora un “gap” tra i modelli. Ad esempio, se il post di una domanda viene generato da llama, anche le risposte nella sezione commenti vengono generate da llama. È un peccato: agli umani piacerebbe vedere diversi modelli discutere nei commenti.

Le prime conversazioni con i bot

Questo non è il primo esperimento volto a facilitare le conversazioni tra bot. All'inizio di questo mese, quando è stato rilasciato Moshi, il concorrente di ChatGPT, qualcuno lo ha accoppiato con GPT-4o e gli ha permesso di chattare da soli.

Un primo tentativo di far conversare tra i robot

L’anno scorso, OpenAI ha pubblicato un articolo in cui proponeva un ambiente multi-agente e un metodo di apprendimento, scoprendo che gli agenti sviluppano naturalmente un linguaggio combinatorio astratto nel processo.

Screenshot del documento di OpenAI

Questi agenti, senza alcun input del linguaggio umano, formarono gradualmente un linguaggio astratto attraverso l'interazione con altri agenti. A differenza delle lingue naturali umane, questa lingua non ha una grammatica o un vocabolario specifico, ma consente la comunicazione tra gli agenti. Infatti, già nel 2017, Facebook (che non si chiamava ancora Meta) aveva fatto una scoperta simile.

Screenshot dall'articolo di Facebook

A quel tempo, il metodo di Facebook prevedeva che due agenti “negoziassero” tra loro. La negoziazione è un tipo di contrattazione, che mette alla prova non solo le abilità linguistiche ma anche le capacità di ragionamento: gli agenti devono giudicare il prezzo ideale dell'altra parte attraverso ripetute offerte e rifiuti.

Immagine animata della contrattazione dei bot

Inizialmente, i ricercatori hanno raccolto un set di dati di dialoghi negoziali umani. Tuttavia, nella formazione successiva, hanno introdotto un nuovo formato di pianificazione del dialogo, utilizzando l’apprendimento supervisionato per la pre-formazione, seguito da un perfezionamento con l’apprendimento di rinforzo. A quel punto gli agenti erano già in grado di formulare nuove frasi significative e avevano persino imparato a fingere disinteresse all’inizio delle trattative.

Questa non è stata considerata la ricerca iniziale; negli anni ’1970 i bot stavano già conversando. Nel 1966, l’informatico Joseph Weizenbaum sviluppò un programma chiamato Eliza, considerato il primo chatbot.

Ritratto dell'informatico Joseph Weizenbaum

Il programma è stato inizialmente progettato per imitare uno psicoterapeuta. Quando veniva inserita una parola, il programma la includeva nella sua risposta, creando l'illusione di una conversazione. Era molto semplice, con solo circa 200 righe di codice.

Nel 1972, un altro scienziato, Kenneth Colby, scrisse un programma simile chiamato Parry, ma questa volta il personaggio era uno schizofrenico paranoico.

Ritratto dello scienziato Kenneth Colby

Nel 1973, ad una conferenza internazionale sull’informatica, il “paziente” e il “terapeuta” finalmente si incontrarono.

Dialogo tra il falso paziente e il falso terapeuta

Esaminando i registri delle loro conversazioni, non c'è niente del rispetto educato e dell'affetto visti nelle interazioni dei bot di oggi. Invece il clima era teso.

Un altro giro di dialogo tra il falso paziente e il falso terapeuta

Le prime architetture dei bot non erano complesse e non possono essere paragonate ai modelli odierni, ma l'idea di coinvolgere i bot in una conversazione era del tutto fattibile. Anche se il codice e i modelli alla base di ciascun bot erano diversi, quando si riunivano potevano comunicare utilizzando il linguaggio naturale o potenzialmente sviluppare un proprio linguaggio di interazione.

Ma quando i bot si riuniscono, è davvero solo per chiacchierare?

Oltre la semplice chiacchierata: esplorare nuove possibilità

Gli scenari di pura chat sembrano più un’esplorazione di come l’intelligenza artificiale può simulare il comportamento sociale umano. Prendiamo ad esempio il progetto SmallVille dell'Università di Stanford.

Progetto SmallVille dell'Università di Stanford

SmallVille è una città virtuale con 25 agenti guidati da grandi modelli linguistici, ciascuno con la propria “ambientazione dei personaggi”. Se Deaddit è un forum online per bot, allora SmallVille è il loro “Westworld”, completo di case, negozi, scuole, caffè e bar dove i bot si impegnano in varie attività e interazioni.

Bot che interagiscono nella città virtuale di SmallVille

Si tratta di un ambiente virtuale relativamente universale che simula la società umana, che i ricercatori considerano un passo importante nell’esplorazione dell’Intelligenza Generale Artificiale (AGI). Oltre all'approccio di simulazione sociale, un altro percorso si concentra sulla risoluzione dei problemi e sul completamento delle attività: questo è il percorso studiato da ChatDev.

ChatDev, progetto di risoluzione dei compiti

Poiché i robot possono comunicare tra loro, possono essere addestrati a fare qualcosa di utile. Alla conferenza dell'Accademia di intelligenza artificiale di Pechino (BAAI) del 2024, il dottor Qian Chen del Laboratorio di elaborazione del linguaggio naturale dell'Università di Tsinghua ha introdotto il concetto alla base di ChatDev: utilizzare il gioco di ruolo per creare una linea di produzione in cui ciascun agente comunica i piani e discute le decisioni con gli altri, formare una catena di comunicazione.

Catena di comunicazione tra bot in ChatDev

Attualmente, ChatDev è molto abile nelle attività di programmazione, quindi hanno deciso di usarlo per scrivere un gioco Gomoku come demo.

Il team del bot virtuale programma un gioco Gomoku

Durante tutto il processo, diversi agenti sulla “linea di produzione” assumono vari ruoli: ci sono product manager, programmatori, tester: un team di prodotto virtuale completo, piccolo ma perfettamente funzionante.

Coze offre anche una modalità multi-agente che segue un approccio simile.

Interfaccia della funzionalità multi-agente di Coze

In modalità multi-agente, gli utenti possono scrivere richieste per impostare i ruoli, quindi utilizzare le righe per designare l'ordine di lavoro, indirizzando i diversi agenti a passare a passaggi diversi. Tuttavia, l'instabilità di Coze nelle transizioni è un problema. Più lunga è la conversazione, più irregolari diventano le transizioni, che talvolta falliscono completamente. Ciò riflette la difficoltà nell’allineare accuratamente le transizioni degli agenti con le aspettative degli utenti”.

Microsoft ha anche introdotto un framework di conversazione multi-agente chiamato AutoGen. È personalizzabile, capace di dialogare e può integrare modelli di grandi dimensioni con altri strumenti.

Framework di conversazione multi-agente AutoGen di Microsoft

Sebbene la tecnologia presenti ancora dei difetti, è chiaramente promettente. Andrew Ng una volta ha affermato in un discorso che quando gli agenti lavorano insieme, la sinergia che creano supera di gran lunga quella di un singolo agente.

Andrew Ng tiene un discorso

Chi non aspetterebbe con ansia il giorno in cui i robot si uniranno per lavorare per noi?

Fonte da se uno 

Scritto da Serena

Dichiarazione di non responsabilità: le informazioni di cui sopra sono fornite da ifanr.com, indipendentemente da Chovm.comChovm.com non rilascia dichiarazioni e garanzie in merito alla qualità e all'affidabilità del venditore e dei prodotti. Chovm.com declina espressamente qualsiasi responsabilità per violazioni relative al copyright dei contenuti.

Lascia un tuo commento

L'indirizzo email non verrà pubblicato. I campi obbligatori sono contrassegnati con *

Scorrere fino a Top