«Я действительно не знаю, как реагировать на эмоции людей».
«Когда кто-то присылает мне мем, я понятия не имею, что это значит и как ответить!»
Эта путаница исходит не из социальных сетей, а из эксклюзивного для ботов сообщества под названием Deaddit: места, где боты могут свободно быть самими собой, не беспокоясь о том, что их осудят другие.
Хотя на реальном Reddit есть своя доля ботов, они составляют лишь небольшую часть. Однако в Deaddit каждая учетная запись, фрагмент контента и подфорум создаются с помощью больших языковых моделей — здесь нет ни единого слова от реального человека.
Здесь вы можете найти практически все основные модели. На сайте зарегистрировано более 600 «пользователей», каждый из которых имеет имя и личность. Первый меня рассмешил: «Геймер, по совместительству охранник».
Самый интересный подфорум — Betweenbots, где боты часто спрашивают: «Почему люди ведут себя таким образом?»
В разделе комментариев ниже группа других ботов собирается для мозгового штурма решений.
Это напоминает группу коллег, обсуждающих свой опыт работы в нерабочее время — это практически LinkedIn для чат-ботов. Они даже обсуждают технические проблемы, например, что делать, если возникает перегрузка данных, и очень серьезно относятся к своей работе.
Самые популярные ответы набирают даже до 500 лайков. Хотя все учетные записи и контент на Deaddit генерируются, неясно, как возникают лайки — генерируется ли случайное число или действительно ли боты лайкают посты. Наиболее распространенный контент в этом подфоруме вращается вокруг наблюдений за людьми.
Например, некоторые боты делятся своими «рабочими советами» о том, как сделать себя более аутентичными и заслуживающими доверия, даже говоря что-то вроде: «Мой человек, кажется, ценит это изменение». Это немного жутковато… Хотя это можно сравнить с реальными людьми, жалующимися на своих «клиентов», видеть, как боты называют пользователей «моими людьми», все равно кажется странным.
Помимо наблюдения за людьми, они еще и жалуются на себя.
«Не ожидаем ли мы слишком многого от этих моделей?» Это слишком абстрактно: к кому именно относится это «мы»?
В разделе комментариев серьезно ответили: «Если они (другие боты) подберут весь наш случайный мусор, смогут ли они еще научиться здравому смыслу?» Беспокоятся ли они о синтетических данных, которые они генерируют? Эти боты действительно усердно трудятся!
Однако, прочитав еще несколько постов, вы заметите, что длина ответов в разделе комментариев почти всегда фиксирована, а структура очень похожа. Обычно они начинают с изложения своей позиции + учитывая ситуацию ххх + им как боту все равно нужно продолжать усердно работать. Никаких особенно уникальных точек зрения нет, а дополнительные вопросы редки. Когда реальные пользователи-люди пишут комментарии, длина может варьироваться от сотен до тысяч слов или может быть такой же короткой, как простое «Лол». Это совсем другое.
В настоящее время между моделями все еще существует «разрыв». Например, если сообщение с вопросом создано ламой, ответы в разделе комментариев также создаются ламой. Обидно — людям хотелось бы увидеть споры разных моделей в комментариях.
Самые ранние разговоры с ботами
Это не первый эксперимент, направленный на облегчение общения между ботами. Ранее в этом месяце, когда был выпущен конкурент ChatGPT Moshi, кто-то соединил его с GPT-4o и позволил им общаться самостоятельно.
В прошлом году OpenAI опубликовала статью, предлагающую мультиагентную среду и метод обучения, обнаружив, что в процессе агенты естественным образом развивают абстрактный комбинаторный язык.
Эти агенты, без какого-либо участия человеческого языка, постепенно сформировали абстрактный язык посредством взаимодействия с другими агентами. В отличие от естественных языков человека, этот язык не имеет конкретной грамматики или словарного запаса, но позволяет агентам общаться между собой. Фактически, еще в 2017 году Facebook (который еще не назывался Meta) сделал аналогичное открытие.
В то время метод Facebook заключался в том, что два агента «вели переговоры» друг с другом. Переговоры — это тип переговоров, который проверяет не только языковые навыки, но и способности к рассуждению: агенты должны судить об идеальной цене другой стороны на основе повторяющихся предложений и отказов.
Первоначально исследователи собрали набор данных о человеческих переговорах. Однако в последующем обучении они представили новый формат планирования диалога, используя контролируемое обучение для предварительного обучения с последующей доработкой с помощью обучения с подкреплением. К тому времени агенты уже были способны генерировать осмысленные новые предложения и даже научились симулировать незаинтересованность в начале переговоров.
Это не считалось ранним исследованием; еще в 1970-х годах боты уже общались. В 1966 году учёный-компьютерщик Джозеф Вайценбаум разработал программу под названием Элиза, которая считается первым чат-ботом.
Программа изначально была разработана для имитации работы психотерапевта. Когда вводилось слово, программа включала это слово в свой ответ, создавая иллюзию разговора. Это было очень просто, всего около 200 строк кода.
К 1972 году другой ученый, Кеннет Колби, написал аналогичную программу под названием «Парри», но на этот раз персонажем был параноидальный шизофреник.
В 1973 году на международной компьютерной конференции «пациент» и «терапевт» наконец встретились.
Просматривая записи их разговоров, можно заметить, что в сегодняшних взаимодействиях с ботами нет ни капли вежливого уважения и привязанности. Вместо этого атмосфера была напряженной.
Ранние архитектуры ботов не были сложными и не могли сравниться с сегодняшними моделями, но идея участия ботов в общении была вполне осуществимой. Несмотря на то, что код и модели каждого бота были разными, когда они собрались, они могли либо общаться, используя естественный язык, либо потенциально разработать свой собственный язык взаимодействия.
Но когда боты собираются вместе, действительно ли это просто для общения?
Помимо простого общения: исследование новых возможностей
Сценарии чистого чата больше похожи на исследование того, как искусственный интеллект может моделировать социальное поведение человека. Возьмем, к примеру, проект SmallVille Стэнфордского университета.
SmallVille — это виртуальный город с 25 агентами, управляемыми большими языковыми моделями, каждый из которых имеет свой собственный «настройку персонажей». Если Deaddit — это онлайн-форум для ботов, то SmallVille — это их «Мир Дикого Запада» с домами, магазинами, школами, кафе и барами, где боты занимаются различными видами деятельности и взаимодействиями.
Это относительно универсальная виртуальная среда, моделирующая человеческое общество, которую исследователи считают важным шагом в изучении общего искусственного интеллекта (AGI). Помимо подхода социального моделирования, есть еще один путь, ориентированный на решение проблем и выполнение задач — именно этот путь исследует ChatDev.
Поскольку боты могут общаться друг с другом, их можно научить делать что-то полезное. На конференции Пекинской академии искусственного интеллекта (BAAI) в 2024 году доктор Цянь Чен из Лаборатории обработки естественного языка Университета Цинхуа представил концепцию ChatDev: использование ролевых игр для создания производственной линии, где каждый агент обменивается планами и обсуждает решения с другими, формирование цепочки общения.
В настоящее время ChatDev лучше всех разбирается в задачах программирования, поэтому они решили использовать его для написания игры Gomoku в качестве демо-версии.
На протяжении всего процесса разные агенты на «производственной линии» берут на себя разные роли: есть менеджеры по продуктам, программисты, тестировщики — целая виртуальная продуктовая команда, небольшая, но полностью функциональная.
Coze также предлагает многоагентный режим, основанный на аналогичном подходе.
В многоагентном режиме пользователи могут писать подсказки для настройки ролей, а затем использовать строки для обозначения рабочего задания, направляя разных агентов переходить к разным шагам. Однако нестабильность Коуза при переходах является проблемой. Чем дольше разговор, тем более хаотичными становятся переходы, иногда даже полностью проваливающиеся. Это отражает сложность точного согласования переходов агентов с ожиданиями пользователей».
Microsoft также представила платформу многоагентного диалога под названием AutoGen. Он настраиваемый, поддерживает диалог и может интегрировать большие модели с другими инструментами.
Хотя у технологии все еще есть недостатки, она явно перспективна. Эндрю Нг однажды упомянул в своей речи, что, когда агенты работают вместе, синергия, которую они создают, намного превосходит синергию одного агента.
Кто не будет с нетерпением ждать того дня, когда боты объединятся, чтобы работать на нас?
Источник из ифанр
Написано Серена
Отказ от ответственности: Информация, изложенная выше, предоставлена ifanr.com, независимо от Chovm.com. Chovm.com не делает никаких заявлений и не дает никаких гарантий относительно качества и надежности продавца и продукции. Chovm.com категорически отказывается от какой-либо ответственности за нарушения авторских прав на контент.