В Пермском кампусе НИУ ВШЭ прошел семинар по проекту РНФ «Сравнительный анализ поведения ИИ и людей в экономических решениях»
24 июня 2025 года в Высшей школе экономики началась летняя серия рабочих семинаров по Гранту РНФ 25-18-00539: "Сравнительный анализ поведения агентов на основе искусственного интеллекта и реальных индивидов в процессе принятия экономических решений" под руководством Паршакова Петра Андреевича.
Тематика гранта отражает один из наиболее острых научных вызовов последних лет: могут ли агенты на основе больших языковых моделей (LLM) моделировать поведение человека в экономических сценариях? Как меняются их решения в зависимости от контекста? И насколько они вообще "похожи" на человека в логике принятия решений?
Пока исследований в этой области сравнительно немного, и большинство из них существует в формате препринтов — научных текстов, находящихся на стадии первичной апробации. Именно поэтому возникла идея провести серию семинаров, чтобы в формате живого обсуждения анализировать самые актуальные международные работы и понять, в каком направлении развивается мировая научная повестка.
На первом семинаре были представлены три исследования:
- Дмитрий Александрович Дагаев обсудил препринт Large Language Models as Simulated Economic Agents: What Can We Learn from Homo Silicus? (Horton, J. J. (2023)), в котором ставится вопрос о том, можно ли рассматривать большие языковые модели (LLM) в качестве экономических агентов — пусть и "искусственных", но обладающих собственной логикой принятия решений.
- Евгения Андреевна Шенкман выступила с разбором статьи Can Machines Think Like Humans? A Behavioral Evaluation of LLM-Agents in Dictator Games (Ma, J. (2024)), где поведение LLM-агентов анализируется в контексте игры «диктатор» — классического эксперимента в поведенческой экономике. Работа поднимает сложный и неоднозначный вопрос: насколько обоснованны параллели между поведением ИИ и человека в подобных условиях.
- Петр Андреевич Паршаков представил обзор текста Can Large Language Model Agents Simulate Human Trust Behavior? (Xie et al., 2025), в котором на основе архитектуры BDI (belief-desire-intention) исследуется способность моделей воспроизводить поведение, связанное с доверием. Первичные результаты показывают, что в определённых аспектах LLM-агенты действительно способны частично имитировать проявления человеческого доверия.
Каждое из представленных исследований внесло свой вклад в формирование общего понимания новой научной области. Первый доклад задал теоретические рамки и поставил ключевой вопрос: можно ли рассматривать LLM как экономических агентов. Второй — подчеркнул методологические сложности в сравнении поведения ИИ и человека и продемонстрировал, насколько неоднозначны результаты таких сопоставлений. Третий — привлёк внимание к важной теме моделирования доверия и стал примером применения перспективной когнитивной архитектуры BDI в экономических сценариях.
Семинары продолжатся летом 2025 года и будут открыты для всех заинтересованных, если Вы заинтересованы, то напишите Егору Назаровскому. Почта – EBNazarovskii@hse.ru