В Пермском кампусе НИУ ВШЭ прошел семинар по проекту РНФ «Сравнительный анализ поведения ИИ и людей в экономических решениях»
24 июня 2025 года в Высшей школе экономики началась летняя серия рабочих семинаров по Гранту РНФ 25-18-00539: "Сравнительный анализ поведения агентов на основе искусственного интеллекта и реальных индивидов в процессе принятия экономических решений" под руководством Паршакова Петра Андреевича.

Тематика гранта отражает один из наиболее острых научных вызовов последних лет: могут ли агенты на основе больших языковых моделей (LLM) моделировать поведение человека в экономических сценариях? Как меняются их решения в зависимости от контекста? И насколько они вообще "похожи" на человека в логике принятия решений?
Пока исследований в этой области сравнительно немного, и большинство из них существует в формате препринтов — научных текстов, находящихся на стадии первичной апробации. Именно поэтому возникла идея провести серию семинаров, чтобы в формате живого обсуждения анализировать самые актуальные международные работы и понять, в каком направлении развивается мировая научная повестка.
На первом семинаре были представлены три исследования:
- Дмитрий Александрович Дагаев обсудил препринт Large Language Models as Simulated Economic Agents: What Can We Learn from Homo Silicus? (Большие языковые модели как смоделированные экономические агенты: что мы можем узнать от Homo Silicus?) (Horton, 2023), в котором ставится вопрос о том, можно ли рассматривать большие языковые модели (БЯМ) в качестве экономических агентов — пусть и "искусственных", но обладающих собственной логикой принятия решений.
- Евгения Андреевна Шенкман выступила с разбором статьи Can Machines Think Like Humans? A Behavioral Evaluation of LLM-Agents in Dictator Games (Могут ли машины думать как люди? Поведенческая оценка агентов на основе LLM в игре «Диктатор») (Ma, 2024), где поведение LLM-агентов анализируется в контексте игры «диктатор» — классического эксперимента в поведенческой экономике. Работа поднимает сложный и неоднозначный вопрос: насколько обоснованны параллели между поведением ИИ и человека в подобных условиях.
- Петр Андреевич Паршаков представил обзор текста Can Large Language Model Agents Simulate Human Trust Behavior? (Могут ли агенты на основе больших языковых моделей имитировать человеческое поведение, основанное на доверии?) (Xie et al., 2025), в котором на основе архитектуры BDI (belief-desire-intention) исследуется способность моделей воспроизводить поведение, связанное с доверием. Первичные результаты показывают, что в определённых аспектах БЯМ-агенты действительно способны частично имитировать проявления человеческого доверия.
Каждое из представленных исследований внесло свой вклад в формирование общего понимания новой научной области. Первый доклад задал теоретические рамки и поставил ключевой вопрос: можно ли рассматривать БЯМ как экономических агентов. Второй — подчеркнул методологические сложности в сравнении поведения ИИ и человека и продемонстрировал, насколько неоднозначны результаты таких сопоставлений. Третий — привлёк внимание к важной теме моделирования доверия и стал примером применения перспективной когнитивной архитектуры BDI в экономических сценариях.
Семинары продолжатся летом 2025 года и будут открыты для всех заинтересованных, если Вы заинтересованы, то напишите Егору Назаровскому. Почта – EBNazarovskii@hse.ru
