Рациональность и человекоподобность ИИ – семинар по проекту РНФ «Сравнительный анализ поведения ИИ и людей в экономических решениях»
10 февраля 2026 года продолжилась серия рабочих семинаров по гранту РНФ №25-18-00539: «Сравнительный анализу поведения агентов на основе ИИ и реальных индивидов в процессе принятия экономических решений» под руководством Петра Андреевича Паршакова.

На семинаре младший научный сотрудник МЛЭНА Дмитрий Кирпищиков рассказал о статье «Behavioral Economics of AI: LLM Biases and Corrections» (Bini, Cong, Huan & Jin, 2026). Исследование посвящено искусственному интеллекту в поведенческой экономике. Авторы задались вопросом: ведут ли себя большие языковые модели (LLM), такие как GPT, Claude, Gemini и Llama, рационально при принятии экономических решений, или же они подвержены тем же когнитивным искажениям, что и люди? В ходе масштабного эксперимента исследователи протестировали различные модели на «человечность» и «рациональность», используя классические задачи из когнитивной психологии и поведенческой экономики.
В работе использовался трехуровневый дизайн эксперимента: сначала моделям давали психологические тесты из классических работ Канемана и Тверски (например, задачи на эффект якоря или неприятие потерь). Ответы классифицировались как «рациональные», «человекоподобные» или «иные». На второй стадии модели просили предсказывать финансовые временные ряды, имитируя поведение инвесторов. Результаты сравнивались с реальными экспериментальными данными (Afrouzi et al., 2023). В конце LLM показывали графики доходности 1000 реальных акций и просили распределить виртуальный капитал. Здесь проверялось влияние визуальной заметности графика на решение модели вложить деньги.
В результате исследователи пришли к выводам, что ИИ тоже «ошибается» по-человечески. Большие языковые модели демонстрируют систематические смещения в принятии решений, аналогичные человеческим. Удивительно, но чем сложнее и «умнее» становится модель, тем более человекоподобные (а значит, иррациональные) ответы она дает в вопросах, касающихся личных предпочтений (например, риск-профиля). Алгоритмы успешно имитируют наш несовершенный выбор. При этом в вопросах, требующих обработки объективной информации и формирования убеждений о реальности (например, статистические прогнозы), продвинутые модели ведут себя более рационально и точно, чем люди. Модели большего размера склонны к более человекоподобному инвестиционному поведению — например, они реагируют на чисто визуальные факторы (эффект заметности на графиках), которые не несут реальной экономической пользы. Исследователи выяснили, что простое указание роли («предстать рациональным инвестором») в запросе к нейросети помогает снизить количество ошибок, но полностью избавиться от «человеческих» искажений сложно.
