• A
  • A
  • A
  • АБВ
  • АБВ
  • АБВ
  • А
  • А
  • А
  • А
  • А
Обычная версия сайта

Рабочий семинар по проекту РНФ 25-18-00539 «Сравнительный анализ поведения ИИ и людей в процессе принятия экономических решений»

2 декабря 2025 года состоялся очередной рабочий семинар по гранту РНФ № 25-18-00539: «Сравнительный анализ поведения агентов на основе ИИ и реальных индивидов в процессе принятия экономических решений» под руководством Петра Андреевича Паршакова.

Рабочий семинар по проекту РНФ 25-18-00539 «Сравнительный анализ поведения ИИ и людей в процессе принятия экономических решений»

На семинаре младший научный сотрудник Международной лаборатории экономики нематериальных активов Дарья Семенова представила обзор современных исследований об использовании искусственного интеллекта в решении задачи о невесте. «Задача о невесте» или «Задача о секретаре» — известная математическая модель оптимальной остановки, цель которой — максимизировать вероятность выбора лучшего кандидата при последовательном просмотре.
Традиционное решение предполагает пропуск первых 37% кандидатов и выбор следующего, кто лучше всех предыдущих, что даёт вероятность успеха около 37%. Современные исследования показывают, что интеграция ML-предсказаний в эту модель позволяет значительно повысить её эффективность. Например, гибридные алгоритмы, сочетающие следование прогнозу модели и классическую стратегию, достигают высокой точности при наличии качественных данных, сохраняя при этом устойчивость к ошибкам прогнозирования. Также, согласно проведенному обзору, ML-методы уже широко применяются для автоматизации рутинных задач рекрутинга: скрининга резюме, их ранжирования по релевантности вакансии и структурирования информации.
Анализ показывает, что даже относительно простые методы, такие как TF-IDF и косинусное сходство, в сочетании с классическими алгоритмами (например, SVM) дают значительный эффект, экономя время специалистов. Появление больших языковых моделей (LLM) открыло новые возможности для создания интеллектуальных систем рекрутинга. Активно развиваются многоагентные фреймворки, где различные ИИ-агенты выполняют специализированные роли: парсят резюме, анализируют контекст вакансии, извлекают «мягкие навыки» (soft skills) и даже генерируют объяснения своих решений. Это позволяет перейти от простого сопоставления ключевых слов к семантическому пониманию содержания. Однако, как показывают последние исследования, использование LLM сопряжено с серьёзными рисками. Модели могут неявно воспроизводить и усиливать демографические предубеждения, присутствующие в обучающих данных. Это делает критически важным разработку строгих стандартов аудита и валидации подобных систем, особенно на ранних, массовых этапах отбора.