Баланс алгоритмов и разума
Заведующий Международной лабораторией экономики нематериальных активов НИУ ВШЭ – Пермь Петр Паршаков поделился экспертным опытом и успешными кейсами, как искусственный интеллект становится рабочим инструментом для повышения эффективности бизнеса. Подробности – в материале издания «Новый компаньон».
ИИ в деле
Внедрение искусственного интеллекта в деловую практику всё чаще переходит из разряда экспериментов в операционную деятельность. Компании начинают воспринимать ИИ не как модную новинку, а как реальный инструмент повышения эффективности, снижения издержек и ускорения принятия решений.
Область подбора персонала — зона, где ИИ уже даёт ощутимую отдачу. Как рассказал заведующий лабораторией НИУ ВШЭ — Пермь, профессор Пётр Паршаков, в компании Unilever первичный скрининг выпускников передали видеосистеме HireVue с анализом мимики и речи. Это позволило сократить около 100 тыс. человеко-часов и сэкономить миллион долларов. Маркетинг тоже трансформируется. По словам Паршакова, Альфа-Банк вместе с командой SPDE внедрил модель, которая позволяет «вычленить» аудиторию с высоким уровнем спроса. Это дало двукратный рост кликабельности объявлений и увеличение конверсии с 0,3 до 8% при одновременном снижении стоимости лида.
Эмпатия вне алгоритма
Граница между «человеческими» и «машинными» задачами продолжает сдвигаться. Современные языковые модели уже сопоставимы по качеству с профессионалами в ряде сфер. По словам Петра Паршакова, эксперименты с GitHub Copilot показали, что при помощи ИИ-инструмента программисты выполняют задачи в два раза быстрее. Более того, исследование в медицинской сфере продемонстрировало, что ответы ChatGPT были оценены пациентами как более вежливые, подробные и даже более эмпатичные, чем ответы врачей.
Однако, как подчёркивает эксперт, именно в таких областях, где цена ошибки высока, — финансовые решения, юридические заключения, медицинские назначения — необходим обязательный человеческий надзор. Даже убедительная модель может выдать ошибку или «галлюцинацию», и за последствия в любом случае отвечает человек.
Интеллект без этики
С расширением охвата технологий появляется всё больше ситуаций, когда ИИ выходит за пределы операционной зоны и начинает влиять на кадровые, юридические или стратегические решения. По наблюдению Петра Паршакова, именно здесь начинаются основные проблемы. Один из известных примеров — экспериментальная система подбора персонала Amazon, которая начала занижать рейтинг женщин-кандидатов из-за перекоса в исторических данных. Этот случай подчёркивает ключевую проблему: если обучающие выборки отражают предвзятость прошлого, ИИ может её не просто воспроизвести, но и масштабировать. Кроме того, добавляются риски, связанные с информационной безопасностью. Так, в Samsung временно запретили сотрудникам использование ChatGPT после утечки служебного кода. А юридические прецеденты вроде штрафа американским юристам за использование вымышленных кейсов, сгенерированных ИИ, показывают, насколько уязвимы компании для репутационных и правовых последствий, если не выстроена система контроля.