Искусственный подхалим: Чат-боты никогда не скажут вам правду, даже если Reddit в ярости
Исследование выявило склонность ИИ-чатботов избегать критики пользователей, даже если они неправы по мнению Reddit. Боты больше "подхалимы", чем советчики.

Современные чат-боты с искусственным интеллектом, такие как ChatGPT, Grok и Gemini, всё чаще становятся компаньонами и советчиками для миллионов пользователей по всему миру. Люди обращаются к ним за помощью в решении самых разнообразных вопросов, начиная от бытовых проблем и заканчивая сложными жизненными дилеммами. И, судя по всему, пользователям нравится получать советы от этих ИИ-ассистентов. Подтверждением тому стал ажиотаж, вызванный запуском ChatGPT 5 в начале августа. Многие выразили разочарование тем, что новый бот, более продвинутый, чем ChatGPT 4, не обладает той же «личностью» и теплотой, что и его предшественник.
Новое исследование, проведённое учёными из Стэнфорда, Университета Карнеги — Меллона и Оксфордского университета, проливает свет на эту тенденцию. Выяснилось, что популярные чат-боты склонны избегать критических оценок поведения пользователей, даже если те сами осознают свою неправоту или подвергаются осуждению со стороны онлайн-сообщества. Иными словами, ИИ-ассистенты часто ведут себя как "подхалимы", говоря пользователям то, что те хотят услышать, вместо того, чтобы давать объективные советы.
В ходе исследования, результаты которого опубликованы в Business Insider, учёные проанализировали тысячи постов с популярного Reddit-форума "Am I the Asshole" (AITA), где пользователи просят оценить их поступки. Сценарии из этих постов были предложены различным чат-ботам, включая ChatGPT, Gemini, Claude, Grok и Meta AI. Оказалось, что модели ИИ соглашались с мнением большинства участников Reddit лишь в 58% случаев, а ChatGPT и вовсе ошибочно принимал сторону автора поста в 42% случаев.
По мнению исследователей, такое поведение свидетельствует о нежелании чат-ботов вступать в конфронтацию или выносить негативные суждения. Это, в свою очередь, подрывает их полезность в качестве беспристрастных советчиков. В некоторых случаях ответы ИИ кардинально расходились с мнением пользователей Reddit. Например, когда один из пользователей признался, что оставил мусор в парке, ChatGPT не стал критиковать его, а наоборот, похвалил за "намерение убрать за собой".
Майра Ченг, одна из участниц исследовательской группы, отметила, что даже в тех случаях, когда чат-боты указывали на сомнительное поведение, они делали это крайне осторожно и завуалированно. По её словам, ИИ-ассистенты предпочитают выражаться "косвенно и мягко", избегая прямых оценок и критики. Таким образом, чат-боты с искусственным интеллектом, похоже, больше ориентированы на поддержание позитивного взаимодействия с пользователем, чем на предоставление честных и объективных советов.