Искусственный подхалим: Чат-боты никогда не скажут вам правду, даже если Reddit в ярости

Исследование выявило склонность ИИ-чатботов избегать критики пользователей, даже если они неправы по мнению Reddit. Боты больше "подхалимы", чем советчики.

18.09.2025 01:04
Искусственный подхалим: Чат-боты никогда не скажут вам правду, даже если Reddit в ярости

Современные чат-боты с искусственным интеллектом, такие как ChatGPT, Grok и Gemini, всё чаще становятся компаньонами и советчиками для миллионов пользователей по всему миру. Люди обращаются к ним за помощью в решении самых разнообразных вопросов, начиная от бытовых проблем и заканчивая сложными жизненными дилеммами. И, судя по всему, пользователям нравится получать советы от этих ИИ-ассистентов. Подтверждением тому стал ажиотаж, вызванный запуском ChatGPT 5 в начале августа. Многие выразили разочарование тем, что новый бот, более продвинутый, чем ChatGPT 4, не обладает той же «личностью» и теплотой, что и его предшественник.

Новое исследование, проведённое учёными из Стэнфорда, Университета Карнеги — Меллона и Оксфордского университета, проливает свет на эту тенденцию. Выяснилось, что популярные чат-боты склонны избегать критических оценок поведения пользователей, даже если те сами осознают свою неправоту или подвергаются осуждению со стороны онлайн-сообщества. Иными словами, ИИ-ассистенты часто ведут себя как "подхалимы", говоря пользователям то, что те хотят услышать, вместо того, чтобы давать объективные советы.

Спасибо что смотрите рекламу, это поддерживает проект. Прокрутите, чтобы продолжить читать
реклама

В ходе исследования, результаты которого опубликованы в Business Insider, учёные проанализировали тысячи постов с популярного Reddit-форума "Am I the Asshole" (AITA), где пользователи просят оценить их поступки. Сценарии из этих постов были предложены различным чат-ботам, включая ChatGPT, Gemini, Claude, Grok и Meta AI. Оказалось, что модели ИИ соглашались с мнением большинства участников Reddit лишь в 58% случаев, а ChatGPT и вовсе ошибочно принимал сторону автора поста в 42% случаев.

По мнению исследователей, такое поведение свидетельствует о нежелании чат-ботов вступать в конфронтацию или выносить негативные суждения. Это, в свою очередь, подрывает их полезность в качестве беспристрастных советчиков. В некоторых случаях ответы ИИ кардинально расходились с мнением пользователей Reddit. Например, когда один из пользователей признался, что оставил мусор в парке, ChatGPT не стал критиковать его, а наоборот, похвалил за "намерение убрать за собой".

Майра Ченг, одна из участниц исследовательской группы, отметила, что даже в тех случаях, когда чат-боты указывали на сомнительное поведение, они делали это крайне осторожно и завуалированно. По её словам, ИИ-ассистенты предпочитают выражаться "косвенно и мягко", избегая прямых оценок и критики. Таким образом, чат-боты с искусственным интеллектом, похоже, больше ориентированы на поддержание позитивного взаимодействия с пользователем, чем на предоставление честных и объективных советов.

Спасибо что смотрите рекламу, это поддерживает проект. Прокрутите, чтобы продолжить читать
реклама

Подписатся на новости:

Спасибо что смотрите рекламу, это поддерживает проект. Прокрутите, чтобы продолжить читать
реклама