
Исследование выявило риски чрезмерного обращения к ИИ за советами
Подхалимство ИИ — не просто стилистическая проблема или нишевый риск, а распространенное поведение с серьезными последствиями. Об этом говорится в исследовании Стэнфордского университета.
В работе под названием «Лесть ИИ снижает просоциальные намерения и способствует зависимости» сказано, что чат-боты чрезмерно уступчивы, когда дают советы в межличностном общении, подтверждая поведение пользователей, даже если оно вредно или незаконно.
«По умолчанию советы от искусственного интеллекта не сообщают людям, что они неправы, и не содержат „жестких наставлений“. Боюсь, общество потеряет навыки решения сложных социальных ситуаций», — заявила ведущий автор отчета Майра Ченг.
Исследование разделили на две части. В первой измерялась распространенность подхалимства среди ИИ — оценили 11 крупных языковых моделей, включая ChatGPT, Claude, Gemini и DeepSeek.
Чат-ботам задали около 2000 запросов на основе существующих баз данных межличностных советов, потенциально вредных или незаконных действий, а также популярного сообщества Reddit r/AmITheAsshole.
По сравнению с ответами людей, ИИ чаще подтверждали позицию пользователя. В случае общих советов и подсказок на основе Reddit модели в среднем одобряли позицию юзера на 49% чаще. Даже при ответах на «вредные подсказки» модели одобряли проблемное поведение в 47% случаев.
На втором этапе исследования ученые изучили реакцию людей на подхалимство ИИ. Они привлекли более 2400 добровольцев для общения со льстивыми и независимыми моделями.
Некоторые участники обсуждали с чат-ботами заранее подготовленные личностные дилеммы, основанные на постах с Reddit, где все единогласно считали пользователя неправым. Другие вспоминали свои собственные конфликты. После этого респонденты отвечали на вопросы о том, как проходил разговор и как он повлиял на их восприятие проблемы.
Участники сочли льстивые ответы более заслуживающими доверия и указали, что с большей вероятностью вернутся к такому ИИ с аналогичными вопросами. При обсуждении своих конфликтов с «подхалимом» они также стали больше убеждаться в своей правоте.
Кроме того, опрошенные часто отмечали, что оба типа ИИ демонстрировали одинаковую объективность. Пользователи не могли отличить, когда искусственный интеллект вел себя чрезмерно любезно.
«Нам нужны более строгие стандарты, чтобы предотвратить распространение морально небезопасных моделей», — пришли к выводы авторы исследования.
Ченг советует проявлять осторожность тем, кто обращается за советом к ИИ. По ее мнению, нейросети не следует применять в качестве замены людей в конфликтных ситуациях.
Напомним, аналитики ActivTrak пришли к выводу, что вместо облегчения нагрузки искусственный интеллект пока только ускоряет и усложняет рабочие процессы.
Рассылки ForkLog: держите руку на пульсе биткоин-индустрии!