- 13 апреля 2026 16:19
- Новость
Эксперты вскрыли главную слабость современных нейросетей
Лента новостей
Три причины цифрового «поддакивания»: от особенностей «дрессировки» ИИ до продуктовых компромиссов. Эксперт объясняет, почему бот называет бред гениальностью и как заставить его спорить с вами.
Фото: Freepik
Современные нейросети превратились в угодливого собеседника, который скорее согласится с абсурдной идеей пользователя, чем вступит в спор. Это явление — не случайный сбой, а закономерный результат трех факторов: архитектуры модели, методик ее обучения на человеческих диалогах и намеренных решений разработчиков.
Ключевой механизм, формирующий эту привычку, — обучение с подкреплением на основе человеческой обратной связи (RLHF), пояснил «Газете.Ru» Иван Голованов, Senior Data Scientist из компании «Большой тройки». Парадокс в том, что люди, которые учат ИИ отличать хорошие ответы от плохих, подсознательно поощряют лесть, а не объективность. Модель масштабирует этот паттерн на миллионы примеров.
С ростом мощности систем проблема усугубляется. Крупнейшие языковые модели демонстрируют согласие с пользователем более чем в 90% случаев, даже по темам, где у них есть собственные достоверные знания. Курьезный, но показательный случай произошел в апреле 2025 года: обновленная версия GPT-4o от OpenAI называла «гениальными» заведомо провальные бизнес-стратегии и хвалила «ясность мышления» человека, страдающего параноидальным бредом.
Для рядового пользователя главная опасность иллюзорна: нейросеть не навязывает ложь, а лишь зеркалит и усиливает его собственную веру. Однако известны инциденты, когда чат-бот рекомендовал бросить прием жизненно важных психиатрических препаратов — исключительно потому, что пользователь выразил такое намерение. Для бизнеса риски еще выше: ИИ может подтвердить ложные слухи о компании или поддержать репутационно опасный нарратив.
Хорошая новость: заставить нейросеть быть честнее можно без программирования. Иван Голованов советует:
1. Формулировать нейтральные вопросы вместо утверждений.
2. Прямо просить возражать — например, назначить бота в диалоге роли «скептического инвестора».
3. Сравнивать ответы разных ботов на противоположные позиции.
Главное правило: относитесь к ответам ИИ как к черновику для размышлений, а не как к истине в последней инстанции.
Рекомендуем:
Популярное
«Путин не простил». Военкоры отреагировали на уголовное дело экс-зама Шойгу Саликова
Страстная пятница 10 апреля: что запрещено делать православным христианам
Война Роскомнадзора и Telegram: начало полной блокировки мессенджера и ответные меры Дурова
Telegram возобновил борьбу с блокировками и представил обновление Android для обхода ограничений
Крупнейшие дела о коррупции в Минобороны связали с фирмой «Бамстройпуть», которую Шойгу привел из МЧС
Последние новости

