За последний год число повторов ложной информации в ответах нейросетей значительно выросло, что вызывает обеспокоенность среди специалистов по информационной безопасности, разработчиков ИИ и законодателей. Согласно исследованию компании NewsGuard, в августе 2025 года десять ведущих языковых моделей выдавали фейковые сведения в 35% случаев — против 18% годом ранее. Это почти двукратный рост, который указывает на системную проблему в архитектуре и обучении современных ИИ-моделей.
Почему ИИ стал чаще "галлюцинировать"? Одной из причин ухудшения качества информации называют интеграцию онлайн-поиска в работу чат-ботов. С одной стороны, это позволило ускорить получение ответов и сделать их более актуальными, с другой — повысило уязвимость моделей к недостоверным источникам. Алгоритмы ИИ не обладают встроенным механизмом проверки фактов: они "учатся" на огромных объемах текстов, включая статьи, блоги, форумы и социальные сети, где информация может быть как достоверной, так и откровенно ложной.
Руководитель качества нейросети "Алисы" Никита Рыжиков объясняет: "Нейросети обучаются предсказывать наиболее вероятное продолжение текста. Если по конкретной теме они обучались на надежной информации, результат будет качественным. Но если вопрос затрагивает узкоспециализированную или спорную тему, то модель может сгенерировать ответ, который выглядит правдоподобно, но на деле окажется ложным". Такие случаи и называют "галлюцинациями" ИИ — когда нейросеть не лжет намеренно, но производит вымышленные "факты".
Опасность доверия к "нейтральному" ИИ Одной из ключевых проблем является высокий уровень доверия пользователей к ИИ. Многие воспринимают нейросети как объективные и беспристрастные инструменты, не учитывая, что модель может опираться на непроверенные или даже манипулятивные источники. Депутат Госдумы Антон Немкин, член Комитета по информационной политике, информационным технологиям и связи, отмечает: "Распространение фейков через нейросети опасно тем, что пользователи склонны воспринимать их как истину. Такие сведения могут быстро попасть в соцсети, мессенджеры и даже СМИ, что делает их мощным инструментом дезинформации".
Особенно серьезные последствия могут возникать в критически важных сферах — здравоохранении, финансах, политике. Ошибочные советы по медицинским вопросам, ложные данные о фондовом рынке или искажённые факты о выборах могут не просто вводить в заблуждение, а приводить к прямому ущербу, в том числе материальному или даже физическому.
В чём кроется корень проблемы? Масштабность работы ИИ и объемы данных, на которых они обучаются, делают задачу фильтрации ложной информации практически неразрешимой в рамках текущих технологий. Содержимое обучающих наборов данных — это петабайты текстов, которые невозможно полностью разметить и верифицировать. Ошибки в источниках — даже если это 1% из общего объема — могут давать огромный отклик в миллионах запросов пользователей.
Антон Кузнецов, директор Института прикладных компьютерных наук ИТМО, подчеркивает важность понимания параметров работы ИИ. Один из таких — "температура нейросети", которая влияет на креативность и степень случайности в ответах. "Чем выше температура, тем больше вероятность получить оригинальный, но потенциально неверный ответ. Уменьшение температуры, например, до T=0.1, делает модель более предсказуемой, но полностью избежать ошибок это не позволяет", — говорит он.
В последнее время начали появляться так называемые "думающие модели", которые способны проводить внутреннюю проверку своих выводов. Если ИИ не удается подтвердить факт, он может инициировать повторную генерацию или сообщить, что точного ответа дать невозможно.
Пути решения: признание ошибок и новая философия обучения Исследователи из OpenAI и Технологического института Джорджии предлагают радикально изменить подход к обучению моделей. Вместо того чтобы поощрять ИИ за любую попытку сгенерировать правдоподобный ответ, нужно вознаграждать случаи, когда модель признает свою неуверенность. Это изменение философии сделает нейросети более честными по отношению к пользователю.
Такой подход поможет минимизировать ложные уверенные утверждения, которые звучат убедительно, но не имеют под собой оснований. Фраза "я не могу точно ответить на этот вопрос" должна восприниматься не как слабость, а как знак зрелости и надежности ИИ.
Роль пользователя в эпоху ИИ Пока же вся ответственность за проверку информации остается на плечах пользователей. Это означает, что каждый должен обладать базовыми навыками медиаграмотности, уметь критически относиться к ответам ИИ и использовать дополнительные источники для подтверждения полученной информации.
Эксперты также подчеркивают, что пользователи могут сами влиять на качество ответов — через формулировку запросов, указание требований к достоверности, настройку температуры и уточнение контекста. Таким образом, эффективное взаимодействие с ИИ требует не только технических навыков, но и осознанного подхода.
В свете роста числа фейков, генерируемых ИИ, становится ясно, что нейросети — это не универсальный источник истины, а всего лишь инструмент, эффективность которого зависит от качества данных, архитектуры модели и сознательности пользователя.