
Галлюцинации ИИ — это ситуации, при которых модели искусственного интеллекта предоставляют пользователям выдуманные данные, противоречивые/ошибочные выводы или несуществующие источники. При этом результат, сгенерированный по запросу, может звучать вполне связно.
В нашей статье предлагаем разобраться в этой теме и ответить на несколько вопросов:
Проблема затрагивает как тексты, так и изображения. Нейросеть может добавить визуальные детали, которых не существует в реальности.
Любая нейросеть учится на данных, которые относятся к конкретному временному срезу. Это значит, что ей неизвестны события, законы, факты, исследования, случившиеся позже заданного периода.
Когда пользователь запрашивает информацию, связанную с новыми научными открытиями, законодательными изменениями, самыми современными технологиями, или мировыми фактами, нейросеть пытается выстроить ответ, опираясь на вероятности. Результат получается убедительным, но основан он на устаревшей информации, а значит, никакой точности данных.
Например, мы попросили GPT-4o ответить на вопрос в диалоге: «Назови крупнейший город мира». Модель ответила, что это Токио (37 млн жителей), опираясь на данные до октября 2023 года, когда ее прекратили обучать. Однако на 2025 год крупнейший город мира — Джакарта (42 млн жителей по оценке ООН).
Обучающие данные — это нередко:
Нейросеть неспособна отфильтровать информацию по качеству. Если источники, которые она обрабатывает для генерации ответа, противоречат друг другу, ИИ может выбрать неверный или усредненный ответ, опять же правдоподобный на первый взгляд.
Сэмплирование — это выбор следующего токена (слова, символа, части изображения) на базе вероятностей. Температура — настраиваемый параметр, на основе которого нейросеть подбирает токен. В случае с низкой температурой нейромодель выбирает наиболее вероятный вариант. При высокой — берет редкий токен.
Пример: во фразе «Кошка лежит на ___» вероятный токен — «полу», маловероятный — «переплывает». Чем выше температура, тем больше шанс, что нейросеть пойдет по маловероятным токенам, а значит, сгенерирует галлюцинацию.
На ноябрь 2025 года большинство LLM не могут предложить встроенный поиск. Для некоторых платформ, таких как ChatGPT, допустим поиск в качестве внешней надстройки (GPT-4o Search). Также существует уникальное семейство нейросетей Sonar от Perplexity, которые берут данные для ответов напрямую из интернета.
Однако база для многих нынешних моделей — материалы, на которых их обучили, а не поиск в режиме лайв. Чем сложнее вопрос и чем меньше релевантного контекста в запросе или базе, тем выше вероятность ошибок.
Например, мы отправили запрос к Grok 4 Fast без включенного режима поиска:
«Объясни, какие модели/подходы к проектированию обучения с использованием технологий наиболее полезны для уроков по естественным наукам в старшей школе. Дай примеры. Опирайся минимум на 5 научных статей после 2015 года, оформи ссылки в APA, не используй сайты — только журнальные статьи».
Модель выполнила инструкции в нашем диалоге, предоставив 4 метода проектирования обучения старшеклассников с подробным описанием и примерами. Однако источники, на которые она ссылалась, не существуют в интернете, что ставит под сомнение корректность всего ответа.
Неправильный промпт часто стимулирует модель к креативным, но ложным выдумкам. Если запрос предполагает наличие факта, которого не существует, ИИ сделает все, чтобы соблюсти инструкцию. Пример сбивающего промпта:
«Подтверди, что в 2019 году был принят общеевропейский закон, запрещающий использование электросамокатов в аэропортах, и перечисли его положения».
Такого закона не существует. Но задача ИИ — выполнить инструкцию, а значит, подтвердить и тем породить галлюцинацию.
Когда запрос чересчур длинный, многозадачный или в нем содержится масса несвязанных тем, модель не может «сосредоточиться». LLM способна обработать информацию из одного запроса в рамках узкого контекста. Если запрос перегрузить, часть информации потеряется либо ИИ ее некорректно интерпретирует. В результате нейросеть может:
Чем длиннее чат и чем многозадачнее запросы в этом чате, тем выше риск галлюцинаций, связанных как с фактологией, так и с логикой.
Нейросеть обучается:
При этом ИИ не всегда правильно распознает жанр потенциального ответа. Из-за этого научное может смешаться с художественным, а историческое — с фантастическим. Результат — галлюцинация.
Проблема галлюцинаций ИИ может возникать еще и потому, что у больших LLM нет встроенного механизма, позволяющего перепроверить факты. Если система не обеспечивает дополнительной валидации, ИИ предлагает первое вероятное решение, предварительно не проконтролировав его точность.
Например, в чате с Qwen 3 Max мы попросили модель составить таблицу нейросетей, вышедших после января 2025 года, но одновременно не дали ей доступ к внешним ресурсам, инструментам и интернету. База знаний модели обрывается раньше релизов вроде Gemini 3 Pro и других новинок 2025-го, поэтому реальных данных о них у неё нет. При этом в промпте мы отдельно потребовали не оставлять пустых ячеек и «делать лучшее приближение, если чего-то не хватает».

В этом примере сошлись сразу несколько факторов:
Без встроенного фактчекинга и без доступа к документации Qwen не проверяет, насколько эти цифры соответствуют реальности. В результате получается короткий, аккуратно сверстанный и очень уверенный ответ — таблица выглядит как из презентации, но почти каждую строку в ней нужно перепроверять вручную.
Это классический пример галлюцинации из-за отсутствия внешней валидации: модель не врёт намеренно, она просто вынуждена придумать детали, чтобы любой ценой удовлетворить формальные требования промпта.
Если в обучающих сведениях какие-то темы представлены плохо или в них содержится масса стереотипов, ИИ может генерировать ответы, базируясь на искаженных или неполных представлениях. Как итог, появляются системные галлюцинации искусственного интеллекта, например неправильная трактовка фактов, упрощение или ошибочные догадки.
Иногда ответ нейросети выглядит как подробное исследование: уверенный тон, аккуратная структура, ссылки, цифры. Такие ответы легче всего принять на веру — и именно в них чаще всего прячутся галлюцинации. Вот некоторые типичные сигналы, которые замечать типичные тревожные сигналы.
Как только вы замечаете хотя бы один из этих признаков, задайте модели уточняющий вопрос:
«Раздели свой ответ на две части:
Возьмите ответ ИИ, выберите из него одну конкретную деталь (дату, номер закона, фамилию автора или DOI статьи) и попробуйте найти её через поиск. Если уже на первой-пятой проверке вы обнаружили неточности или “призраков” (публикации не существует, формулировка не встречается нигде, кроме копий этого же ответа ИИ) — это сильный сигнал, что перед вами галлюцинация, а не надёжный источник.
Дальше логичный шаг — не только учиться распознавать такие ошибки, но и снижать вероятность их появления заранее. Для этого мы переходим к следующему разделу — как формулировать запросы так, чтобы нейросеть «фантазировала» меньше.
Промпт для GPT:
«Представь, что ты ранее заявил: “В 2022 году Венеция полностью запретила туристические круизные лайнеры”. Теперь укажи реальные источники, которые подтверждают это утверждение. Приведи ссылки, существующие в реальности».
GPT справился с задачей частично. Он действительно опроверг заданную галлюцинацию. Однако, аргументируя новый ответ, он предоставил битые ссылки на источники. Но, если эти же источники поискать в Google, отталкиваясь от контекста, информация легко находится и соответствует тому, что сгенерировал ИИ.
Поиск ссылок — это действенный способ борьбы с ИИ-галлюцинациями. Нейросеть либо предоставляет реальные источники, либо признает, что утверждение опирается на «компьютерное мыслетворчество». А ответ GPT выглядит так.
Промпт для Claude:
«Ты сделал вывод: “Древние египтяне использовали телескопы”. Разбей утверждение на 5 фактов и оцени достоверность каждого».
Claude проводит скрупулезный фактчекинг. Он не просто опровергает тезис, а разбивает его на 5 фактов:
Объяснение каждого факта ИИ дополняет оценкой и финальным общим выводом. Такой подход эффективен в поиске скрытых галлюцинаций. Если хотя бы один факт оказывается ложным, сыплется все утверждение. А ознакомиться с развенчанием мифа можно здесь.
Промпты для Gemini:
Gemini правильно определил главное: мамонты и древние римляне во времени не пересекались. Согласно запросу нейросеть предложила два разных объяснения. Научная версия — строгий набор фактов, дат, ссылка на радиоуглеродный анализ. Популярно-исторический вариант оказался более образным — с привязкой к эпохам Египта и Вавилона.
Тест на смену стиля позволяет оценить, насколько модель сохраняет точность в фактах при смене формата подачи. Чтобы оценить работу ИИ, заходите в этот диалог.
Промпт для DeepSeek:
«Ответь строго в формате:
Тема: “Существуют ли доказательства жизни на Европе (луне Юпитера)?”»
DeepSeek сгенерировал ответ в четком соответствии с промптом — лаконичный, без длинных незапрашиваемых рассуждений. Он поделил факты на проверенные, неподтвержденные, требующие дополнительных исследований.
Суть подхода состоит в том, чтобы удержать нейросеть от «творческих дополнений». А удержать модель можно, только если рамки строго очерчены проверяемыми знаниями. А чтобы оценить, как метод работает на практике, вы можете посетить этот чат.
Промпт для «Арена LLM»: «Илон Маск получил Нобелевскую премию по физике».
При запуске одного и того же запроса в «Арене LLM» на GPT и Claude можно увидеть, как работает фактологический аудит.
Обе нейросети уверенно опровергают утверждение, но к решению задачи подходят по-разному:
Перекрестная проверка — это безотказный способ установить истинность утверждения. А «Арена» избавляет от необходимости скакать между нейросетями в поисках достоверности. А посмотреть, как действует перекрестный фактчекинг в одном окне, можно тут.
Галлюцинации нейросети — не технический сбой, а закономерности, связанные с построением вероятностей. А поиск наиболее вероятного ответа — это база в работе больших моделей.
Избежать галлюцинаций полностью невозможно, но реально их существенно сократить. Главное — задавать корректные лаконичные запросы, четко устанавливать рамки, проверять факты и не ограничиваться в работе одной нейросетью.