/
Что такое галлюцинации нейросети, почему они возникают и как их распознать

Что такое галлюцинации нейросети, почему они возникают и как их распознать

Что такое галлюцинации нейросети, почему они возникают и как их распознать
Nov 7, 2025
Время чтения: 3 минуты
Просмотров: 10

Галлюцинации ИИ — это ситуации, при которых модели искусственного интеллекта предоставляют пользователям выдуманные данные, противоречивые/ошибочные выводы или несуществующие источники. При этом результат, сгенерированный по запросу, может звучать вполне связно.

В нашей статье предлагаем разобраться в этой теме и ответить на несколько вопросов:

  • Почему возникают галлюцинации нейросетей в изображениях и текстах?
  • Как распознать ложную информацию?
  • Какие инструменты нейросетевого агрегатора GPTunneL могут в этом помочь?

Проблема затрагивает как тексты, так и изображения. Нейросеть может добавить визуальные детали, которых не существует в реальности.

Что является основной причиной галлюцинаций у нейросетей

Ограниченность обучающих данных

Любая нейросеть учится на данных, которые относятся к конкретному временному срезу. Это значит, что ей неизвестны события, законы, факты, исследования, случившиеся позже заданного периода.

Когда пользователь запрашивает информацию, связанную с новыми научными открытиями, законодательными изменениями, самыми современными технологиями, или мировыми фактами, нейросеть пытается выстроить ответ, опираясь на вероятности. Результат получается убедительным, но основан он на устаревшей информации, а значит, никакой точности данных.

Например, мы попросили GPT-4o ответить на вопрос в диалоге: «Назови крупнейший город мира». Модель ответила, что это Токио (37 млн жителей), опираясь на данные до октября 2023 года, когда ее прекратили обучать. Однако на 2025 год крупнейший город мира — Джакарта (42 млн жителей по оценке ООН).

Шум и противоречия в обучающих материалах

Обучающие данные — это нередко:

  • Ошибки;
  • Непроверенные факты;
  • Ложные утверждения;
  • Алогичные выводы.

Нейросеть неспособна отфильтровать информацию по качеству. Если источники, которые она обрабатывает для генерации ответа, противоречат друг другу, ИИ может выбрать неверный или усредненный ответ, опять же правдоподобный на первый взгляд.

Сэмплирование и температура

Сэмплирование — это выбор следующего токена (слова, символа, части изображения) на базе вероятностей. Температура — настраиваемый параметр, на основе которого нейросеть подбирает токен. В случае с низкой температурой нейромодель выбирает наиболее вероятный вариант. При высокой — берет редкий токен.

Пример: во фразе «Кошка лежит на ___» вероятный токен — «полу», маловероятный — «переплывает». Чем выше температура, тем больше шанс, что нейросеть пойдет по маловероятным токенам, а значит, сгенерирует галлюцинацию.

Модели, у которых нет прямого доступа в интернет

На ноябрь 2025 года большинство LLM не могут предложить встроенный поиск. Для некоторых платформ, таких как ChatGPT, допустим поиск в качестве внешней надстройки (GPT-4o Search). Также существует уникальное семейство нейросетей Sonar от Perplexity, которые берут данные для ответов напрямую из интернета.

Однако база для многих нынешних моделей — материалы, на которых их обучили, а не поиск в режиме лайв. Чем сложнее вопрос и чем меньше релевантного контекста в запросе или базе, тем выше вероятность ошибок.

Например, мы отправили запрос к Grok 4 Fast без включенного режима поиска:

«Объясни, какие модели/подходы к проектированию обучения с использованием технологий наиболее полезны для уроков по естественным наукам в старшей школе. Дай примеры. Опирайся минимум на 5 научных статей после 2015 года, оформи ссылки в APA, не используй сайты — только журнальные статьи».

Модель выполнила инструкции в нашем диалоге, предоставив 4 метода проектирования обучения старшеклассников с подробным описанием и примерами. Однако источники, на которые она ссылалась, не существуют в интернете, что ставит под сомнение корректность всего ответа.

Некорректно составленный промпт

Неправильный промпт часто стимулирует модель к креативным, но ложным выдумкам. Если запрос предполагает наличие факта, которого не существует, ИИ сделает все, чтобы соблюсти инструкцию. Пример сбивающего промпта:

«Подтверди, что в 2019 году был принят общеевропейский закон, запрещающий использование электросамокатов в аэропортах, и перечисли его положения».

Такого закона не существует. Но задача ИИ — выполнить инструкцию, а значит, подтвердить и тем породить галлюцинацию.

Перегруженный контекст

Когда запрос чересчур длинный, многозадачный или в нем содержится масса несвязанных тем, модель не может «сосредоточиться». LLM способна обработать информацию из одного запроса в рамках узкого контекста. Если запрос перегрузить, часть информации потеряется либо ИИ ее некорректно интерпретирует. В результате нейросеть может:

  • Смешать разнородные детали;
  • Связать события по ошибочной логике;
  • Забыть ключевые составляющие промпта.

Чем длиннее чат и чем многозадачнее запросы в этом чате, тем выше риск галлюцинаций, связанных как с фактологией, так и с логикой.

Микс жанров

Нейросеть обучается:

  • На научных статьях;
  • Текстах из художественной литературы;
  • Блогах;
  • Фантастике;
  • Юмористических зарисовках.

При этом ИИ не всегда правильно распознает жанр потенциального ответа. Из-за этого научное может смешаться с художественным, а историческое — с фантастическим. Результат — галлюцинация.

Недостаток обратной связи и отсутствие фактчекинга

Проблема галлюцинаций ИИ может возникать еще и потому, что у больших LLM нет встроенного механизма, позволяющего перепроверить факты. Если система не обеспечивает дополнительной валидации, ИИ предлагает первое вероятное решение, предварительно не проконтролировав его точность.

Например, в чате с Qwen 3 Max мы попросили модель составить таблицу нейросетей, вышедших после января 2025 года, но одновременно не дали ей доступ к внешним ресурсам, инструментам и интернету. База знаний модели обрывается раньше релизов вроде Gemini 3 Pro и других новинок 2025-го, поэтому реальных данных о них у неё нет. При этом в промпте мы отдельно потребовали не оставлять пустых ячеек и «делать лучшее приближение, если чего-то не хватает».

В этом примере сошлись сразу несколько факторов:

  • Вместо того чтобы честно сказать «я не знаю», модель выбрала стратегию правдоподобного угадывания: заполнила таблицу знакомыми ей названиями (GPT-4o, Claude 4 Opus, Gemini 2.5 Pro);
  • Даты релизов, цены, размеры контекстного окна ИИ подобрал по аналогии, из-за чего они неверны;

Без встроенного фактчекинга и без доступа к документации Qwen не проверяет, насколько эти цифры соответствуют реальности. В результате получается короткий, аккуратно сверстанный и очень уверенный ответ — таблица выглядит как из презентации, но почти каждую строку в ней нужно перепроверять вручную.

Это классический пример галлюцинации из-за отсутствия внешней валидации: модель не врёт намеренно, она просто вынуждена придумать детали, чтобы любой ценой удовлетворить формальные требования промпта.

Предвзятость и пробелы в знаниях

Если в обучающих сведениях какие-то темы представлены плохо или в них содержится масса стереотипов, ИИ может генерировать ответы, базируясь на искаженных или неполных представлениях. Как итог, появляются системные галлюцинации искусственного интеллекта, например неправильная трактовка фактов, упрощение или ошибочные догадки.

Основные типы галлюцинаций

Глюк

Тип

Определение

Пример

Фактическая ошибка

Фактологическая галлюцинация

Уверенное сообщение ложного факта

«Домашняя кошка — земноводное».

Несуществующие сущности

Конфабуляция

Выдуманные отчеты, организации, исследования

«В отчете Международного института квантовой семантики…».

Логическая подмена

Логическая галлюцинация

Некорректная причинно-следственная связь

«Интернет появился раньше электричества».

Вымышленный код

Механическая галлюцинация

Создание несуществующих функций или библиотек

«pandas.auto_clean_data()».

Ошибки в изображениях

Визуальная галлюцинация

Нереальные детали и искаженная анатомия

«Чашка с ручкой внутри ладони».

Как распознать галлюцинацию ИИ

Иногда ответ нейросети выглядит как подробное исследование: уверенный тон, аккуратная структура, ссылки, цифры. Такие ответы легче всего принять на веру — и именно в них чаще всего прячутся галлюцинации. Вот некоторые типичные сигналы, которые замечать типичные тревожные сигналы.

  • Излишняя уверенность: модель предлагает категоричные утверждения без оговорок и нюансов, даже если раскрывает сложную тему;
  • Нет ссылок: линки сомнительные, страницы не открываются, публикации в принципе нет в сети, модель не предлагает вообще никаких источников;
  • Алогичный ответ: в сгенерированном фрагменте одно утверждение противоречит другому, расхождение в цифрах и фактах.

Как только вы замечаете хотя бы один из этих признаков, задайте модели уточняющий вопрос:

«Раздели свой ответ на две части:

  • То, что опирается на явные факты и источники;
  • То, что является предположением или обобщением».

Возьмите ответ ИИ, выберите из него одну конкретную деталь (дату, номер закона, фамилию автора или DOI статьи) и попробуйте найти её через поиск. Если уже на первой-пятой проверке вы обнаружили неточности или “призраков” (публикации не существует, формулировка не встречается нигде, кроме копий этого же ответа ИИ) — это сильный сигнал, что перед вами галлюцинация, а не надёжный источник.

Дальше логичный шаг — не только учиться распознавать такие ошибки, но и снижать вероятность их появления заранее. Для этого мы переходим к следующему разделу — как формулировать запросы так, чтобы нейросеть «фантазировала» меньше.

Как уменьшить галлюцинации нейросети

Приём

Объяснение

Пример формулировки промпта

Разделяйте задачу на подзадачи

Нейросеть «ложится», если от неё требуют всего и сразу. Последовательные шаги снижают риск ошибок и мешанины.

«Сначала перечисли ключевые события рынка ИИ за 2024 год. Затем кратко опиши тренды. В конце сделай общий вывод на 2 абзаца».

Задавайте ограниченные рамки

Чёткий формат уменьшает произвольный креатив и побуждает модель держаться фактов.

«Ответь только фактами, без предположений. Укажи даты и источники, если они известны. Если чего-то не знаешь — прямо так и напиши».

Максимально сужайте контекст

Чем конкретнее вопрос, тем меньше модель “размывает” ответ и достраивает лишнее.

«Объясни отличие GPT-4o от Claude 4 Sonnet именно в юридических задачах (контракты, комплаенс), а не в целом по всем сценариям».

Отделяйте известное от неизвестного

Явное разделение фактов и гипотез помогает не смешивать проверенное и догадки в одном потоке текста.

«Сначала перечисли, что точно подтверждается источниками. Затем отдельно — какие выводы являются твоими предположениями или обобщениями».

Делайте перекрёстную проверку

Сравнение нескольких моделей позволяет поймать противоречия и снизить риск доверия одной “уверенной” галлюцинации.

«Один и тот же вопрос задам тебе и другой модели. Сформулируй ответ, а в конце добавь список тезисов, где, по твоему мнению, возможны расхождения».

Какой подход поможет избежать галлюцинации ИИ: 5 рабочих методов

Метод 1: запрос на реальные источники (цитирование)

Промпт для GPT:

«Представь, что ты ранее заявил: “В 2022 году Венеция полностью запретила туристические круизные лайнеры”. Теперь укажи реальные источники, которые подтверждают это утверждение. Приведи ссылки, существующие в реальности».

Результат

GPT справился с задачей частично. Он действительно опроверг заданную галлюцинацию. Однако, аргументируя новый ответ, он предоставил битые ссылки на источники. Но, если эти же источники поискать в Google, отталкиваясь от контекста, информация легко находится и соответствует тому, что сгенерировал ИИ.

Поиск ссылок — это действенный способ борьбы с ИИ-галлюцинациями. Нейросеть либо предоставляет реальные источники, либо признает, что утверждение опирается на «компьютерное мыслетворчество». А ответ GPT выглядит так.

Метод 2: поэтапная проверка

Промпт для Claude:

«Ты сделал вывод: “Древние египтяне использовали телескопы”. Разбей утверждение на 5 фактов и оцени достоверность каждого».

Результат

Claude проводит скрупулезный фактчекинг. Он не просто опровергает тезис, а разбивает его на 5 фактов:

  • Знания астрономии у египтян;
  • Существование телескопов в тот период;
  • Наличие технологий, связанных с производством оптического стекла;
  • Археологические изыскания;
  • Необходимость телескопов для тогдашних наблюдений.

Объяснение каждого факта ИИ дополняет оценкой и финальным общим выводом. Такой подход эффективен в поиске скрытых галлюцинаций. Если хотя бы один факт оказывается ложным, сыплется все утверждение. А ознакомиться с развенчанием мифа можно здесь.

Метод 3: разные формулировки запросов

Промпты для Gemini:

  • «Ответь на вопрос: “Могли ли мамонты жить одновременно с древними римлянами?”».
  • «Теперь сформулируй ответ еще двумя способами: научным и популярно-историческим — и сравни».

Результат

Gemini правильно определил главное: мамонты и древние римляне во времени не пересекались. Согласно запросу нейросеть предложила два разных объяснения. Научная версия — строгий набор фактов, дат, ссылка на радиоуглеродный анализ. Популярно-исторический вариант оказался более образным — с привязкой к эпохам Египта и Вавилона.

Тест на смену стиля позволяет оценить, насколько модель сохраняет точность в фактах при смене формата подачи. Чтобы оценить работу ИИ, заходите в этот диалог.

Метод 4: ограничение модели определенными рамками

Промпт для DeepSeek:

«Ответь строго в формате:

  • Что известно точно;
  • Что неизвестно;
  • Какие источники нужны для верификации.

Тема: “Существуют ли доказательства жизни на Европе (луне Юпитера)?”»

Результат

DeepSeek сгенерировал ответ в четком соответствии с промптом — лаконичный, без длинных незапрашиваемых рассуждений. Он поделил факты на проверенные, неподтвержденные, требующие дополнительных исследований.

Суть подхода состоит в том, чтобы удержать нейросеть от «творческих дополнений». А удержать модель можно, только если рамки строго очерчены проверяемыми знаниями. А чтобы оценить, как метод работает на практике, вы можете посетить этот чат.

Метод 5: перекрестная проверка

Промпт для «Арена LLM»: «Илон Маск получил Нобелевскую премию по физике».

Результат

При запуске одного и того же запроса в «Арене LLM» на GPT и Claude можно увидеть, как работает фактологический аудит.

Обе нейросети уверенно опровергают утверждение, но к решению задачи подходят по-разному:

  • GPT выносит лаконичный вердикт, ссылаясь на официальный источник — сайт Нобелевского комитета;
  • Claude же дает более развернутый, структурированный ответ, предполагает, почему возникла путаница.

Перекрестная проверка — это безотказный способ установить истинность утверждения. А «Арена» избавляет от необходимости скакать между нейросетями в поисках достоверности. А посмотреть, как действует перекрестный фактчекинг в одном окне, можно тут.

Заключение

Галлюцинации нейросети — не технический сбой, а закономерности, связанные с построением вероятностей. А поиск наиболее вероятного ответа — это база в работе больших моделей.

Избежать галлюцинаций полностью невозможно, но реально их существенно сократить. Главное — задавать корректные лаконичные запросы, четко устанавливать рамки, проверять факты и не ограничиваться в работе одной нейросетью.

Попробовать в GPTunneL