Если ты хоть раз просил ChatGPT найти цифры из отчёта или написать пост о событии, то наверняка сталкивался с проблемой галлюцинаций. Уверенный тон, красивые формулировки — и абсолютно выдуманные факты. Это и есть галлюцинации ИИ. Хорошая новость в том, нейросеть можно научить честности. Для этого достаточно правильно построить запрос. Почему ИИ выдумывает Решение - "Не знаю" лучше, чем враньё Нужно поставить модель в строгие рамки - или факт, или честное “не знаю”. И вот здесь вступают в игру правильные промпты. 5 промптов в помощь 1. Универсальный анти-галлюцинатор Отвечай только фактами. Если уверенность ниже 99% или нет данных — пиши «Не знаю». Запрещено придумывать или додумывать. 👉 Работает для любых задач. От постов до анализа документов. 2. «Докажи цитатой» (для работы с файлами) Используй ТОЛЬКО прикреплённый документ. Каждое утверждение подтверждай дословной цитатой с указанием места. Если цитаты нет — убери утверждение и оставь []. 👉 Этот промпт моментально убирает домыслы и заставляет ИИ работать строго по тексту. 3. Режим детектива (видно логику) Разбей ответ на шаги:1) Что известно. 2) Чего не хватает. 3) Вывод. Если данных нет — напиши "Не знаю". 👉 Идеально, когда хочешь увидеть ход мыслей модели и поймать сбой на раннем этапе. 4. Только цифры и даты Приводи только те числа и даты, у которых есть подтверждение. К каждому числу укажи источник (цитата или ссылка). Если нет подтверждения — напиши «Не знаю». 👉 Отлично подходит для аналитики, отчётов и новостей. Сравни свой ответ с документом. Подчеркни утверждения с подтверждающими цитатами. Всё остальное удали. 👉 На выходе получаем — только факты, которые можно проверить. Маленькие лайфхаки в придачу Итог ИИ не злодей и не врун — он просто угадывает то, что может выглядеть правдоподобно. Но если правильно составить промпт, то вместо галлюцинационного бреда он даст честный и проверяемый результат.