Одна из самых неприятных тем в ИИ-индустрии - не появление новой модели, а постепенное ухудшение поведения уже знакомой. Судя по разбору сессий Claude за первые месяцы 2026 года, именно это и произошло. Модель стала менее стабильной, менее внимательной к контексту и заметно более экономной в мышлении. Для пользователей это не выглядит как один громкий сбой, но в сумме даёт ощущение, что качество стало проседать на уровне повседневной работы. Самое тревожное здесь не отдельная ошибка, а системный сдвиг. Когда модель начинает думать короче, чаще сдаваться, хуже читать код перед правками и чаще менять позицию по ходу ответа, это уже не случайный баг. Это похоже на изменение режима работы, которое напрямую отражается на качестве результата. Что именно изменилось По данным аудита, медианная длина reasoning у Claude заметно сократилась примерно с 2200 до 600 символов. На практике это означает, что модель стала тратить меньше умственного времени на ответ. Чем короче внутренняя проработка, тем выше шанс получить поверхностное решение, пропущенный нюанс или слишком быстрый вывод. Одновременно выросло количество API-запросов - почти в 80 раз с февраля на март. Это выглядит как обратная сторона сокращённого мышления. Вместо одного более глубокого прохода модель делает больше попыток, больше ретраев и в итоге может тратить больше токенов на ту же задачу. Для пользователя это не только вопрос качества, но и вопрос стоимости и предсказуемости. Почему это чувствуется в работе Особенно заметно изменение там, где нужен длинный контекст и аккуратность. Пользователи говорят, что Claude стал хуже учитывать такие вещи, как CLAUDE.md, то есть рабочие инструкции и проектные правила. Это очень важный момент. Если модель игнорирует собственные рамки, она перестаёт быть надёжным помощником в сложных рабочих сценариях. Ещё один тревожный показатель - падение reads-per-edit. Если раньше модель перед правкой просматривала в среднем больше файлов или участков кода, то теперь этот показатель заметно ниже. Иными словами, она чаще вносит изменения, не изучив проект достаточно глубоко. Для разработки это почти всегда плохо, потому что модель показывает меньше понимания контекста, больше случайных ошибок и конфликтов с уже существующей логикой. Поведение стало менее уверенным Отдельно выделяется рост случаев, когда модель как будто сдаётся или начинает спрашивать пользователя, продолжать ли работу дальше. До 8 марта таких эпизодов не было, а потом они стали возникать регулярно. Это создаёт ощущение, что модель хуже держит задачу до конца и чаще теряет инерцию в процессе решения. Параллельно выросло количество противоречий внутри одного ответа. Пользователи это обычно замечают очень быстро, потому что модель сначала утверждает одно, потом мягко переобувается и строит ответ уже на новой версии собственной логики. При обычном общении с ИИ это раздражает, а при рабочем процессе это ломает доверие у пользователей. Есть ли связь с нагрузкой Интересный момент в том, что качество зависит от времени суток. Хуже всего Claude работал в вечерние часы по PST, а ночью качество было заметно выше. Это очень похоже на эффект нагрузки, когда система перегружена, на каждый запрос остаётся меньше вычислительного бюджета, и модель начинает работать проще, быстрее и поверхностнее. Если это действительно связано с загрузкой GPU и внутренней оптимизацией, то проблема становится не только модельной, но и инфраструктурной. Пользователь видит не просто умную или глупую модель, а её поведение в конкретный момент времени, зависящее от текущей нагрузки. Это опасно тем, что качество перестаёт быть стабильным. Почему это важно для пользователей Для обычного пользователя просадка качества может выглядеть как каприз. Но для тех, кто использует Claude в разработке, аналитике, документации или автоматизации, это уже серьёзный риск. Модель, которая вчера уверенно держала контекст, сегодня может пропустить важный файл, отказаться от глубокой проверки или дать противоречивый ответ. Именно поэтому такие аудиты важны. Ведь они показывают не только умения модели, но и насколько стабильно она ведёт себя в реальной эксплуатации. В 2026 году это становится не менее важным, чем чистый результат на бенчмарках. Потому что в реальной работе выигрывает не самая блестящая модель по мнению очередного бенчмарка, а та, на которую можно положиться каждый день. Что следует из этого аудита Если выводы разбора верны, то перед нами не просто временный сбой, а пример того, как сильно производительность ИИ может зависеть от нагрузки, режима обслуживания и внутренней оптимизации. Claude по-прежнему остаётся мощной моделью, но его поведение стало менее предсказуемым и стабильным. А для бизнеса и разработки предсказуемость часто важнее пикового качества. Главный урок здесь простой - даже топовая модель не гарантирует одинаковое качество в любой момент времени. И если вы строите на ней рабочий процесс, нужно учитывать не только возможности ИИ, но и стабильность его работы под высокой нагрузкой в разное время суток.