В индустрии ИИ редко признаются в промахах. Обычно баги тихо исправляют и делают вид, что ничего не случилось. Но Anthropic, создатели Claude, решили сыграть по-другому — и опубликовали честный обзор трёх ошибок, которые за август и начало сентября буквально ломали работу их модели. 🛠️ Баг №1. Серверы из будущего Часть запросов случайно улетала на серверы, подготовленные под новое контекстное окно на 1 миллион токенов. Казалось бы, звучит круто, но проблема в том, что инфраструктура там ещё не была доведена до ума. Результат - ответы становились заметно хуже, и тысячи пользователей ломали голову, почему Claude тупит. 🛠️ Баг №2. Тайский в английском коде Вторая ошибка выглядела куда веселее. Из-за сбоя в конфигурации система иногда присваивала токенам, которые никогда не должны появляться в данном контексте, слишком высокий вес. Что это означало на практике: Мемный уровень нелепости, если бы это не мешало работе реальных команд. 🛠️ Баг №3. Поломанный выбор слов Anthropic хотели ускорить процесс выбора top-k токенов (то есть слов, которые с наибольшей вероятностью идут в ответе). Но оптимизация неожиданно вызвала баг в компиляторе XLA. В итоге модель начинала выбирать абсолютно не те токены, которые должны быть в приоритете. Проще говоря - ИИ начинал писать полный бред и с очень умным видом. На фоне борьбы с галлюцинациями ИИ такие ошибки выглядят иронично. Одно дело — когда модель случайно додумывает факт, и совсем другое — когда целый инференс рушится из-за конфигурации. ⚠️ Для бизнеса подобные баги могут означать не просто смешные фейлы, а миллионные потери. Особенно если ИИ используется в реальных рабочих процессах. 👏 Респект за честность Anthropic могли замолчать и quietly всё починить. Но они открыто описали три бага и объяснили, как именно их устранили. В эпоху, когда компании обычно боятся подрывать свой имидж, такая прозрачность заслуживает уважения.