Сбербанк выпустил самое масштабное обновление GigaChat в 2026 году, выложив флагманскую GigaChat-3.1 Ultra и компактную Lightning на Hugging Face с открытой MIT-лицензией. Вместе с моделями опубликовали детальный технический разбор, где честно рассказали о переходе на MoE-архитектуру и инженерных трудностях. MoE-революция и борьба с багами Переход на Mixture of Experts оказался непростым. Команда пересматривала scaling laws, гиперпараметры и шедулеры обучения. Ключевые улучшения: GigaChat Ultra (702B общих, 36B активных параметров) обходит DeepSeek-V3-0324 и Qwen3-235B по математике и рассуждениям. Lightning (10B общих, 1.8B активных) выдаёт качество на уровне GPT-4o при скорости, недоступной dense-моделям такого размера. Две модели для разных задач GigaChat-3.1-Ultra - тяжёлая артиллерия для сложных рассуждений, кодирования и вызова функций. Работает с кастомной Multi-head Latent Attention (MLA), сжимающей KV-кэш в латентные векторы для ускорения инференса. GigaChat-3.1-Lightning - локальная работа на 38% быстрее предшественников, памяти вдвое меньше, качество на аренах как у GPT-4o. Идеальна для чат-ботов, ассистентов и edge-устройств. Обе модели доступны в FP8 и BF16, с полным кодом и весами. Протестировать онлайн можно на giga.chat без развертывания. Почему это важно для рынка Открытие под MIT - не просто PR. Сбер даёт разработчикам готовые русскоязычные инструменты: По качеству на русском GigaChat-3.1 входит в топ open source, особенно в reasoning и код. Скорость Lightning делает её реальным конкурентом для production-сценариев. Переход Сбера на полный опенсорс знаменует смену парадигмы. Российские модели больше не защищают от Запада, а конкурируют на равных в глобальной экосистеме.