Самая обсуждаемая новинка месяца в мире искусственного интеллекта — Hierarchical Reasoning Model (HRM). И не зря... Эта «кроха» на 27 миллионов параметров смогла обойти куда более крупную o3-mini на бенчмарке ARC-AGI-1. Неудивительно, что о ней говорит всё комьюнити — даже сами авторы ARC-AGI выпустили подробный разбор результатов. В чём суть модели HRM построена на двух рекуррентных модулях: Работает это так - верхний модуль обновляется один раз за цикл, задаёт контекст, а нижний делает множество мелких шагов, пока не найдёт локальное решение. Сколько будет итераций, модель решает сама — её специально научили «останавливаться вовремя» с помощью RL. Так что она может «подумать» пару секунд, а может и пару часов — прямо как студент перед дедлайном. Как её учили В отличие от классических рекуррентных моделей, HRM не сохраняет все промежуточные состояния, а обновляет градиенты только по финальному результату. На первый взгляд звучит рискованно, но на практике работает отлично. Похожесть на мозг Архитектура HRM напоминает работу человеческого мозга. Одни зоны отвечают за абстрактное мышление, другие — за быстрые реакции. Взаимодействие идёт через обратные связи, а итог формируется циклично. По сути, это и есть «иерархия мышления» — отсюда и название. Результаты Для своих размеров HRM показывает феноменальные результаты в решении: Особенно впечатляют успехи на ARC-AGI, где обычно даже мощные LLM буксуют. Итоги Hierarchical Reasoning Model — пример того, как умная архитектура иногда важнее гигантских параметров. Эта модель доказывает, что не всегда «размер решает». Иногда достаточно хорошей структуры, чтобы маленькая модель обыграла тяжеловеса. 🔮 Будет ли это революцией? Пока рано говорить. Но то, что HRM — изящное и многообещающее решение, сомнений нет. А главное — она даёт надежду, что в будущем ИИ станет не только мощнее, но и эффективнее.