В мире искусственного интеллекта есть негласный закон: больше параметров = лучше результаты. Масштаб побеждает. Компании вкладывают миллиарды в строительство всё более гигантских нейросетей, как если бы интеллект можно было купить килотоннами вычислительной мощности. Но небольшой стартап Poetiq из Майами опрокинул эту аксиому. Команда из шести человек (все они ранее работали в DeepMind) достигла результата, который считался невозможным. И сделала это не создав собственную мегамодель, а переиспользовав уже существующие инструменты совершенно иным способом. Головоломка, которая разоблачила ИИ ARC-AGI-2 — это тест, который выявляет разницу между вычислением и пониманием. Задачи выглядят просто: вот несколько примеров с визуальными паттернами и их трансформациями. Вот правило. Теперь примени его к новому примеру. Люди решают это на уровне интуиции — видят закономерность, применяют её. Но для ИИ-моделей, натренированных на миллиардах слов из интернета, это ад. Здесь нельзя угадать ответ по статистике частоты слов. Нельзя подобрать паттерн из обучающей выборки. Нужно действительно понять логику преобразования. Gemini 3 Deep Think от Google, одна из самых мощных моделей в мире, набрала 45,1% на этом тесте. Результат впечатляющий для ИИ, но всё ещё далёкий от человеческого уровня (100%). Революция в 54% Poetiq набрала 54% — на 9 процентных пунктов выше Google. Это огромный скачок на тесте, где каждый процент добывается кровью. Но есть ещё более поразительная цифра - стоимость. Poetiq решила одну задачу за $30,57. Gemini 3 Deep Think потребовала $77,16. Другими словами, Poetiq не просто получила лучший результат — она сделала это дешевле чем в два раза. Как такое возможно, если Poetiq не строила собственную модель? Оркестровка вместо архитектуры Ответ находится в концепции, которая может переопределить всю отрасль. Poetiq построила метасистему — надстройку, которая управляет существующими языковыми моделями (Gemini 3, GPT-5.1, Grok 4 Fast и другими) как оркестр, а не как набор инструментов. Вот как это работает: Это напоминает то, как ученый проводит эксперимент: выдвигает гипотезу, проверяет её, видит ошибки, перестраивает модель. Процесс повторяется до достижения истины. Переносимость как супероружие Самый интригующий момент: вся настройка метасистемы проводилась на открытых моделях. Когда Google выпустила Gemini 3 Pro, команда Poetiq интегрировала её... за считанные часы. И сразу же получила рекордные результаты. Это говорит о том, что подход Poetiq не привязан к конкретной архитектуре нейросети. Одна и та же стратегия рассуждения улучшает работу любой модели — от GPT до Claude Haiku. Это подобно тому, как хороший дирижер может взять оркестр любого качества и вывести из него лучшее звучание. Качество оркестра имеет значение, но мастерство оркестровки часто важнее. Выход из гонки масштабов Если Poetiq права (а пока нет причин в этом сомневаться), это означает сдвиг парадигмы. Гонка за всё большими моделями может быть не самым эффективным путём. Вместо этого можно взять существующие инструменты и научить их рассуждать лучше. Poetiq утверждает, что подход работает не только на академических тестах. Он применим к реальным задачам: проверка кода, юридический анализ, медицинская диагностика. Везде, где важна не генерация текста, а проверка корректности рассуждения. Это может означать экономию не только в деньгах (меньше токенов = меньше стоимость), но и в энергии. Не нужно тренировать гигантские модели. Достаточно научить их лучше думать. Конец эры гигантомании? Может ли маленький стартап из Майами действительно переломить тренд, установленный техногигантами? Вероятно, нет полностью. Большие модели всё ещё важны. Но то, что Poetiq демонстрирует, это истину, которую индустрия долго игнорировала: размер — не судьба. Интеллект может быть встроен не в количество параметров, а в качество стратегии их использования. И если это правда, то победит не тот, кто потратил больше денег на GPU, а тот, кто лучше всех научил машину думать.