Илья Суцкевер — одна из ключевых фигур современной ИИ-революции. Соавтор легендарной архитектуры AlexNet, сооснователь и бывший главный научный руководитель OpenAI, а с 2024 года — глава Safe Superintelligence Inc. (SSI), компании, которая ставит перед собой единственную цель: создать безопасный сверхинтеллект без давления рынка и необходимости выпускать промежуточные версии моделей. В недавнем крупном интервью Суцкевер подробно рассказал о том, как меняется ИИ-ландшафт, почему современное масштабирование моделей перестаёт работать, что должно прийти на смену эпохе больших моделей и как может появиться искусственный сверхразум. Ниже — выжимка ключевых идей, превращённая в цельную аналитическую статью. Мир меняется незаметно: быстрый ИИ и медленная экономика Суцкевер отмечает парадокс: сегодняшние модели демонстрируют невероятные способности — решают сложные задачи, проходят экзамены, программируют, создают научные выводы — но их экономическое влияние отстаёт. Модель может: Причину он видит в текущей архитектуре обучения: модели способны к «экзаменационным» способностям, но не к устойчивому действию в реальных условиях. Это следствие несбалансированного обучения с подкреплением и узких задач, которыми компании насыщают RL-пайплайн. Эффект первого студента: почему модели умны, но негибки Суцкевер приводит яркую метафору двух студентов: Сегодняшние модели — это первый тип студента: они отлично натренированы на узкие задачи, но не умеют переносить знания в новые контексты. Отсюда два больших вопроса: Ответов пока нет — и это определяет переход индустрии в новую фазу. От эпохи масштабирования к эпохе исследований С 2012 по примерно 2020 год ИИ развивался за счёт исследований — новых архитектур, идей, подходов. С 2020 по 2024 год — за счёт масштабирования: больше данных, больше параметров, больше вычислений. Но масштабирование начинает выдыхаться: Суцкевер считает, что 2025–2030-е годы — это возвращение к исследовательским прорывам. Масштабы вычислений выросли настолько, что стали «достаточны» для проверки новых идей. А значит, теперь будущее — за новыми методами обучения. Главная тайна: человек обобщает гораздо лучше ИИ Суцкевер подчёркивает: люди обучаются невероятно эффективно. Примеры: Причина — врождённые структуры мозга, сформированные эволюцией; механизмы, которые мы пока не понимаем. ИИ пока не имеет: Все это делает человеческое обучение удивительно эффективным и надёжным. Сверхразум как система непрерывного обучения Взгляд Суцкевера радикально отличается от классической идеи AGI как «готовой модели». Он считает, что настоящий сверхразум: Это система, которая: То есть сверхразум — это процесс, а не статичный объект. Что произойдёт после появления систем, которые учатся как люди Суцкевер прогнозирует: Он говорит о том, что первые такие ИИ окажут колоссальное влияние: «Когда ИИ станет по-настоящему сильным, люди начнут действовать иначе. Компании станут параноидальнее. Госорганы вмешаются. Появится нечто беспрецедентное». Иными словами, общество будет вынуждено перестроиться так же стремительно, как меняется сам ИИ. Роль SSI: создать безопасный сверхразум раньше остальных Почему Суцкевер ушёл из OpenAI и основал Safe Superintelligence Inc.? Потому что, по его мнению: SSI разработан как компания одного фокуса: исследования сверхинтеллекта без компромиссов. При этом Суцкевер подчёркивает: они не верят в «идею AGI для рынка». Их цель — первыми создать безопасный сверхразум, который: Технический подход: что SSI делает иначе Суцкевер не раскрывает детали — но подчёркивает: По его словам, в SSI уже получены первые значимые результаты. Почему «ИИ, заботящийся о разумной жизни», лучше, чем ИИ, заботящийся о людях Суцкевер предлагает оригинальную идею: выстраивать цели сверхразума не на «человекоцентричности», а на ценности разумной жизни в целом. Причины: Это одна из самых обсуждаемых, но логичных точек интервью. Будущее ИИ: прогноз Суцкевера Он даёт диапазон: 5–20 лет — до появления ИИ, который: Именно эти системы, по его мнению, станут настоящим AGI — не модели с миллиардами параметров, а обучающиеся агенты. Что будет после сверхразума: разнообразие, экономика и объединение людей и машин Суцкевер считает, что: Это, по его мнению, единственный стабильный способ сохранить участие человека в цивилизации сверхразумов. Главная философия Суцкевера: красота, простота и вдохновение от мозга В завершении он говорит о своём подходе к научному мышлению: Только так, по его мнению, рождаются настоящие прорывы — такие, как AlexNet или GPT-3. Итог: интервью Суцкевера — это карта будущего ИИ Из его слов вырисовывается ясная картина: SSI, по мнению Суцкевера, создана именно для этого.