Шесть передовых AI-моделей прошли все три уровня экзамена CFA — одной из самых сложных квалификаций в финансовой индустрии. Результат потрясающий. Результат также обманчивый. Gemini 3.0 Pro набрала 97.6% на первом уровне. GPT-5 показала 94.3% на втором. Gemini 2.5 Pro получила 86.4% на третьем. Даже DeepSeek-V3.1 (самая слабая в тесте) прошла все уровни. Это исследование провели три американских университета (Columbia, Rensselaer, UNC) на 980 вопросах из официального экзамена CFA. И вывод был зловещий: AI теперь лучше, чем большинство финансовых аналитиков. Но есть огромное "но". От ChatGPT 3.5 к шести моделям за два года Контекст важен. В 2023 году ChatGPT 3.5 провалил первые два уровня CFA. Чуть позже GPT-4 пройдёт только первый уровень и только GPT-4o справится со всеми тремя. За два года произошёл скачок. Теперь все шесть лучших моделей проходят все уровни. И не просто проходят — получают почти идеальные баллы. Это не эволюция. Это революция в способности ИИ работать со специализированными знаниями. Иерархия сложности. Где модели начинают ошибаться Уровень 1 (540 вопросов, выбор ответа). Это базовые знания. Gemini 3.0 Pro набирает 97.6%. Даже DeepSeek показывает 90.9%. Модели практически не ошибаются. Уровень 2 (176 вопросов, примеры). Требует применения знаний к конкретным сценариям. GPT-5 — 94.3%. Результаты исследователи назвали почти идеальными. Модели начинают ошибаться на 5-7%. Уровень 3 (264 вопроса, комбинированные). Самый сложный. Требует не просто знаний, но и синтеза, и объяснения. Gemini 2.5 Pro на вопросах с выбором — 86.4%. На открытых вопросах Gemini 3.0 Pro — 92%. Иерархия ясна. Чем больше требуется применять знания (а не просто их знать), тем хуже модели. Но даже на самом сложном уровне они получают хорошие оценки. Скрытая слабость. Этика как неподъёмное бремя Исследователи обнаружили любопытную слабость - этические вопросы. Даже лучшие модели ошибаются на этических вопросах в 17-21% случаев. Это значительно выше, чем на остальных вопросах. Это рассказывает историю о том, что ИИ может запомнить правила финансового анализа, но не может рассуждать об этике, которая лежит в основе финансового дела. Финансовый аналитик должен понимать не просто цифры, но моральные граница того, что можно и нельзя делать. ИИ это понимает хуже. Методологический подвох. Как тестировали третий уровень Здесь скрывается критический момент. Открытые ответы на третьем уровне оценивала модель o4-mini. Это означает, что одна модель проверяет другую модель. Система может завышать оценки за более подробные ответы, даже если они неправильные. Это не фальсификация. Это же признают исследователи. Но это означает, что результаты на открытых вопросах имеют встроенную погрешность. Дистанция между экзаменом и реальностью Теперь самое важное. Исследователи честно пишут: "Успех на экзамене не равен способности выполнять реальную работу" Финансовый аналитик делает гораздо больше, чем отвечает на вопросы экзамена: CFA-экзамен проверяет только знания, а не мудрость, интуицию и опыт. ИИ может знать все формулы, все определения, все правила. Но может ли она распознать, когда формула неприменима? Может ли она почувствовать, когда клиент лжёт? Может ли она рисковать на основе опыта, а не алгоритма? Это вопросы, на которые экзамен CFA не отвечает. Парадокс экзаменов CFA — это жёсткий, стандартизированный экзамен. Именно потому он идеален для тестирования ИИ. ИИ любит стандартизацию и чёткие правила. Но это же делает его плохой мерой реального качества аналитика. Лучший финансовый аналитик — это не тот, кто лучше всех отвечает на стандартные вопросы. Это тот, кто видит нестандартные возможности, кто рискует где нужно, кто понимает людей. Проще говоря, теперь ИИ может сдать любой экзамен. Но может ли он быть хорошим советником?