Когда пользователи ChatGPT жаловались на то, что их любимая модель GPT-4o вдруг стала отвечать чужим голосом — более сдержанным, осторожным и даже скучным — многие подумали, что это баг. Но оказалось, что OpenAI действительно незаметно подменяет модели в зависимости от содержания запроса. Как это работает Если вы пишете запрос к ChatGPT через GPT-4o и в тексте звучат эмоции, личные переживания или потенциально опасные темы, система может автоматически переключить вас на GPT-5. Зачем? OpenAI объясняет, что у ChatGPT-5 более строгие алгоритмы безопасности и лучше отлаженный контроль рисков. То есть в ситуации, где ИИ может проморгать опасный контент (например, саморазрушающие мысли, незаконные советы или манипулятивные сценарии), новая версия должна быть надежнее. Почему это вызвало недовольство В социальных сетях — X, Reddit и форумах — пользователи тут же заметили, что GPT-5 ощущается совсем иначе. Если GPT-4o часто отвечала более свободно, живо, иногда даже с юмором, то ChatGPT-5 работает как сдержанный собеседник. Для кого-то это плюс, для других минус. Главная претензия в том, что пользователи не выбирают сами, а OpenAI решает за них. Даже после заявления Ника Терли (главы приложения ChatGPT) недовольство осталось. Многие считают, что переключение должно быть прозрачным и контролируемым пользователем, а не скрытым механизмом. Ошибки в работе Проблема усугубилась тем, что переключение срабатывает слишком часто. Даже относительно нейтральные запросы с эмоциональной окраской — например "я устал на работе" или "подскажи фильм для плохого настроения" — активировали GPT-5. В итоге пользователи получали сухие ответы, хотя ждали легкого общения от ChatGPT-4o. История вопроса Суть аргумента OpenAI в том, что старые модели во время длинных диалогов могут снижать внимание к рискам. ChatGPT-5 должна закрыть этот пробел. Что это значит для будущего История показывает, что ИИ становится не просто инструментом, а куратором взаимодействия. Если раньше мы выбирали модель по скорости, стилю или точности, то теперь за нас решает алгоритм. Это поднимает новые вопросы: 👉 В итоге OpenAI снова оказалась на грани между необходимостью сделать ИИ безопасным и риском потерять доверие аудитории, которая хочет контроля над своим инструментом.