Исследование показывает, что существующие инструменты для выявления дезинформации практически бессильны перед лицом фейковых новостей, сгенерированных современными языковыми моделями. Новое исследование, проведенное учеными из Университетского колледжа Лондона, выявило серьезную уязвимость в системах борьбы с дезинформацией. Текущие методы обнаружения, которые были эффективны против старых форм фейковых новостей, написанных людьми, оказались неспособны распознать тексты, созданные с помощью продвинутых моделей ИИ, таких как ChatGPT-4. В ходе эксперимента исследователи использовали семь различных детекторов фейковых новостей для анализа как человеческих, так и сгенерированных ИИ статей. Результаты показали, что инструменты успешно идентифицировали только 49% фейковых новостей, написанных людьми, но при этом почти не смогли распознать созданные ИИ фальшивки, ошибочно классифицируя их как подлинные в 97% случаев. Этот провал объясняется тем, что ИИ генерирует текст, который по стилю и структуре очень похож на настоящие новости, обходя существующие алгоритмы детекции. Ученые пришли к выводу, что для борьбы с новой волной ИИ-дезинформации необходима срочная разработка совершенно новых, более сложных методов обнаружения, способных анализировать контент на более глубоком уровне.