Исследователи бьют тревогу: сторонники теорий заговора целенаправленно «загрязняют» обучающие данные для больших языковых моделей, чтобы распространять дезинформацию через ИИ. Специалисты по кибербезопасности обнаружили, что сторонники различных теорий заговора и пропагандисты активно используют интернет-форумы и социальные сети для манипулирования большими языковыми моделями (LLM). Они массово генерируют и распространяют контент, содержащий дезинформацию, чтобы он попал в наборы данных, на которых обучаются популярные системы ИИ, такие как ChatGPT. Цель этих действий — заставить искусственный интеллект воспринимать ложные нарративы как достоверные факты. В результате «отравленный» ИИ может начать транслировать дезинформацию в своих ответах на запросы обычных пользователей, придавая теориям заговора видимость легитимности и научности. Это представляет собой новую, более изощренную угрозу распространения фейковых новостей. Эксперты предупреждают, что разработчикам ИИ необходимо совершенствовать методы фильтрации и очистки обучающих данных, чтобы противостоять подобным атакам. В противном случае существует риск, что чат-боты превратятся в мощный инструмент для массового распространения пропаганды и теорий заговора, подрывая доверие к информации и усиливая поляризацию в обществе.