Исследователи в области кибербезопасности продемонстрировали, как аппаратная атака Rowhammer может быть использована для незаметного внедрения уязвимостей в модели искусственного интеллекта. Давно известная аппаратная уязвимость под названием Rowhammer обрела новую опасную цель — модели искусственного интеллекта. Исследователи показали, что злоумышленники могут использовать эту атаку для целенаправленного изменения одного бита в оперативной памяти компьютера (DRAM) во время работы ИИ-модели, что приводит к ее компрометации. Атака Rowhammer заключается в многократном обращении к определенным ячейкам памяти, что вызывает электрические помехи, способные изменить значение соседних битов (bit flip). Применительно к ИИ, исследователи смогли таким образом изменить один-единственный весовой коэффициент в нейронной сети. Это, на первый взгляд, незначительное изменение может действовать как бэкдор, заставляя модель выдавать неправильные или вредоносные результаты при получении определенного триггера. Эта угроза особенно опасна, поскольку она происходит на аппаратном уровне и ее практически невозможно обнаружить с помощью программных средств защиты. Скомпрометированная модель может пройти все проверки безопасности, но при этом содержать скрытую уязвимость. Это открытие подчеркивает необходимость разработки новых методов защиты ИИ-систем, учитывающих не только программные, но и аппаратные угрозы.