Европейская комиссия раскрыла ключевые детали своего нового кодекса практики для ИИ, который потребует от компаний прозрачности в использовании защищенных авторским правом данных и строгого тестирования безопасности моделей. Европейский Союз представил подробности добровольного кодекса практики, разработанного для того, чтобы помочь компаниям подготовиться к полному вступлению в силу Закона об ИИ (AI Act). Этот документ предназначен для разработчиков моделей ИИ общего назначения и служит своего рода «мостом» к будущим обязательным требованиям, позволяя бизнесу адаптироваться к ним заранее. Одним из центральных и наиболее ожидаемых положений кодекса является требование к прозрачности данных, использованных для обучения. Компании должны будут предоставлять «достаточно подробные резюме» материалов, защищенных авторским правом, которые были использованы для тренировки их моделей. Этот шаг направлен на защиту прав создателей контента и является ответом на их многочисленные иски и опасения. Вторым ключевым направлением стала безопасность. Кодекс обязывает компании внедрять строгие процедуры тестирования своих моделей, включая так называемый «red-teaming» — симуляцию атак для выявления уязвимостей. Кроме того, разработчики должны будут принять меры по смягчению рисков и обеспечению кибербезопасности, чтобы предотвратить злонамеренное использование их технологий.