Для эффективного и безопасного применения искусственного интеллекта в оборонной сфере необходимо сосредоточиться на создании систем, которые являются не просто автономными, но и заслуживающими доверия. По мере того как Министерство обороны США все шире внедряет ИИ, от анализа разведданных до управления беспилотными аппаратами, на первый план выходят вопросы доверия и контроля. Концепция "доверенной автономии" предполагает, что военные должны быть полностью уверены в том, что ИИ-система будет действовать предсказуемо, надежно и в строгом соответствии с поставленной задачей и этическими нормами. Для достижения этого требуются три ключевых компонента. Во-первых, прозрачность: операторы должны понимать, на основе каких данных и какой логики ИИ принимает свои решения. Во-вторых, надежность: система должна стабильно работать в сложных и непредсказуемых условиях реального мира. В-третьих, управляемость: человек всегда должен сохранять возможность контролировать, корректировать и, при необходимости, немедленно отключать автономную систему. Создание таких доверенных систем является не только технической, но и культурной задачей. Оно требует тесного взаимодействия между разработчиками и конечными пользователями-военными, а также разработки новых протоколов тестирования и верификации. Только обеспечив доверие, можно будет в полной мере реализовать потенциал ИИ для получения решающего преимущества в сфере обороны.