Стало известно, что Таможенно-пограничная служба США (CBP) применяла инструмент на основе искусственного интеллекта с названием DOGE для автоматического удаления имен из Единой системы проверки террористов. Инструмент DOGE (Deterministic Outcome-Based Generative Examination) был разработан для анализа запросов на исключение из федерального списка наблюдения. Система автоматически одобряла примерно 85% таких запросов, помечая их для удаления без участия человека-аналитика. Это вызвало серьезную обеспокоенность у правозащитных организаций и экспертов по технологиям. Представители CBP утверждают, что инструмент был создан для повышения эффективности и ускорения процесса рассмотрения дел, которые с высокой вероятностью подлежали бы удалению и при ручной проверке. По их словам, это позволяло сотрудникам сосредоточиться на более сложных и неоднозначных случаях. Однако критики указывают на риски, связанные с отсутствием человеческого надзора и прозрачности в работе алгоритма. Использование DOGE поднимает важные вопросы об ответственности и этике применения ИИ в государственных структурах, особенно когда речь идет о решениях, влияющих на права и свободы людей. Этот случай подчеркивает необходимость тщательного контроля и регулирования подобных систем, чтобы обеспечить их справедливую и безопасную работу.