Игнорируя корпоративные запреты, многие сотрудники тайно используют общедоступные ИИ-инструменты для работы, создавая серьезные риски для безопасности и конфиденциальности данных компании. Это явление, получившее название «теневой ИИ», обусловлено не злым умыслом, а стремлением сотрудников к повышению эффективности. Столкнувшись со сжатыми сроками и большим объемом работы, работники обращаются к легкодоступным ИИ-инструментам, таким как ChatGPT, для автоматизации задач, создания контента и повышения своей производительности, даже если это нарушает политику компании. Основная опасность «теневого ИИ» заключается в безопасности данных. Когда сотрудники вводят конфиденциальную информацию компании, данные клиентов или служебный код в общедоступные ИИ-платформы, бизнес теряет контроль над этими данными. Это может привести к серьезным последствиям, включая утечки, кражу интеллектуальной собственности и нарушение законов о конфиденциальности. Эксперты по безопасности утверждают, что политика тотальных запретов неэффективна. Вместо этого компаниям следует разработать четкие инструкции, предоставить сотрудникам доступ к проверенным и безопасным корпоративным ИИ-инструментам и провести обучение по ответственному использованию технологий. Это позволит использовать преимущества ИИ в производительности, минимизируя при этом сопутствующие риски.