Компания Anthropic, создатель ИИ-ассистента Claude, объявила о полном запрете использования своих технологий китайскими компаниями и их дочерними структурами. Решение объясняется необходимостью защиты национальной безопасности США и предотвращения возможного использования ИИ в военных и разведывательных целях. 📜 Что именно запретили Теперь под блокировку подпадают: Anthropic фактически поставила «цифровую стену» для доступа к Claude, чтобы минимизировать риск утечек технологий. 🧐 Почему Anthropic пошла на такой шаг В официальном заявлении компания подчеркнула, что технологии искусственного интеллекта могут быть использованы не только для мирных целей. Китайские организации могли бы применять наши модели для создания приложений и сервисов, которые в конечном счёте будут служить интересам военных, разведки или авторитарных структур — заявили в Anthropic. Компания также указала на опасность использования таких методов, как дистилляция моделей, когда ИИ обучают на ответах другой модели, фактически копируя её возможности. Это может позволить создавать локальные аналоги Claude и использовать их для конкуренции с американскими компаниями. 🌏 Авторитарные режимы и риск сотрудничества Anthropic напомнила, что в ряде стран, включая Китай, компании обязаны предоставлять государству доступ к своим данным и технологиям. Это значит, что любой ИИ-сервис, созданный на базе Claude, может косвенно оказываться под контролем местных спецслужб. По сути, Anthropic дала понять: «Мы не хотим, чтобы наш ИИ однажды оказался в сценарии фильма про шпионов, где он помогает писать кибератаки, а не стихи или статьи». 🚀 Стратегия Anthropic и будущее ИИ Стартап намерен и дальше поддерживать строгий экспортный контроль и сотрудничать с правительственными структурами США, чтобы не допустить использования своих моделей в стратегически опасных проектах. «Безопасность ИИ — это не только алгоритмы, но и коллективные усилия, чтобы технологии не попали в руки авторитарных режимов», — подытожили в компании. 🧩 Что это значит для рынка