Сообщение Gate News, 23 апреля — Anthropic подала в Апелляционный суд США по округу Колумбия заявление, в котором говорится, что после того, как ее ИИ-модели будут развернуты в средах Пентагона, у компании нет ни видимости, ни технических средств, чтобы контролировать или отключать эти модели, и не существует никакого «kill switch».
Подача является последней новостью в споре Anthropic с Пентагоном из‑за статуса «риска для цепочки поставок». В марте Министерство обороны назвало Anthropic риском для цепочки поставок, сославшись на предполагаемое ненадлежащее вмешательство компании в то, как ее технологии применяются в чувствительных военных операциях. Основное противоречие связано с политиками использования Anthropic: они запрещают Claude быть использованным для автономного оружия или массового наблюдения — ограничения, которые Пентагон называет «обфускацией».
Судебный процесс привел к разным решениям: суд в Вашингтоне отклонил просьбу Anthropic приостановить маркировку риска для цепочки поставок, а суд в Калифорнии, наоборот, одобрил ее. На практике Anthropic не может участвовать в новых контрактах Пентагона, но может продолжать обслуживать другие государственные ведомства. Тем временем администрация Трампа продвигает развертывание нового модели Anthropic, Mythos, во всех федеральных агентствах: чиновники изучают, как использовать ее для защиты от кибератак — позиция, которая противоречит точке зрения Пентагона о том, что Anthropic представляет риск для национальной безопасности. Следующее слушание назначено на 19 мая.
Related News
Антропический модель кибербезопасности уровня оружия Mythos подверглась несанкционированному доступу: как им это удалось?
SlowMist: CISO предупреждает: ShinyHunters заявляет о взломе внутренних систем Anthropic
Проверка фактов от Anthropic: подозрение на несанкционированный доступ к предварительному превью Claude Mythos